Eldric in Ihrer Domäne anwenden

Von Ihren Daten
zu Ihrer KI.

Ein kurzer Leitfaden, wie Sie Eldric in einer Domäne anwenden, die nicht von Haus aus abgedeckt ist. Das Prinzip bleibt überall gleich — ingesten, konsolidieren, destillieren, deployen, abfragen. Die Inhalte sind Ihre; die Plattform liefert die Bahnen.


Das Prinzip

Sechs Schritte von Rohdaten zu domänen-bewusster KI.

1. Ingesten

Die eigenen Daten in die Plattform bringen. Dokumente kommen über das Chunked-Upload-Protokoll in eine Wissensbasis; strukturierte Daten über den Datenbank-Konnektor; Sensor-Feeds über den IoT-Worker; Nachrichten über den Communication-Worker. Die Daten bleiben ab dem ersten Moment auf Ihrer Hardware.

2. Konsolidieren

Quellen normalisieren. Ein Pharma-Labor zieht Patientenakten aus dem einen EHR, klinische Leitlinien aus einem anderen Korpus und Studien-Protokolle aus einem dritten. Der Daten-Worker bringt sie unter einen Mandanten mit konsistenten Metadaten, so dass eine einzige Anfrage alle drei erreicht.

3. Destillieren

Das passende Wissen in die passende Form bringen. Vektor-Embeddings für die exakte Retrieval; Matrix-Memory für komprimierten, verallgemeinernden Abruf; ein feinjustiertes kleines Modell für die Terminologie Ihres Hauses. Die Destillations-Pipeline (§50) liest aus einer Vektor-Quelle, lässt das LLM Frage-Antwort-Paare erzeugen und schreibt beide Seiten als äußere-Produkt-Assoziationen in eine portable .emm-Datei.

4. Portabel machen

Die .emm-Matrix-Memory-Datei ist eine einzelne Binär-Datei, die das konsolidierte Domänen-Wissen enthält. Sie wandert zwischen Clustern, lässt sich auf Edge-Geräte ausliefern, wird neben dem Code versioniert. Das Gedächtnis Ihres Spitals nehmen Sie mit in die Außenstelle; das Gedächtnis Ihrer Fertigungslinie deployen Sie auf den Roboter.

5. Deployen

Die KI dorthin bringen, wo die Arbeit stattfindet. Ein Rechenzentrums-Cluster für den zentralen Wissens-Worker. Ein Raspberry Pi an der Linie für weiche Echtzeit-Inferenz. Ein Kernel am Roboter für den Offline-Betrieb, wenn der Funk wegbricht. Dasselbe Binary, dasselbe Memory-Format, andere Skalierung.

6. Abfragen

Die Chat-Oberfläche, die OpenAI-kompatible API, die Agent-Aufrufe, der Dispatch wissenschaftlicher Tools, die Sprache — alle greifen auf dasselbe darunter liegende Gedächtnis und dieselben Agenten zu. Eine Anfrage liefert die Antwort in Ihrer Terminologie, zitiert aus Ihren Quellen, mit dem Audit-Pfad, den die Compliance braucht.


Erweiterungspunkte

Wo Sie einsteigen.

Eigene Datenquellen über die Science-Source-Registry (§43)

Der Wissenschafts-Worker hat heute sechzehn Kategorien mit achtundzwanzig eingebauten Quellen (NASA, CERN, PubMed, GBIF, …). Ihre Domäne ist vielleicht nicht dabei — aber die Kategorie custom ist der Plugin-Einstiegspunkt. Eine neue Quelle registrieren Sie über POST /api/v1/science/sources mit den Katalog-Metadaten, zeigen auf Ihren Endpunkt — und der Dispatch unter /api/v1/science/tools/execute übernimmt sie neben den eingebauten Quellen.

Wissensbasen

Jede Kundin und jeder Kunde bekommt KB-Upload ab dem ersten Tag — Admin-Konsole → Wissensbasen → Neue Wissensbasis nimmt PDF, DOCX, Markdown, einfachen Text, HTML. Chunken und Embedding passieren lokal; die Vektoren bleiben auf Ihrem Daten-Worker. RAG-Anfragen aus der Chat-Shell oder über /api/v1/agent/knowledge-bases/{id}/search ziehen die Inhalte heraus und zitieren sie.

Trainings-Daten aus den eigenen Wissensbasen

POST /api/v1/agent/generate-training am Agent-Worker liest aus einer KB und produziert Trainings-Samples im Alpaca-, OpenAI- oder DPO-Format. Den Datensatz übergeben Sie dem Training-Worker für LoRA, QLoRA, SFT oder DPO. Heraus kommt ein feinjustiertes kleines Modell, das Ihre Terminologie spricht — und Ihre Daten haben Ihr Netzwerk nicht verlassen.

Plugins

Plugins sind Python- oder JavaScript-Erweiterungen, die der Edge-Plugin-Host zur Laufzeit lädt. Fünf Typen: Tool (server-seitige Fähigkeit, die das LLM aufrufen kann), Filter (Nachrichten-Verarbeitung vor und nach dem LLM), Pipe (virtuelle Modelle / eigene Backends), Action (UI-Erweiterung auf dem Client), Widget (UI-Panel auf dem Client). Installation aus dem Marktplatz-Katalog unter /api/v1/marketplace/catalog oder eigene Plugins direkt im Plugin-Verzeichnis ablegen.

Eigene Agenten

Der Agent-Builder nimmt eine Beschreibung und erzeugt einen Agenten — Tool-Definitionen, System-Prompt, Test-Fälle. Der Agent-Generator macht dasselbe aus einer Domänen-Vorlage (Finanz, Medizin, DevOps, Recht, Wissenschaft, Support). Erzeugte Agenten landen in agents/<name>/ als in sich abgeschlossenes Paket, das Sie versionsverwalten.

Webhook-Abonnenten

Ereignisse abonnieren Sie unter /api/v1/webhooks/subscriptions. Jede ausgehende POST-Anfrage ist HMAC-SHA256-signiert; fehlgeschlagene Zustellungen werden nach einem Schwellwert automatisch abgeschaltet. So binden Sie Ihr nachgelagertes LIMS, Ticket-System oder Monitoring-Stack an den Event-Bus der Plattform.


Beispiel-Durchgang

Ein Bioinformatik-Labor führt Eldric ein.

Ein Genomik-Labor an einem Forschungs-Spital möchte KI-Unterstützung bei der Varianten-Interpretation, aber seine Patienten-Genome unterliegen DSGVO + HIPAA und dürfen die Einrichtung nicht verlassen. Hier der Schritt-für-Schritt-Ablauf.

1. Installieren

Ein DGX-Knoten im Genomik-Labor plus ein kleiner Daten-Worker auf dem benachbarten Storage. curl https://repo.eldric.ai/install.sh | sudo bash, dann dnf install eldric-aios auf jedem. Controller auf dem DGX, Daten-Worker auf dem Storage. Lizenz-Datei unter license@core.at für den Professional-Tier.

2. Korpus ingesten

Drei Wissensbasen über die Admin-Konsole angelegt: klinische-Leitlinien (ACMG-Standards zur Varianten-Interpretation, Spitals-Protokolle), aktuelle-Literatur (zwei Jahre PubMed-Cache), Hausfall-Aufzeichnungen (de-identifizierte frühere Fall-Aufzeichnungen). Das Chunked-Upload-Protokoll übernimmt die mehreren GB an PDFs.

3. Wissenschafts-Worker einbinden

Der Wissenschafts-Worker liefert BLAST, Ensembl, GTEx, OpenFDA von Haus aus. Lokale BLAST-Datenbanken auf dem Daten-Worker — Anfrage-Metadaten gehen heraus, Sequenz-Daten nie. Das Labor ergänzt über die §43-Registry zwei eigene Quellen: die interne Varianten-Datenbank und die Konsortium-geteilte Frequenz-Tabelle.

4. Kleines Modell feinjustieren

Der Varianten-Interpretations-Stil des Labors ist spezifisch — kurzes Urteil, strukturierte Begründung, ACMG-Kriterien explizit zitiert. POST /api/v1/agent/generate-training auf der Hausfall-KB produzierte 4.800 Trainings-Samples; ein QLoRA-Lauf auf Llama-3.2-8B lieferte dem Labor sein Hausmodell in etwa zwölf Stunden.

5. In Matrix-Memory destillieren

Das gebündelte Wissen — ACMG-Leitlinien plus aktuelle Literatur plus Hausfall-Muster — wird in eine hierarchische .emm-Datei destilliert (Domäne: genomics, Rang 256, Dimension 1024). Die Matrix-Memory liegt neben dem Vektor-Speicher. Komprimierter Abruf ist schnell bei hoher Parallelität; exakte Zitat-Retrieval geht weiterhin auf den Vektor-Speicher.

6. Deployen + abfragen

Genetikerinnen und Genetiker fragen über den Webchat mit aktiviertem Mandanten variant-interp. Die agentic RAG geht über alle drei KBs plus die BLAST-Ausgabe des Wissenschafts-Workers. Das Audit-Protokoll erfasst jede KI-gestützte Entscheidung für die Ethikkommission. Patienten-Genome haben die LAN-Grenze nie überschritten; nur die Antwort.

Mehr auf der Genomik-Seite


Edge-Deployment

Die KI zu den Daten bringen.

Die portable Matrix-Memory-Datei ist der Schlüssel, domänen-bewusste KI außerhalb des Rechenzentrums zu betreiben. Eine Außenstelle mit Raspberry Pi bekommt dieselbe .emm-Datei wie das zentrale Spital; ein Fabrik-Edge-Gateway bekommt eine fertigungs-angepasste Variante; ein Roboter auf der Fläche bekommt die Policy-Slice über den xLSTM-Daemon. Dasselbe Binary, dasselbe Memory-Format, andere Skalierung.

Operative Details (Verifikation signierter Artefakte, Versions-Pinning, Store-and-forward für den Offline-Betrieb, Replikations-Strategie zum Aktualisieren der Replikate) liegen in der Edge-Runtime-Dokumentation — siehe Unternehmen für den architektonischen Überblick und den Funktions-Katalog §14 für die einzelnen Funktionen.


Bereits etablierte Domänen

Wo Eldric heute schon läuft.

Fünfzehn Branchen-Seiten decken die Sektoren mit den am besten etablierten Deployment-Mustern ab: Spitäler, Banken, Anwaltskanzleien, Versicherungen, Pharma, Genomik, Fabriken, Automotive, Robotik, Logistik, Handels-Desks, Raumfahrt und Sternwarten, Erdbeobachtung, Materialwissenschaft, Neurowissenschaft, CRISPR.

Wenn Ihre Domäne dort noch nicht steht, gilt das Sechs-Schritte-Prinzip oben trotzdem. Schreiben Sie an office@eldric.ai mit einer Skizze, was Sie vorhaben; wir sagen Ihnen, welche Erweiterungspunkte passen, wie das Beispiel für Ihren Sektor aussehen würde, und ob das Ergebnis ein 5.0-Patch braucht oder in den aktuellen Release passt.