Ein kurzer Leitfaden, wie Sie Eldric in einer Domäne anwenden, die nicht von Haus aus abgedeckt ist. Das Prinzip bleibt überall gleich — ingesten, konsolidieren, destillieren, deployen, abfragen. Die Inhalte sind Ihre; die Plattform liefert die Bahnen.
Die eigenen Daten in die Plattform bringen. Dokumente kommen über das Chunked-Upload-Protokoll in eine Wissensbasis; strukturierte Daten über den Datenbank-Konnektor; Sensor-Feeds über den IoT-Worker; Nachrichten über den Communication-Worker. Die Daten bleiben ab dem ersten Moment auf Ihrer Hardware.
Quellen normalisieren. Ein Pharma-Labor zieht Patientenakten aus dem einen EHR, klinische Leitlinien aus einem anderen Korpus und Studien-Protokolle aus einem dritten. Der Daten-Worker bringt sie unter einen Mandanten mit konsistenten Metadaten, so dass eine einzige Anfrage alle drei erreicht.
Das passende Wissen in die passende Form bringen. Vektor-Embeddings für die exakte Retrieval; Matrix-Memory für komprimierten, verallgemeinernden Abruf; ein feinjustiertes kleines Modell für die Terminologie Ihres Hauses. Die Destillations-Pipeline (§50) liest aus einer Vektor-Quelle, lässt das LLM Frage-Antwort-Paare erzeugen und schreibt beide Seiten als äußere-Produkt-Assoziationen in eine portable .emm-Datei.
Die .emm-Matrix-Memory-Datei ist eine einzelne Binär-Datei, die das konsolidierte Domänen-Wissen enthält. Sie wandert zwischen Clustern, lässt sich auf Edge-Geräte ausliefern, wird neben dem Code versioniert. Das Gedächtnis Ihres Spitals nehmen Sie mit in die Außenstelle; das Gedächtnis Ihrer Fertigungslinie deployen Sie auf den Roboter.
Die KI dorthin bringen, wo die Arbeit stattfindet. Ein Rechenzentrums-Cluster für den zentralen Wissens-Worker. Ein Raspberry Pi an der Linie für weiche Echtzeit-Inferenz. Ein Kernel am Roboter für den Offline-Betrieb, wenn der Funk wegbricht. Dasselbe Binary, dasselbe Memory-Format, andere Skalierung.
Die Chat-Oberfläche, die OpenAI-kompatible API, die Agent-Aufrufe, der Dispatch wissenschaftlicher Tools, die Sprache — alle greifen auf dasselbe darunter liegende Gedächtnis und dieselben Agenten zu. Eine Anfrage liefert die Antwort in Ihrer Terminologie, zitiert aus Ihren Quellen, mit dem Audit-Pfad, den die Compliance braucht.
Der Wissenschafts-Worker hat heute sechzehn Kategorien mit achtundzwanzig eingebauten Quellen (NASA, CERN, PubMed, GBIF, …). Ihre Domäne ist vielleicht nicht dabei — aber die Kategorie custom ist der Plugin-Einstiegspunkt. Eine neue Quelle registrieren Sie über POST /api/v1/science/sources mit den Katalog-Metadaten, zeigen auf Ihren Endpunkt — und der Dispatch unter /api/v1/science/tools/execute übernimmt sie neben den eingebauten Quellen.
Jede Kundin und jeder Kunde bekommt KB-Upload ab dem ersten Tag — Admin-Konsole → Wissensbasen → Neue Wissensbasis nimmt PDF, DOCX, Markdown, einfachen Text, HTML. Chunken und Embedding passieren lokal; die Vektoren bleiben auf Ihrem Daten-Worker. RAG-Anfragen aus der Chat-Shell oder über /api/v1/agent/knowledge-bases/{id}/search ziehen die Inhalte heraus und zitieren sie.
POST /api/v1/agent/generate-training am Agent-Worker liest aus einer KB und produziert Trainings-Samples im Alpaca-, OpenAI- oder DPO-Format. Den Datensatz übergeben Sie dem Training-Worker für LoRA, QLoRA, SFT oder DPO. Heraus kommt ein feinjustiertes kleines Modell, das Ihre Terminologie spricht — und Ihre Daten haben Ihr Netzwerk nicht verlassen.
Plugins sind Python- oder JavaScript-Erweiterungen, die der Edge-Plugin-Host zur Laufzeit lädt. Fünf Typen: Tool (server-seitige Fähigkeit, die das LLM aufrufen kann), Filter (Nachrichten-Verarbeitung vor und nach dem LLM), Pipe (virtuelle Modelle / eigene Backends), Action (UI-Erweiterung auf dem Client), Widget (UI-Panel auf dem Client). Installation aus dem Marktplatz-Katalog unter /api/v1/marketplace/catalog oder eigene Plugins direkt im Plugin-Verzeichnis ablegen.
Der Agent-Builder nimmt eine Beschreibung und erzeugt einen Agenten — Tool-Definitionen, System-Prompt, Test-Fälle. Der Agent-Generator macht dasselbe aus einer Domänen-Vorlage (Finanz, Medizin, DevOps, Recht, Wissenschaft, Support). Erzeugte Agenten landen in agents/<name>/ als in sich abgeschlossenes Paket, das Sie versionsverwalten.
Ereignisse abonnieren Sie unter /api/v1/webhooks/subscriptions. Jede ausgehende POST-Anfrage ist HMAC-SHA256-signiert; fehlgeschlagene Zustellungen werden nach einem Schwellwert automatisch abgeschaltet. So binden Sie Ihr nachgelagertes LIMS, Ticket-System oder Monitoring-Stack an den Event-Bus der Plattform.
Ein Genomik-Labor an einem Forschungs-Spital möchte KI-Unterstützung bei der Varianten-Interpretation, aber seine Patienten-Genome unterliegen DSGVO + HIPAA und dürfen die Einrichtung nicht verlassen. Hier der Schritt-für-Schritt-Ablauf.
Ein DGX-Knoten im Genomik-Labor plus ein kleiner Daten-Worker auf dem benachbarten Storage. curl https://repo.eldric.ai/install.sh | sudo bash, dann dnf install eldric-aios auf jedem. Controller auf dem DGX, Daten-Worker auf dem Storage. Lizenz-Datei unter license@core.at für den Professional-Tier.
Drei Wissensbasen über die Admin-Konsole angelegt: klinische-Leitlinien (ACMG-Standards zur Varianten-Interpretation, Spitals-Protokolle), aktuelle-Literatur (zwei Jahre PubMed-Cache), Hausfall-Aufzeichnungen (de-identifizierte frühere Fall-Aufzeichnungen). Das Chunked-Upload-Protokoll übernimmt die mehreren GB an PDFs.
Der Wissenschafts-Worker liefert BLAST, Ensembl, GTEx, OpenFDA von Haus aus. Lokale BLAST-Datenbanken auf dem Daten-Worker — Anfrage-Metadaten gehen heraus, Sequenz-Daten nie. Das Labor ergänzt über die §43-Registry zwei eigene Quellen: die interne Varianten-Datenbank und die Konsortium-geteilte Frequenz-Tabelle.
Der Varianten-Interpretations-Stil des Labors ist spezifisch — kurzes Urteil, strukturierte Begründung, ACMG-Kriterien explizit zitiert. POST /api/v1/agent/generate-training auf der Hausfall-KB produzierte 4.800 Trainings-Samples; ein QLoRA-Lauf auf Llama-3.2-8B lieferte dem Labor sein Hausmodell in etwa zwölf Stunden.
Das gebündelte Wissen — ACMG-Leitlinien plus aktuelle Literatur plus Hausfall-Muster — wird in eine hierarchische .emm-Datei destilliert (Domäne: genomics, Rang 256, Dimension 1024). Die Matrix-Memory liegt neben dem Vektor-Speicher. Komprimierter Abruf ist schnell bei hoher Parallelität; exakte Zitat-Retrieval geht weiterhin auf den Vektor-Speicher.
Genetikerinnen und Genetiker fragen über den Webchat mit aktiviertem Mandanten variant-interp. Die agentic RAG geht über alle drei KBs plus die BLAST-Ausgabe des Wissenschafts-Workers. Das Audit-Protokoll erfasst jede KI-gestützte Entscheidung für die Ethikkommission. Patienten-Genome haben die LAN-Grenze nie überschritten; nur die Antwort.
Die portable Matrix-Memory-Datei ist der Schlüssel, domänen-bewusste KI außerhalb des Rechenzentrums zu betreiben. Eine Außenstelle mit Raspberry Pi bekommt dieselbe .emm-Datei wie das zentrale Spital; ein Fabrik-Edge-Gateway bekommt eine fertigungs-angepasste Variante; ein Roboter auf der Fläche bekommt die Policy-Slice über den xLSTM-Daemon. Dasselbe Binary, dasselbe Memory-Format, andere Skalierung.
Operative Details (Verifikation signierter Artefakte, Versions-Pinning, Store-and-forward für den Offline-Betrieb, Replikations-Strategie zum Aktualisieren der Replikate) liegen in der Edge-Runtime-Dokumentation — siehe Unternehmen für den architektonischen Überblick und den Funktions-Katalog §14 für die einzelnen Funktionen.
Fünfzehn Branchen-Seiten decken die Sektoren mit den am besten etablierten Deployment-Mustern ab: Spitäler, Banken, Anwaltskanzleien, Versicherungen, Pharma, Genomik, Fabriken, Automotive, Robotik, Logistik, Handels-Desks, Raumfahrt und Sternwarten, Erdbeobachtung, Materialwissenschaft, Neurowissenschaft, CRISPR.
Wenn Ihre Domäne dort noch nicht steht, gilt das Sechs-Schritte-Prinzip oben trotzdem. Schreiben Sie an office@eldric.ai mit einer Skizze, was Sie vorhaben; wir sagen Ihnen, welche Erweiterungspunkte passen, wie das Beispiel für Ihren Sektor aussehen würde, und ob das Ergebnis ein 5.0-Patch braucht oder in den aktuellen Release passt.