Ein geführter Rundgang durch das, was Eldric heute liefert. Der vollständige maschinenlesbare Katalog liegt in Features.md; derselbe Inhalt ist hier nach Bereichen zusammengefasst.
Ein C++-Kernel beherbergt unabhängige Module (Edge, Controller, Router, Daten, Agent, Medien, Comm, Wissenschaft, Training, Inferenz, IoT, Swarm, NOVA) — jedes auf eigenem Port.
Der Controller pusht die aktuelle Cluster-Topologie bei jedem Heartbeat. Worker entdecken Swarm-, Daten-, Peer-, Router-, Agent- und Medien-URLs automatisch.
Header-only Kernel-Hook liefert 403 bei mandantenübergreifenden Versuchen auf Daten, Speicher, Vektor, Memory, Agent, Comm, Swarm und Mandanten-Pfaden.
Elf Backend-Typen: Ollama, vLLM, TGI, llama.cpp, MLX, NVIDIA Triton, TensorFlow Serving, TorchServe, ONNX, OpenAI-kompatibel, Eldric-Cluster-Durchreichung.
Ein Endpunkt verbindet OpenAI, Anthropic, xAI/Grok, Together, Groq, DeepSeek, Mistral, Cohere, Fireworks, Perplexity. Priorisiertes Routing mit Fallback.
Inferenced lädt GGUF- und xLSTM-Modelle direkt über eingebettetes llama.cpp — kein Ollama, kein vLLM. Multi-GPU-Tensor-Split, spekulatives Dekodieren, Continuous Batching.
Der Router klassifiziert jede Anfrage in 13 Absichten (Chat, RAG, AgentInvoke, Swarm, MemoryStore/Recall, Daten, Wissenschaft, Medien, Comm, Training, IoT, Admin) und leitet an die passende Worker-Klasse weiter.
Medizin, Recht, Code, Finanzen, Wissenschaft, Kreativ, Allgemein. Jedes Thema kann ein eigenes Standardmodell und eigene Regel-Überschreibungen mitbringen.
Eine Anfrage geht an mehrere Modelle, ein Synthese-Modell führt die Antworten zusammen. Nützlich für Entscheidungen mit hohem Einsatz.
Pro Mandant getrennter Dateispeicher mit Kontingenten. Chunk-Upload-Protokoll mit 4 MB Stücken und 24 h TTL für unvollständige Uploads.
SQLite, FAISS, ChromaDB oder In-Memory-Backends. Hybride BM25- + Vektor-Suche. Auto-Chunking beim Hochladen. Re-Embedding bei Dokumentänderung.
Assoziatives Gedächtnis nach dem mLSTM-Vorbild — aufgebaut aus Hebb'schen Updates über äußere Produkte. Komprimierter Abruf neben dem exakten Vektor-Speicher. .emm-Format v3 mit WAL und Checkpoint.
Netatmo (Wetter, Sicherheit), HomeKit, Matter. Geräte-Anmeldung und Attribut-Lese/Schreib-Zugriff über die IoT-Worker-API.
OPC-UA für SPS, SCADA, DCS. Modbus TCP/RTU für Bestandsanlagen. MQTT Sparkplug B. Alarmmanagement, Zeitreihen-Historian, OEE-Analytik.
Live-Tag-Werte fließen in Matrix-Memory. Ein Inferenz-Worker betreibt Anomalie-Erkennung und liefert Wartungs-Scores.
Laufende Anfragen abschließen lassen, Zustand sichern, installieren, SHA-256 prüfen, neu starten, prüfen, zum nächsten Knoten. Der Master verteilt das Update über alle Peers, authentisiert über das gemeinsame Cluster-Secret.
Interne CA plus Let's-Encrypt-Ausgabe und -Verlängerung über certbot. Erstellen, ausrollen, rotieren. Cluster-weiter Push vom Master.
Jeder Mandant bekommt sein eigenes Theme — Farben, Schriften, Seitenleiste — plus optionales Logo. Lesen öffentlich, Schreiben durch Admin, HTML-Sanitisierung im Server.
Schnappschuss von Controller-Zustand, Vektor-Speicher, Matrix-Memory, Mandanten-Konfigurationen, Lizenz, Edge-Plugins. Idempotente Wiederherstellung.
Optionaler OTLP-HTTP-Exporter für Spans, Counter, Histogramme. Niedrige Pfad-Kardinalität — keine ID-Explosion in der Observability-Rechnung.
Ausgehende Webhooks mit HMAC-SHA256-Signatur. Fehlgeschlagene Zustellungen schalten sich nach einem Schwellwert selbst ab.
Die vollständige Liste liegt in Features.md — inklusive Chunk-Upload (§107), mDNS-Discovery (§38), Mandanten-Schutz (§103), 4.x → 5.0 Migration (§85) und Artefakt-Store (§114).
Die API-Referenz und die Public-API-Einzeiler stehen hinter jeder Funktion auf dieser Seite.