Eldric liefert Engineering, aber die Architektur ruht auf Forschung. xLSTM aus dem Labor von Sepp Hochreiter. Das NOVA-Experimentalmodul für selbst-verbessernde Agenten. Matrix-Memory inspiriert von mLSTM. Schlaf-Zyklen-Konsolidierung im Traum-Modul. Distillation aus großen Transformern in kleine zielgerichtete Modelle. Jedes davon ist auf Software-Ebene vom Gehirn inspiriert — und jedes davon ist ein Schritt in Richtung der neuromorphen Chips, die Intel und IBM in diesem Jahr in Produktion gebracht haben.
Die Brute-Force-Ära der KI stößt an Grenzen. Strom im Rechenzentrum ist der neue Engpass. Intel Loihi 3 (4 nm, 8 Millionen Neuronen, 64 Milliarden Synapsen, 1,2 W) ist Anfang 2026 auf den Markt gekommen. IBM NorthPole verarbeitet bildlastige Unternehmens-Workloads mit etwa 25-facher Energieeffizienz gegenüber einer H100. Die neuromorphe Ära ist in der Hardware angekommen; die Software muss nachziehen.
Eldric ist von Anfang an am Vorbild des Gehirns entworfen — lange bevor diese Hardware verfügbar war. Matrix-Memory nutzt Hebb'sche Updates über äußere Produkte, so wie biologische Synapsen sich verstärken. Das Traum-Modul konsolidiert Gedächtnis in Schlaf-Zyklen, so wie das episodische Gedächtnis des Menschen über Nacht. NOVA teilt Gedächtnis in episodisch, semantisch und prozedural — direkt aus der kognitiven Neurowissenschaft. Und xLSTM führt die LSTM-Linie weiter, die seit dreißig Jahren das Verstehen von Sequenzen prägt.
Heute läuft das alles auf gewöhnlichen GPUs — auf denselben RTX-Karten, die ohnehin in Ihrer Infrastruktur stehen. Morgen richtet es sich auf Loihi 3, NorthPole und was danach kommt. Dasselbe Eldric, dieselben Lasten, deutlich weniger Strom. Wir bereiten die Laufzeit jetzt darauf vor.
Klar gesagt: Eldric betreibt heute kein Spiking Neural Network auf einem Loihi-Chip. Es gibt keinen SNN-Ausführungspfad im Code. Wir behaupten keine neuromorphe Hardware-Unterstützung, die nicht existiert. Was wir behaupten:
cpp/src/distributed/data/matrix_memory.cpp, cpp/src/distributed/dreams/, der xLSTM-Trainings-Pipeline und im NOVA-Modul.8884) für einen künftigen eldric-xlstmd-Daemon, mit der Option, einen Geschwister-Daemon eldric-spikingd für ein SNN-/Loihi-Backend zu ergänzen, sobald Nachfrage und Hardware-Verfügbarkeit zusammenkommen.Sepp Hochreiter hat 1997 LSTM miterfunden. 2024 veröffentlichte sein Labor an der JKU Linz xLSTM (arXiv:2405.04517) — eine Erweiterung von LSTM, die in einer Reihe von Benchmarks über Transformer-Kontextfenster hinaus skaliert, mit linearem Speicher- und Zeitbedarf relativ zur Sequenzlänge. NXAI (sein industrielles Spin-off) baut Modelle auf dieser Architektur.
Eldric integriert die xLSTM-Laufzeit: Trainings-Pipeline-Unterstützung, native Inferenz über eldric-inferenced und einen geplanten dedizierten Daemon (eldric-xlstmd) für die Policy- / Forecast- / Encode- / Retrieve-Lasten, in denen xLSTM stark ist. Wir sind nicht NXAI und haben keine formelle Partnerschaft mit dem Labor. Wir sind eine unabhängige Plattform, die xLSTM-Modelle neben Transformern, Mixture-of-Experts und allem anderen ausführt. Wo wir ein Paper zitieren, zitieren wir die öffentliche arXiv-Version.
Ehrlicher Stand: Vortrainierte xLSTM-Checkpoints für Vision (pLSTM, die perzeptive Erweiterung) sind noch in der Distillation. Die Trainings-Pipeline ist ausgeliefert; die öffentlichen Gewichte sind noch nicht final. Wir veröffentlichen Termine, sobald wir sie kennen.
— Zur Frage „Kann ich heute ein xLSTM herunterladen?"NOVA ist ein optionales Experimentalmodul, das auf Eldric aufsetzt. Es implementiert vier lose Komponenten, jede in eine andere Forschungsrichtung:
NOVA ist Forschungs-Code. Wir liefern es, weil echte Forschung dann passiert, wenn echter Code läuft — nicht beim Schreiben unveröffentlichter Papers. Wer mit ziel-getriebenen Agenten auf privater Infrastruktur experimentieren möchte, findet in NOVA den Einstiegspunkt.
Der Daten-Worker hält ein hierarchisches assoziatives Gedächtnis, aufgebaut aus Updates über äußere Produkte: M = decay·M + importance·(v⊗k). Drei Ebenen: Domäne → Projekt → Lauf. Komprimierter, generalisierender Abruf neben dem exakten Vektor-Speicher. Format .emm: 128-Byte-Header, 64-KB-Blöcke, CRC32 je Block, Write-Ahead-Log plus Checkpoint für Crash-Sicherheit. Inspiriert vom mLSTM-Update; produktionsreif — gesichert, repliziert und überprüfbar.
Der Modell-zu-EMM-Distillationsfluss nimmt ein Korpus, lässt ein LLM Frage-Antwort-Paare darüber erzeugen, bettet beide Seiten ein und schreibt das Paar als Assoziation in Form eines äußeren Produkts in das Matrix-Memory. Das Ergebnis ist eine kompakte, abfragbare Repräsentation des Korpus — das LLM muss nicht für jede Anfrage erneut laufen. Nützlich, wenn Sie eine große, stabile Wissensbasis haben und schnellen Abruf zu einem Bruchteil der Inferenzkosten wollen.
Wir sitzen in Wien. Wir verfolgen die Arbeit aus dem Linzer Labor über öffentliche Papers und Releases. Wir besuchen die bayerisch-österreichischen KI-Treffen und die EuroSPI- / DSGVO-Compliance-Foren. Wenn Sie als Forscher ein Modell so hosten möchten, dass es dem europäischen Datenrecht entspricht, ohne dabei auf moderne Möglichkeiten zu verzichten, schreiben Sie an office@eldric.ai — akademische und Forschungs-Lizenzen sind zu freundlichen Konditionen verfügbar.