Vom Gehirn inspirierte KI · für die neuromorphe Ära

Ihre KI.
Ihre Daten.
Ihre Regeln.

Eldric ist ein vom Gehirn inspirierter KI-Server, gebaut für die neuromorphe Ära. Er funktioniert wie ChatGPT — die Daten verlassen aber Ihr Netzwerk nicht. Für Banken, Spitäler, Universitäten, Industriebetriebe und alle, die ihre Daten nicht in eine fremde Cloud schicken können.

Die Daten verlassen Ihr Netzwerk nicht Keine Token-Abrechnung Funktioniert auch offline
Gebaut in Wien · Für Europa
eldric Privater Chat Wissensbasis Eigene Modelle Industrie-KI Wissenschaft KI-Postfach Mehrteam OpenAI-Format
NXAI Linz · xLSTM-Labor JKU Linz Sepp Hochreiter Banken · reguliert Anwendungsfall Spitäler · HIPAA Anwendungsfall Universitätsforschung Anwendungsfall Industrie-KI Anwendungsfall Öffentliche Hand Anwendungsfall Pharma · GLP Anwendungsfall NXAI Linz · xLSTM-Labor JKU Linz Sepp Hochreiter Banken · reguliert Anwendungsfall Spitäler · HIPAA Anwendungsfall Universitätsforschung Anwendungsfall Industrie-KI Anwendungsfall Öffentliche Hand Anwendungsfall Pharma · GLP Anwendungsfall
Schluss mit gemieteter KI

Cloud-Dienste sind nicht mehr nötig.

Eldric liefert drei Clients, ein Werkzeug. Sie sprechen mit Ihrem eigenen Eldric-Cluster — oder, wenn Sie nur ein Notebook haben, direkt mit dem Anbieter Ihrer Wahl. Sie entscheiden.

Web-Chat eingebaut

Browser auf, fertig: ChatGPT-artig. Gehostet auf Ihrem eigenen Eldric-Server, pro Mandant gestaltbar, mit Wissensbasis-Suche, Sprachein- und -ausgabe, Plugins und signierten Teilen-Links — alles enthalten.

Kommandozeile

Pipe-freundlich in Skripten, interaktiv im Terminal. Spricht mit einem Cluster — oder direkt mit dem Backend Ihrer Wahl. Heute für macOS; Windows und Linux in Entwicklung.

Universal-Desktop-Client

Eine native Anwendung, die mit Ihrem Eldric-Cluster oder direkt mit OpenAI, Anthropic, xAI, Groq, Together, HuggingFace und einem lokalen Ollama spricht. Ein Werkzeug, jedes Backend. Heute für macOS; Windows und Linux in Entwicklung.

Dieselbe Oberfläche, die Sie ohne Cluster nutzen — solo, mit einem API-Schlüssel Ihrer Wahl — schaltet in dem Moment Mehrmandant-Projekte, agentic RAG, Trainings-Pipelines und die Matrix-Memory-Architektur frei, in dem sie auf einen Eldric-Server zeigt. Zwei Modi, ein Client, ein Workflow.


Was Sie damit machen

Zehn Sachen, in klarem Deutsch.

Das sind die Dinge, für die Eldric tatsächlich verwendet wird. Jede ist im Chat ein Klick weg.

Privater Chat

Sprechen Sie mit einer KI wie mit ChatGPT. Das Gespräch bleibt in Ihrer Datenbank, in Ihrem Netzwerk.

Wissensbasis

Dokumente hochladen, Fragen darüber stellen. Quellen werden im Text zitiert — Sie können jede Antwort nachprüfen.

Diktat & Transkription

Sprechen statt tippen. Besprechungs-Transkripte, Diktat, Barrierefreiheit. KI-gesteuerte Telefonate sind in Entwicklung.

KI-Postfach

Entwürfe für E-Mail, SMS, WhatsApp, Signal, Teams. Ein Mensch genehmigt, bevor etwas verschickt wird.

Eigenes Modell trainieren

LoRA, QLoRA, DPO — Feinabstimmung auf Ihre Daten. Die Daten verlassen das Haus nicht.

Industrie-KI an der Linie

Anbindung an SPS, OPC-UA, Modbus, MQTT Sparkplug B. Vorausschauende Wartung, Alarmtriage, OEE-Analytik, Schichtübergabe-Notizen. Edge-Deployment, weiche Echtzeit — etwa 50 ms Tag-to-Action auf dem Demo-Cluster. Heute der am besten erprobte Arbeitsbereich.

Wissenschaftliche Recherche

Hundertvierzig Anbindungen an NASA, CERN, PubMed, NCBI, GBIF, IAEA und weitere. Auf Deutsch oder Englisch fragen.

Code-Helfer

Repository-Suche, Ticket-Triage, Dokumentationsgenerierung, Tests schreiben — Ihr eigener Copilot, auf Ihren GPUs.

Mehrere Teams

Jedes Team bekommt seinen eigenen Mandanten: getrennte Daten, getrennte Modelle, getrennte Abrechnung. Ein Server, saubere Wände.

OpenAI-kompatibel

Werkzeuge, die für OpenAI geschrieben wurden, laufen unverändert weiter. Basis-URL umstellen, fertig.


Wo es läuft

Dasselbe Eldric, vom Pi bis zur Flotte.

Eldric ist auf jeder Hardware dieselbe Software. Was sich ändert, ist wie viel davon Sie einschalten. Ein Außendienstmitarbeiter auf einem Pi bekommt Klassifikation und kurze Antworten. Ein Spitalsverbund mit Cluster bekommt agentic RAG für viele Mandanten und föderiertes Training. Dieselbe Software, an die Hardware angepasst.

Cluster

Mehrknotige Deployments über Racks, Rechenzentren oder Stockwerke hinweg. Rollende Updates, automatische Übernahme, föderiertes Training.

Einzelne Server

Ein Tower, eine GPU, ein Team. Kleine Betriebe oder Fachabteilungen bekommen die ganze Plattform auf einem Gerät — ohne Cluster-Verwaltung.

Arbeitsplätze

Entwickler-Notebook oder Engineering-Workstation: GUI-Client und lokales Eldric im Zusammenspiel. Entwicklungsumgebung ohne Cloud-Abhängigkeit. Funktioniert auch ohne Netzverbindung.

Raspberry Pi

Der Pi 4 (8 GB) bringt Kernel und ein kleines Modell durch — genug für Klassifikation, kurze Antworten und IoT-artige KI auf versiegelten Geräten.

Roboter

Mobile Roboter, AGVs und Inspektionsdrohnen tragen einen eingebetteten Eldric-Kernel für Wahrnehmung, Sprachsteuerung und autonome Entscheidungen, wenn die Funkverbindung ausfällt.

Autos & Fahrzeuge

Inferenz im Fahrzeug für vorausschauende Wartung, Fahrerassistenz und Bord-Agenten, die offline arbeiten. Spricht mit der Flotten-Zentrale, wenn er kann; allein, wenn nötig.

Weitere Ziele, alle im selben RPM / DEB / PKG: Edge-Gateways, Kioske, Hinterzimmer im Einzelhandel, Schiffe, Bohrplattformen, mobile Kliniken. Wo Linux läuft, läuft Eldric.


Unser Demo-Cluster, jetzt gerade

Was die Zahlen tatsächlich sagen.

Gemessen, nicht versprochen. Der Demo-Cluster läuft mit einer Inferenz-GPU (RTX 4070 Ti, 12 GB) plus einer Router-GPU (RTX 2080, 8 GB). Kleinere Aufbauten skalieren linear nach unten; größere nach oben.

793/s
Anhaltende Chat-Anfragen bei 32 parallelen Verbindungen
41 ms
Median-Antwortzeit unter dieser Last
42 ms
p99-Latenz unter Last — bleibt mit steigender Parallelität flach
140+
Anbindungen an wissenschaftliche Datenbanken & Agenturen
Wissensbasis-Suche bei vier parallelen Anfragen stößt heute noch auf eine Latenzschwelle von rund 7 Sekunden im Median. Parallele Suche für mehrere Nutzer ist der nächste technische Schwerpunkt — sobald die Zahlen stehen, veröffentlichen wir sie. Wir behaupten heute keine Sub-Sekunden-Suche im Großbetrieb. Ehrlicher Stand · 2026-05-15

Wer es nutzt

Zwölf Branchen, ein Server.

Jeder Bereich führt auf eine ausführliche Seite. Das Gemeinsame: Daten, die das Haus nicht verlassen dürfen.


Herkunft

Auf der Arbeit gebaut, die Long Short-Term Memory begründet hat.

Eldric integriert die xLSTM-Architektur aus dem Labor von Sepp Hochreiter an der JKU Linz — dem Erfinder des LSTM, einer der Grundlagen der heutigen Deep-Learning-Welt. Wir liefern die Laufzeit, tragen Trainings- und Integrationsarbeit bei und sagen offen, welche vortrainierten Gewichte öffentlich verfügbar sind und welche sich noch in der Distillation befinden.

— Zur Frage „Sind Sie NXAI?"

Wir sind nicht NXAI und haben keine formelle Vereinbarung mit dem Linzer Labor. Wir sind eine unabhängige Plattform, die xLSTM-Modelle, klassische Transformer, GGUF-Inferenz und die meisten anderen Backends, die es gibt, ausführt. Wir sitzen in Wien und verfolgen die europäische KI-Forschung aufmerksam — jede Aussage auf dieser Seite lässt sich im öffentlichen Code oder in veröffentlichten Papers nachprüfen.


Compliance

Für regulierte Arbeit gebaut.

Der Wissenschafts-Worker liefert GLP- und FDA-21-CFR-Part-11-Modi. Die gesamte Plattform läuft auf DSGVO-konformer Infrastruktur — allein schon, weil sie bei Ihnen im Haus steht.

DSGVO Daten bleiben im Haus GLP Compliance-Modus FDA 21 CFR Part 11 elektronische Aufzeichnungen HIPAA-konform Ed25519-signierte Lizenzen Audit-Protokoll Hash-verkettet

Loslegen

Läuft auf dem, was Sie schon haben.

Eldric installiert auf einem Raspberry Pi 4 für den ersten Probelauf eines kleinen Teams — oder über einen Multi-Node-Cluster für ein ganzes Spitalsnetz. Der Download ist derselbe; die Konfiguration ist anders.