Eldric ist ein vom Gehirn inspirierter KI-Server, gebaut für die neuromorphe Ära. Er funktioniert wie ChatGPT — die Daten verlassen aber Ihr Netzwerk nicht. Für Banken, Spitäler, Universitäten, Industriebetriebe und alle, die ihre Daten nicht in eine fremde Cloud schicken können.
Eldric liefert drei Clients, ein Werkzeug. Sie sprechen mit Ihrem eigenen Eldric-Cluster — oder, wenn Sie nur ein Notebook haben, direkt mit dem Anbieter Ihrer Wahl. Sie entscheiden.
Browser auf, fertig: ChatGPT-artig. Gehostet auf Ihrem eigenen Eldric-Server, pro Mandant gestaltbar, mit Wissensbasis-Suche, Sprachein- und -ausgabe, Plugins und signierten Teilen-Links — alles enthalten.
Pipe-freundlich in Skripten, interaktiv im Terminal. Spricht mit einem Cluster — oder direkt mit dem Backend Ihrer Wahl. Heute für macOS; Windows und Linux in Entwicklung.
Eine native Anwendung, die mit Ihrem Eldric-Cluster oder direkt mit OpenAI, Anthropic, xAI, Groq, Together, HuggingFace und einem lokalen Ollama spricht. Ein Werkzeug, jedes Backend. Heute für macOS; Windows und Linux in Entwicklung.
Dieselbe Oberfläche, die Sie ohne Cluster nutzen — solo, mit einem API-Schlüssel Ihrer Wahl — schaltet in dem Moment Mehrmandant-Projekte, agentic RAG, Trainings-Pipelines und die Matrix-Memory-Architektur frei, in dem sie auf einen Eldric-Server zeigt. Zwei Modi, ein Client, ein Workflow.
Das sind die Dinge, für die Eldric tatsächlich verwendet wird. Jede ist im Chat ein Klick weg.
Sprechen Sie mit einer KI wie mit ChatGPT. Das Gespräch bleibt in Ihrer Datenbank, in Ihrem Netzwerk.
Dokumente hochladen, Fragen darüber stellen. Quellen werden im Text zitiert — Sie können jede Antwort nachprüfen.
Sprechen statt tippen. Besprechungs-Transkripte, Diktat, Barrierefreiheit. KI-gesteuerte Telefonate sind in Entwicklung.
Entwürfe für E-Mail, SMS, WhatsApp, Signal, Teams. Ein Mensch genehmigt, bevor etwas verschickt wird.
LoRA, QLoRA, DPO — Feinabstimmung auf Ihre Daten. Die Daten verlassen das Haus nicht.
Anbindung an SPS, OPC-UA, Modbus, MQTT Sparkplug B. Vorausschauende Wartung, Alarmtriage, OEE-Analytik, Schichtübergabe-Notizen. Edge-Deployment, weiche Echtzeit — etwa 50 ms Tag-to-Action auf dem Demo-Cluster. Heute der am besten erprobte Arbeitsbereich.
Hundertvierzig Anbindungen an NASA, CERN, PubMed, NCBI, GBIF, IAEA und weitere. Auf Deutsch oder Englisch fragen.
Repository-Suche, Ticket-Triage, Dokumentationsgenerierung, Tests schreiben — Ihr eigener Copilot, auf Ihren GPUs.
Jedes Team bekommt seinen eigenen Mandanten: getrennte Daten, getrennte Modelle, getrennte Abrechnung. Ein Server, saubere Wände.
Werkzeuge, die für OpenAI geschrieben wurden, laufen unverändert weiter. Basis-URL umstellen, fertig.
Eldric ist auf jeder Hardware dieselbe Software. Was sich ändert, ist wie viel davon Sie einschalten. Ein Außendienstmitarbeiter auf einem Pi bekommt Klassifikation und kurze Antworten. Ein Spitalsverbund mit Cluster bekommt agentic RAG für viele Mandanten und föderiertes Training. Dieselbe Software, an die Hardware angepasst.
Mehrknotige Deployments über Racks, Rechenzentren oder Stockwerke hinweg. Rollende Updates, automatische Übernahme, föderiertes Training.
Ein Tower, eine GPU, ein Team. Kleine Betriebe oder Fachabteilungen bekommen die ganze Plattform auf einem Gerät — ohne Cluster-Verwaltung.
Entwickler-Notebook oder Engineering-Workstation: GUI-Client und lokales Eldric im Zusammenspiel. Entwicklungsumgebung ohne Cloud-Abhängigkeit. Funktioniert auch ohne Netzverbindung.
Der Pi 4 (8 GB) bringt Kernel und ein kleines Modell durch — genug für Klassifikation, kurze Antworten und IoT-artige KI auf versiegelten Geräten.
Mobile Roboter, AGVs und Inspektionsdrohnen tragen einen eingebetteten Eldric-Kernel für Wahrnehmung, Sprachsteuerung und autonome Entscheidungen, wenn die Funkverbindung ausfällt.
Inferenz im Fahrzeug für vorausschauende Wartung, Fahrerassistenz und Bord-Agenten, die offline arbeiten. Spricht mit der Flotten-Zentrale, wenn er kann; allein, wenn nötig.
Weitere Ziele, alle im selben RPM / DEB / PKG: Edge-Gateways, Kioske, Hinterzimmer im Einzelhandel, Schiffe, Bohrplattformen, mobile Kliniken. Wo Linux läuft, läuft Eldric.
Gemessen, nicht versprochen. Der Demo-Cluster läuft mit einer Inferenz-GPU (RTX 4070 Ti, 12 GB) plus einer Router-GPU (RTX 2080, 8 GB). Kleinere Aufbauten skalieren linear nach unten; größere nach oben.
Wissensbasis-Suche bei vier parallelen Anfragen stößt heute noch auf eine Latenzschwelle von rund 7 Sekunden im Median. Parallele Suche für mehrere Nutzer ist der nächste technische Schwerpunkt — sobald die Zahlen stehen, veröffentlichen wir sie. Wir behaupten heute keine Sub-Sekunden-Suche im Großbetrieb. Ehrlicher Stand · 2026-05-15
Jeder Bereich führt auf eine ausführliche Seite. Das Gemeinsame: Daten, die das Haus nicht verlassen dürfen.
Eldric integriert die xLSTM-Architektur aus dem Labor von Sepp Hochreiter an der JKU Linz — dem Erfinder des LSTM, einer der Grundlagen der heutigen Deep-Learning-Welt. Wir liefern die Laufzeit, tragen Trainings- und Integrationsarbeit bei und sagen offen, welche vortrainierten Gewichte öffentlich verfügbar sind und welche sich noch in der Distillation befinden.
— Zur Frage „Sind Sie NXAI?"Wir sind nicht NXAI und haben keine formelle Vereinbarung mit dem Linzer Labor. Wir sind eine unabhängige Plattform, die xLSTM-Modelle, klassische Transformer, GGUF-Inferenz und die meisten anderen Backends, die es gibt, ausführt. Wir sitzen in Wien und verfolgen die europäische KI-Forschung aufmerksam — jede Aussage auf dieser Seite lässt sich im öffentlichen Code oder in veröffentlichten Papers nachprüfen.
Der Wissenschafts-Worker liefert GLP- und FDA-21-CFR-Part-11-Modi. Die gesamte Plattform läuft auf DSGVO-konformer Infrastruktur — allein schon, weil sie bei Ihnen im Haus steht.
Eldric installiert auf einem Raspberry Pi 4 für den ersten Probelauf eines kleinen Teams — oder über einen Multi-Node-Cluster für ein ganzes Spitalsnetz. Der Download ist derselbe; die Konfiguration ist anders.