Mobile Roboter, FTS, Inspektionsdrohnen, autonome Wasserfahrzeuge und unbemannte Plattformen. Eldric trägt den Kernel mit an Bord — Wahrnehmung, Sprachbefehle und Recovery-Entscheidungen funktionieren weiter, wenn die Funkverbindung abbricht. Weiche Echtzeit, am Edge betrieben, ohne Cloud-Abhängigkeit.
Ein FTS in der Fabrik hinter einem Stahlregal. Eine Inspektionsdrohne in einer Turbinenhalle. Ein Pipeline-Crawler im Stahlrohr. Ein Schiff unter Deck. Die gemeinsame Eigenschaft: die Funkverbindung ist unterbrochen oder fehlt — und der Roboter muss weiter wahrnehmen, entscheiden und handeln.
Kamera-Frames, LiDAR-Scans, IMU-Datenströme laufen durch das native Inferenced. Objekterkennung, Anomalie-Erkennung, Klassifikation auf der Recheneinheit des Roboters — kein Umweg über eine Basisstation.
STT rein, Befehl interpretiert, Aktion ausgeführt, TTS raus — alles an Bord. Nützlich für Inspektions-Teams, die mit Drohnen sprechen, für Werks-Operatoren, die FTS dirigieren, für Außendienst-Techniker, die Service-Roboter bedienen.
Der xLSTM-Prognose-Daemon (Port 8884) übernimmt Trajektorien-Prognose, Bewegungsplanung und Recovery-Strategie auf Zeitreihen-Sensordaten. Linear in der Sequenzlänge — passt besser zu stundenlangen Telemetrie-Fenstern als ein Transformer.
Der IoT-Worker puffert die Telemetrie lokal, solange die Verbindung weg ist, und spielt sie an die Flottenzentrale zurück, sobald die Verbindung wieder steht. Keine verlorenen Frames, keine verlorenen Ereignisse.
Läuft auf einem Pi 4, einem Industrial-Gateway, einem Jetson oder jeder Linux-Recheneinheit am Roboter. Dasselbe Binary wie das Rechenzentrums-Eldric; nur die aktivierten Module unterscheiden sich.
Bricht die Verbindung ab, kann eine vorab geladene Policy den Roboter in einen sicheren Zustand führen. Steht sie wieder, gleicht die Flottenzentrale ab. Weiche Echtzeit an der Linie; harte Echtzeit bleibt Aufgabe des Motorcontrollers.
FTS, AMR, Materialtransport in der Fabrik, Teile-Picker. Eldric verbindet sich über den IoT-Worker mit OPC-UA / Modbus / MQTT und führt Wahrnehmung + Entscheidung lokal aus. Weiche Echtzeit von Sensor zu Aktion: ca. 50 ms im Demo-Cluster.
Inspektionsdrohnen aus der Luft (Turbinenhallen, Hochspannungsleitungen), Pipeline-Crawler, Kanal-Inspektions-Rover. Lange Verbindungsausfälle. Die xLSTM-Prognose erkennt im Voraus, wann der Roboter den Kontakt verliert, und plant den Recovery-Pfad rechtzeitig.
Spital-Lieferroboter, Hotel-Concierge-Bots, Filial-Assistenten im Handel. Sprache rein / Sprache raus, Wissensbasis-Suche (der Dienstplan, das Richtlinien-Handbuch) und der KI-Posteingang, um bei Bedarf an einen Menschen zu eskalieren.
Inferenz an Bord für ADAS-nahe Workloads, Flotten-weite Prognose, Sprach-Schnittstelle für Operatorinnen und Operatoren. Die harte Echtzeit-Steuerung bleibt beim dedizierten Controller; Eldric übernimmt die kognitive Ebene darüber.
Was Eldric auf einem Roboter NICHT macht:
Was es gut macht: die kognitive Ebene einer autonomen Plattform — Wahrnehmung, Sprache, Entscheidung, Zusammenfassung der Telemetrie, Flotten-weite Koordination — alles am Roboter, mit geordnetem Verhalten, wenn die Verbindung zur Basis abbricht.