Die öffentliche API ist OpenAI-kompatibel. Tools, die für das OpenAI-SDK geschrieben wurden, sprechen nach einer einzigen Änderung — der Basis-URL — mit einem Eldric-Server statt mit OpenAI. Die vollständige Referenz liegt in den unten verlinkten Dokumenten.
Nur die vom Edge erreichbaren Endpunkte. Ein Eintrag je Endpunkt. Der erste Anlaufpunkt, wenn Sie von außerhalb des Firmennetzes integrieren.
Die vollständige Liste aller Endpunkte, gruppiert nach Komponente (Edge, Controller, Router, Daten, Agent, Medien, Comm, Wissenschaft, Training, IoT, Swarm, NOVA, …).
Achtzehn Bereiche, jede ausgelieferte Funktion, und was sich derzeit noch in Entwicklung befindet. Der Katalog, der hinter jeder Seite dieser Website steht.
Das Paket für Ihre Distribution unter repo.eldric.ai herunterladen. Für Fedora / RHEL:
sudo dnf install eldric-controller eldric-edge eldric-workerd eldric-datad
Die vier Dienste starten. Jeder bringt eine sinnvolle Standard-Konfiguration unter /etc/eldric/ mit. Der Controller lauscht auf Port 8880, der Edge auf 443.
Die Chat-Oberfläche im Browser öffnen (der Edge liefert sie unter /chat aus). Bei einer frischen Installation werden Sie aufgefordert, den ersten Benutzer anzulegen. Dieser erste Benutzer wird zum Administrator des Systems — er erhält die vollen Rechte für Mandanten, Nutzer, Lizenz und Konfiguration. Es gibt kein voreingestelltes Standard-Passwort; Admin ist, wer sich auf einem frischen System zuerst anmeldet. Schließen Sie die Erstregistrierung unmittelbar nach der Installation, oder sorgen Sie dafür, dass die richtige Person in Ihrem Team vor dem Bildschirm sitzt.
Im Admin-UI einen API-Schlüssel erzeugen. Sobald ein Inferenz-Worker läuft und ein Modell geladen ist:
curl https://eldric.local/v1/chat/completions \
-H "Authorization: Bearer $API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "llama-3.3-70b",
"messages": [{"role":"user","content":"Hallo."}],
"stream": true
}'
from openai import OpenAI
client = OpenAI(
base_url="https://eldric.local/v1",
api_key="$API_KEY",
)
resp = client.chat.completions.create(
model="llama-3.3-70b",
messages=[{"role":"user","content":"Hallo."}],
)
Mehr braucht es nicht. Bestehende OpenAI-Tools — LangChain, LlamaIndex, Continue, Cursor — laufen unverändert weiter, sobald die Basis-URL auf Eldric zeigt.
Eine mehrstufige ReAct-Schleife läuft über /api/v1/agent/chat. Komplexe Anfragen lassen sich mit /api/v1/agent/decompose in Teilfragen zerlegen, mit /api/v1/agent/multi mehrere Agenten parallel ausführen.
Feintuning-Jobs starten Sie über /api/v1/jobs mit LoRA, QLoRA, SFT oder DPO. Der Datensatz kann lokal als JSONL liegen oder direkt vom Daten-Worker bezogen werden.
Plugins sind Python- oder JavaScript-Erweiterungen, die der Chat-Server zur Laufzeit lädt. Fünf Plugin-Typen: Tool, Filter, Pipe, Action, Widget. Installation aus dem Marktplatz unter /api/v1/marketplace/catalog.
Ereignisse abonnieren Sie unter /api/v1/webhooks/subscriptions. Jede ausgehende POST-Anfrage ist HMAC-SHA256-signiert. Fehlgeschlagene Zustellungen werden nach einem Schwellwert automatisch abgeschaltet.