Für Entwickler

Spricht OpenAI.
Läuft bei Ihnen.

Die öffentliche API ist OpenAI-kompatibel. Tools, die für das OpenAI-SDK geschrieben wurden, sprechen nach einer einzigen Änderung — der Basis-URL — mit einem Eldric-Server statt mit OpenAI. Die vollständige Referenz liegt in den unten verlinkten Dokumenten.


Drei Dokumente

Wählen Sie das passende.

api-public.md

Nur die vom Edge erreichbaren Endpunkte. Ein Eintrag je Endpunkt. Der erste Anlaufpunkt, wenn Sie von außerhalb des Firmennetzes integrieren.

api-reference.md

Die vollständige Liste aller Endpunkte, gruppiert nach Komponente (Edge, Controller, Router, Daten, Agent, Medien, Comm, Wissenschaft, Training, IoT, Swarm, NOVA, …).

Features.md

Achtzehn Bereiche, jede ausgelieferte Funktion, und was sich derzeit noch in Entwicklung befindet. Der Katalog, der hinter jeder Seite dieser Website steht.


Schnellstart

In fünf Minuten startklar.

1. Installieren

Das Paket für Ihre Distribution unter repo.eldric.ai herunterladen. Für Fedora / RHEL:

sudo dnf install eldric-controller eldric-edge eldric-workerd eldric-datad

2. Konfigurieren

Die vier Dienste starten. Jeder bringt eine sinnvolle Standard-Konfiguration unter /etc/eldric/ mit. Der Controller lauscht auf Port 8880, der Edge auf 443.

3. Administrator anlegen

Die Chat-Oberfläche im Browser öffnen (der Edge liefert sie unter /chat aus). Bei einer frischen Installation werden Sie aufgefordert, den ersten Benutzer anzulegen. Dieser erste Benutzer wird zum Administrator des Systems — er erhält die vollen Rechte für Mandanten, Nutzer, Lizenz und Konfiguration. Es gibt kein voreingestelltes Standard-Passwort; Admin ist, wer sich auf einem frischen System zuerst anmeldet. Schließen Sie die Erstregistrierung unmittelbar nach der Installation, oder sorgen Sie dafür, dass die richtige Person in Ihrem Team vor dem Bildschirm sitzt.

4. Erster API-Aufruf

Im Admin-UI einen API-Schlüssel erzeugen. Sobald ein Inferenz-Worker läuft und ein Modell geladen ist:

curl https://eldric.local/v1/chat/completions \
  -H "Authorization: Bearer $API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "llama-3.3-70b",
    "messages": [{"role":"user","content":"Hallo."}],
    "stream": true
  }'

5. Mit dem OpenAI-SDK

from openai import OpenAI
client = OpenAI(
    base_url="https://eldric.local/v1",
    api_key="$API_KEY",
)
resp = client.chat.completions.create(
    model="llama-3.3-70b",
    messages=[{"role":"user","content":"Hallo."}],
)

Mehr braucht es nicht. Bestehende OpenAI-Tools — LangChain, LlamaIndex, Continue, Cursor — laufen unverändert weiter, sobald die Basis-URL auf Eldric zeigt.


Mehr als Chat

Was noch geht.

Agenten & Workflows

Eine mehrstufige ReAct-Schleife läuft über /api/v1/agent/chat. Komplexe Anfragen lassen sich mit /api/v1/agent/decompose in Teilfragen zerlegen, mit /api/v1/agent/multi mehrere Agenten parallel ausführen.

Training

Feintuning-Jobs starten Sie über /api/v1/jobs mit LoRA, QLoRA, SFT oder DPO. Der Datensatz kann lokal als JSONL liegen oder direkt vom Daten-Worker bezogen werden.

Plugins

Plugins sind Python- oder JavaScript-Erweiterungen, die der Chat-Server zur Laufzeit lädt. Fünf Plugin-Typen: Tool, Filter, Pipe, Action, Widget. Installation aus dem Marktplatz unter /api/v1/marketplace/catalog.

Webhooks

Ereignisse abonnieren Sie unter /api/v1/webhooks/subscriptions. Jede ausgehende POST-Anfrage ist HMAC-SHA256-signiert. Fehlgeschlagene Zustellungen werden nach einem Schwellwert automatisch abgeschaltet.