Das passende Dokument für Ihre Frage — gruppiert nach dem, was Sie tun, nicht nach dem Namen des Systems. Die Verweise zeigen auf die tiefer gehenden Dokumente, die es bereits gibt (API-Referenz, Funktions-Katalog, Branchen-Seiten, Troubleshooting). Keine Duplikate.
In fünf Minuten installieren — Linux-Server, macOS-Workstation oder Multi-Node-Cluster. Drei Plattform-Pfade abgedeckt.
Von der abgeschlossenen dnf install bis zum laufenden Cluster — Admin-Anmeldung, Lizenz, erste Wissensbasis, erster Chat.
Neun häufige Installations-Fehler (GPG-Fehler, Port-Konflikte, Admin-Konflikte, Gatekeeper, Lizenz-Signatur) mit Lösungen.
Cluster-weite RPM-Upgrades, orchestriert über den Controller. Drain → installieren → neu starten je Knoten. Referenz: api-reference.md §19.
Lokal abgelegte Snapshots des Cluster-Status — Controller, Vektor, Memory, Konfigurationen. Verifikation + Wiederherstellung pro Snapshot. Referenz: api-reference.md §18.
Interne CA plus Let's-Encrypt-Ausgabe und -Verlängerung über certbot. Erstellen, ausrollen, rotieren. Cluster-weiter Push vom Master. Referenz: Funktionen §13.4.
Geht einen 4.x-Datenbaum (vectors / memory / agent / comm / science) durch und spielt ihn in die 5.0-Syscall-Fläche ein. Begleitendes CLI: scripts/migrate-4x-to-5.0.sh.
Echte rsync-über-SSH-Replikation zwischen Daten-Workern. Vektor-Speicher, Matrix-Memory, Datei-Speicher pro Mandant. SSH-Schlüssel-Authentifizierung.
Ausgehender Event-Publisher mit HMAC-SHA256-Signatur. Fehlgeschlagene Zustellungen werden nach Schwellwert automatisch abgeschaltet. Referenz: Entwickler-Seite.
OpenTelemetry-Exporter — Spans, Counter, Histogramme. Standardmäßig deaktiviert; Admin opt-in. Low-Cardinality-Pfad-Normalisierung eingebaut.
Hash-verkettetes Protokoll jeder KI-gestützten Entscheidung. Belastbarer Nachweis bei Compliance-Prüfungen. Referenz: Funktionen §13.5.
Der Controller bedient die Dashboards für Controller-Übersicht, Swarm-Verwaltung, Cluster-Operationen und Wissens-Browser. Erreichbar unter /dashboard.
OpenAI-kompatible API, Plugin-Entwicklung, Webhooks, Agenten — Drop-in-Ersatz für bestehende OpenAI-Tools.
Vollständige Endpunkt-Liste — Edge, Controller, Router, Daten, Agent, Medien, Comm, Wissenschaft, Training, IoT, Swarm, NOVA, xLSTM, Cluster-Operationen.
Nur die vom Edge erreichbaren Endpunkte — ein Eintrag je Endpunkt. Der Ausgangspunkt für externe Integrationen.
Fünf Plugin-Typen: Tool, Filter, Pipe, Action, Widget. Python oder JS. Manifest + Valves + Main-Code. Marktplatz unter /api/v1/marketplace/catalog.
Der Agent-Builder nutzt LLM-Reasoning, um neue Agenten zu entwerfen; der Agent-Generator nutzt Domänen-Vorlagen für deterministische Massen-Produktion. Beide schreiben nach agents/<name>/.
Abonnement unter /api/v1/webhooks/subscriptions. HMAC-SHA256-Signatur auf jeder ausgehenden POST-Anfrage. Auto-Abschaltung bei Zustell-Fehlschlägen.
Upload über Admin-Konsole → Wissensbasen → Neue Wissensbasis. PDF, DOCX, Markdown, Text, HTML. Chunken und Embedding lokal. RAG-Anfrage über Chat-Shell oder API.
Mehr-Mandanten-Vektor-Speicher auf dem Daten-Worker. SQLite, FAISS, ChromaDB oder Memory-Backend. Referenz: api-reference.md §6.
Hierarchisches assoziatives Gedächtnis — Domäne → Projekt → Lauf. Updates über äußere Produkte plus Matrix-Vektor-Abruf. Portables .emm-v3-Format. Referenz: api-reference.md §7.
Sechs Backends (Unsloth, Axolotl, TRL, DeepSpeed, MLX, llama.cpp), acht Methoden (LoRA, QLoRA, SFT, DPO, RLHF, PPO, Full-Fine-Tune, Distillation). Referenz: api-reference.md §13.
Modell → EMM Wissens-Destillation. Vektor-Quelle → LLM-Q&A-Paare → Matrix-Memory-Assoziationen. Synchroner Lauf über /api/v1/distill/run.
Round-Orchestrierung — Controller verteilt an Teilnehmer, Worker trainieren lokal, Shards aggregieren. Referenz: Funktionen §9.5.
TLS-Terminierung, Authentifizierung, Rate-Limits, eingebauter Webchat, Plugin-Host. Port 443/80. Referenz: api-reference.md §1-3.
Cluster-Orchestrierung, Lizenzierung, Topologie-Push, Cluster-Operationen. Port 8880. Referenz: api-reference.md §18-19.
Intelligentes Routing — acht Load-Balancing-Strategien, Intent-Klassifikation, Themen-Erkennung, KI-basierte Entscheidungen. Port 8881.
Mehrere Backends: Ollama, vLLM, TGI, Triton, OpenAI-kompatibel, llama.cpp. Port 8890.
Multi-Backend-Cloud-Gateway — Ollama Cloud, OpenAI, Anthropic, xAI, Groq, DeepSeek und mehr. Port 8889.
Datei-Speicher, NFS, Datenbanken, Vektor/RAG, Matrix-Memory. Mehr-Mandanten mit Kontingenten. Port 8892.
Agentic RAG, Multi-Agent-Orchestrierung, Anfrage-Zerlegung, Trainings-Daten-Generierung. Port 8893.
STT (Whisper, OpenAI), TTS (Piper, ElevenLabs, OpenAI), Audio-Analyse, Video-Verarbeitung, Voice-Chat. Port 8894.
E-Mail, SMS, WhatsApp, Signal, Teams, XMPP, VoIP. KI-Auto-Antwort. Port 8895.
Source-Registry (§43) — sechzehn Kategorien, 28 eingebaute Quellen. Bioinformatik, Pharma, CRISPR, LIMS. Port 8897.
Sechs Backends, acht Methoden, Trainings-Chains, latentes Reasoning. GPU-Inventar + Multi-GPU. Port 8898.
Direktes Laden von GGUF / xLSTM ohne Ollama / vLLM. Spekulatives Dekodieren, kontinuierliches Batching, Pipeline-Parallelismus. Port 8883.
Consumer-IoT (Netatmo, HomeKit, Matter) plus industrielle Protokolle (OPC-UA, Modbus, MQTT Sparkplug B). Port 8891.
Multi-Agent-Orchestrierung mit sechs Topologien (hierarchisch, P2P, Ring, Stern, Mesh, hybrid). Port 8885-8887.
Ziel-System, Tri-Memory, Reasoning, Meta-Learner, sandboxed Selbst-Modifikation. Port 8899. Standardmäßig deaktiviert.
Pro-Mandant-Grenze auf Speicher, Wissensbasen, Agenten, Projekte. Mandantenübergreifender Zugriff wird am Gateway abgewiesen. Der Mandantenschutz ist in Funktionen §16.1 dokumentiert.
Vier Rollen — Viewer, Developer, Admin, SuperAdmin. Capability-gating der API-Oberfläche. Zuweisung pro Mandant.
Hash-verkettetes Protokoll jeder KI-gestützten Entscheidung. Belastbarer Nachweis für HIPAA-/DSGVO-/21-CFR-Part-11-Prüfungen.
GLP- und FDA-21-CFR-Part-11-Compliance-Flags am Wissenschafts-Worker. IRB-konformer Audit-Pfad.
Voller On-Premises-Stack ohne externe Abhängigkeiten. Cloud-Worker und Federated Learning sind optional.
Ed25519-signierte Lizenz-Dateien. Tiers: Free, Standard, Professional, Enterprise. Hardware-Bindung optional. Lizenz-E-Mail: license@core.at.
Pro Branche: Workload-Muster, Compliance-Unterstützung, Deployment-Form. Jede Seite mit Arbeitsbereichs-Raster, Compliance-Reihe und ehrlichem Stand.
journalctl -u eldric-aios --since today --no-pager