Einen KI-Assistenten selbst hosten mit OpenClaw und Mission Control
23.02.2026
Warum einen KI-Assistenten selbst hosten?
Cloud-gehostete KI-Assistenten sind praktisch, bringen aber Kompromisse mit sich: Ihre Gespräche fließen über Server von Drittanbietern, Sie sind an die Benutzeroberfläche eines einzelnen Anbieters gebunden, und Sie haben nur begrenzte Kontrolle über das Systemverhalten. Self-Hosting kehrt das Verhältnis um - Ihre Daten bleiben auf Ihrer Infrastruktur, Sie wählen die Modelle, und Sie kontrollieren die gesamte Erfahrung.
Dieser Beitrag führt durch die Einrichtung von OpenClaw mit Mission Control, einem Open-Source-Stack für den Betrieb und die Governance von KI-Assistenten auf Ihrer eigenen Hardware.
Was ist OpenClaw?
OpenClaw ist ein quelloffenes KI-Assistenten-Gateway, das sich mit über 20 Messaging-Plattformen verbindet - Slack, Discord, Microsoft Teams, WhatsApp, Telegram und mehr. Es fungiert als einheitliche Schicht zwischen Ihren Benutzern und Ihrem KI-Backend und übernimmt das Nachrichtenrouting, die Verwaltung des Gesprächsstatus und die plattformspezifische Formatierung.
Das Kernprinzip ist Local-First: Das Gateway läuft auf Ihrer Infrastruktur, Gespräche werden in Ihrer Datenbank gespeichert, und Sie entscheiden, welcher LLM-Anbieter (oder welches lokale Modell) die Inferenz durchführt. Sie erhalten den Komfort eines Multi-Plattform-Chatbots mit der Privatsphäre des Self-Hostings.
Zu den Kernfunktionen gehören:
- Multi-Plattform-Messaging-Integration über eine Plugin-Architektur
- Konfigurierbare LLM-Backends (OpenAI, Anthropic, lokale Modelle über Ollama)
- Gesprächsverlauf und Kontextverwaltung
- Erweiterbares Plugin-System für benutzerdefinierte Werkzeuge und Integrationen
Was ist Mission Control?
Wenn OpenClaw der Motor ist, dann ist Mission Control das Dashboard. Es ist eine Betriebs- und Governance-Schicht, die Ihnen Einblick gibt, was Ihre KI-Assistenten tun, und Kontrolle darüber, wie sie sich verhalten.
Mission Control bietet:
- Agentenverwaltung - Registrieren, Konfigurieren und Überwachen mehrerer KI-Agenten über eine einzelne Oberfläche
- Genehmigungsworkflows - Menschliche Freigabe für sensible Aktionen verlangen, bevor der Agent sie ausführt
- Aktivitätstransparenz - Echtzeit-Protokolle von Agentengesprächen, Werkzeugnutzung und Entscheidungspfaden
- Multi-Agenten-Orchestrierung - Koordination mehrerer spezialisierter Agenten, die verschiedene Domänen oder Aufgaben bearbeiten
Das ist wichtig, wenn Sie KI-Assistenten in einem Team oder einer Organisation betreiben. Sie müssen wissen, was die Agenten sagen, Fehler abfangen, bevor sie die Benutzer erreichen, und Audit-Trails für die Compliance pflegen.
Schnelleinrichtung
Der schnellste Einstieg ist das Einzeiler-Installationsskript. Dieses lädt die Docker-Images herunter und richtet die Standardkonfiguration ein:
curl -fsSL https://raw.githubusercontent.com/openclaw/openclaw/main/install.sh | bash Dies erstellt ein openclaw-Verzeichnis mit der Docker-Compose-Konfiguration, Standard-Umgebungsvariablen und einem Startskript. Nach Abschluss der Installation:
cd openclaw
cp .env.example .env
# Bearbeiten Sie .env mit Ihren LLM-API-Schlüsseln und der Konfiguration
docker compose up -d Die Weboberfläche ist unter http://localhost:3000 erreichbar und Mission Control unter http://localhost:3001.
Manuelle Docker-Einrichtung
Wenn Sie mehr Kontrolle bevorzugen, hier die schrittweise Einrichtung. Erstellen Sie zunächst Ihr Projektverzeichnis und die Umgebungskonfiguration:
mkdir openclaw && cd openclaw Erstellen Sie eine docker-compose.yml:
version: '3.8'
services:
gateway:
image: openclaw/gateway:latest
ports:
- '3000:3000'
environment:
- DATABASE_URL=postgresql://openclaw:openclaw@db:5432/openclaw
- LLM_PROVIDER=${LLM_PROVIDER:-anthropic}
- LLM_API_KEY=${LLM_API_KEY}
- MISSION_CONTROL_URL=http://mission-control:3001
depends_on:
- db
restart: unless-stopped
mission-control:
image: openclaw/mission-control:latest
ports:
- '3001:3001'
environment:
- DATABASE_URL=postgresql://openclaw:openclaw@db:5432/openclaw
- GATEWAY_URL=http://gateway:3000
depends_on:
- db
restart: unless-stopped
db:
image: postgres:16-alpine
environment:
- POSTGRES_USER=openclaw
- POSTGRES_PASSWORD=openclaw
- POSTGRES_DB=openclaw
volumes:
- pgdata:/var/lib/postgresql/data
restart: unless-stopped
volumes:
pgdata: Erstellen Sie Ihre .env-Datei:
# LLM-Konfiguration
LLM_PROVIDER=anthropic
LLM_API_KEY=your-api-key-here
# Optional: Modell angeben
LLM_MODEL=claude-sonnet-4-6
# Optional: Lokales Modell über Ollama konfigurieren
# LLM_PROVIDER=ollama
# OLLAMA_BASE_URL=http://host.docker.internal:11434 Dann starten Sie alles:
docker compose up -d
docker compose logs -f # Startprotokoll beobachten Messaging-Dienste verbinden
Die Gateway-Architektur von OpenClaw verwendet ein Plugin-System für Messaging-Integrationen. Jede Plattformverbindung wird über Umgebungsvariablen oder die Mission-Control-Oberfläche konfiguriert.
Um beispielsweise Slack zu verbinden, registrieren Sie eine Slack-App, konfigurieren den Bot-Token und das Signing Secret in Ihrer Umgebung und aktivieren das Slack-Plugin. Das Gateway übernimmt automatisch die Webhook-Endpunkte, die Nachrichtenformatierung und das Conversation Threading.
Dasselbe Muster gilt für jede unterstützte Plattform - Zugangsdaten konfigurieren, Plugin aktivieren, und das Gateway leitet Nachrichten zwischen der Plattform und Ihrem LLM-Backend weiter. Das bedeutet, Sie können einen einzigen KI-Assistenten betreiben, der gleichzeitig über Slack, Discord und Teams erreichbar ist, mit geteiltem Gesprächskontext.
Governance-Funktionen
Hier verdient Mission Control seinen Namen. In einer Produktivumgebung möchten Sie nicht, dass KI-Agenten als Black Boxes agieren. Mission Control bietet drei zentrale Governance-Funktionen:
Genehmigungsworkflows. Definieren Sie Regeln, wann ein Agent eine menschliche Freigabe benötigt, bevor er handelt. Zum Beispiel bei jeder Antwort, die Finanzdaten enthält, jedem Tool-Aufruf, der Produktionssysteme modifiziert, oder jedem Gespräch mit einem VIP-Kunden. Der Agent pausiert, ein Mensch prüft und genehmigt (oder bearbeitet), und dann wird die Antwort gesendet.
Aktivitätstransparenz. Jedes Gespräch, jeder Tool-Aufruf und jede Entscheidung wird protokolliert und ist durchsuchbar. Sie können genau nachvollziehen, warum ein Agent eine bestimmte Antwort gegeben hat, welchen Kontext er hatte und welche Werkzeuge er verwendet hat. Das ist essenziell für Debugging und Compliance.
Multi-Agenten-Orchestrierung. Wenn Ihre Anforderungen wachsen, können Sie spezialisierte Agenten betreiben - einen für Kundenservice, einen für interne IT-Fragen, einen für Code-Reviews - und Mission Control koordiniert das Routing und die Übergaben zwischen ihnen.
Warum selbst gehostete KI wichtig ist
Die Landschaft der KI-Assistenten entwickelt sich rasant, und die Versuchung ist groß, einfach die gehostete Version von allem zu nutzen. Aber es gibt handfeste Gründe, in Self-Hosting zu investieren:
- Datensouveränität - Gespräche bleiben auf Ihrer Infrastruktur, ohne Ausnahme
- Kostenkontrolle - Routineanfragen an günstigere Modelle oder lokale Inferenz weiterleiten
- Individualisierung - Verhalten, Persönlichkeit und Werkzeugzugriff pro Agent anpassen
- Keine Anbieterabhängigkeit - LLM-Anbieter wechseln, ohne Ihre Integrationen neu aufbauen zu müssen
- Compliance - Regulatorische Anforderungen an Datenresidenz und Audit-Trails erfüllen
OpenClaw und Mission Control machen dies zugänglich, ohne alles von Grund auf neu bauen zu müssen. Der Stack ist quelloffen, wird aktiv gepflegt und ist auf Erweiterbarkeit ausgelegt.
Wenn Sie es ausprobieren möchten, sind die Repositories auf GitHub verfügbar. Beginnen Sie mit der Schnelleinrichtung, verbinden Sie einen Test-Slack-Workspace und erleben Sie, wie es sich anfühlt, einen KI-Assistenten zu haben, den Sie vollständig kontrollieren.