RYDIR

Einen KI-Assistenten selbst hosten mit OpenClaw und Mission Control

23.02.2026

Warum einen KI-Assistenten selbst hosten?

Cloud-gehostete KI-Assistenten sind praktisch, bringen aber Kompromisse mit sich: Ihre Gespräche fließen über Server von Drittanbietern, Sie sind an die Benutzeroberfläche eines einzelnen Anbieters gebunden, und Sie haben nur begrenzte Kontrolle über das Systemverhalten. Self-Hosting kehrt das Verhältnis um - Ihre Daten bleiben auf Ihrer Infrastruktur, Sie wählen die Modelle, und Sie kontrollieren die gesamte Erfahrung.

Dieser Beitrag führt durch die Einrichtung von OpenClaw mit Mission Control, einem Open-Source-Stack für den Betrieb und die Governance von KI-Assistenten auf Ihrer eigenen Hardware.

Was ist OpenClaw?

OpenClaw ist ein quelloffenes KI-Assistenten-Gateway, das sich mit über 20 Messaging-Plattformen verbindet - Slack, Discord, Microsoft Teams, WhatsApp, Telegram und mehr. Es fungiert als einheitliche Schicht zwischen Ihren Benutzern und Ihrem KI-Backend und übernimmt das Nachrichtenrouting, die Verwaltung des Gesprächsstatus und die plattformspezifische Formatierung.

Das Kernprinzip ist Local-First: Das Gateway läuft auf Ihrer Infrastruktur, Gespräche werden in Ihrer Datenbank gespeichert, und Sie entscheiden, welcher LLM-Anbieter (oder welches lokale Modell) die Inferenz durchführt. Sie erhalten den Komfort eines Multi-Plattform-Chatbots mit der Privatsphäre des Self-Hostings.

Zu den Kernfunktionen gehören:

  • Multi-Plattform-Messaging-Integration über eine Plugin-Architektur
  • Konfigurierbare LLM-Backends (OpenAI, Anthropic, lokale Modelle über Ollama)
  • Gesprächsverlauf und Kontextverwaltung
  • Erweiterbares Plugin-System für benutzerdefinierte Werkzeuge und Integrationen

Was ist Mission Control?

Wenn OpenClaw der Motor ist, dann ist Mission Control das Dashboard. Es ist eine Betriebs- und Governance-Schicht, die Ihnen Einblick gibt, was Ihre KI-Assistenten tun, und Kontrolle darüber, wie sie sich verhalten.

Mission Control bietet:

  • Agentenverwaltung - Registrieren, Konfigurieren und Überwachen mehrerer KI-Agenten über eine einzelne Oberfläche
  • Genehmigungsworkflows - Menschliche Freigabe für sensible Aktionen verlangen, bevor der Agent sie ausführt
  • Aktivitätstransparenz - Echtzeit-Protokolle von Agentengesprächen, Werkzeugnutzung und Entscheidungspfaden
  • Multi-Agenten-Orchestrierung - Koordination mehrerer spezialisierter Agenten, die verschiedene Domänen oder Aufgaben bearbeiten

Das ist wichtig, wenn Sie KI-Assistenten in einem Team oder einer Organisation betreiben. Sie müssen wissen, was die Agenten sagen, Fehler abfangen, bevor sie die Benutzer erreichen, und Audit-Trails für die Compliance pflegen.

Schnelleinrichtung

Der schnellste Einstieg ist das Einzeiler-Installationsskript. Dieses lädt die Docker-Images herunter und richtet die Standardkonfiguration ein:

curl -fsSL https://raw.githubusercontent.com/openclaw/openclaw/main/install.sh | bash

Dies erstellt ein openclaw-Verzeichnis mit der Docker-Compose-Konfiguration, Standard-Umgebungsvariablen und einem Startskript. Nach Abschluss der Installation:

cd openclaw
cp .env.example .env
# Bearbeiten Sie .env mit Ihren LLM-API-Schlüsseln und der Konfiguration
docker compose up -d

Die Weboberfläche ist unter http://localhost:3000 erreichbar und Mission Control unter http://localhost:3001.

Manuelle Docker-Einrichtung

Wenn Sie mehr Kontrolle bevorzugen, hier die schrittweise Einrichtung. Erstellen Sie zunächst Ihr Projektverzeichnis und die Umgebungskonfiguration:

mkdir openclaw && cd openclaw

Erstellen Sie eine docker-compose.yml:

version: '3.8'

services:
  gateway:
    image: openclaw/gateway:latest
    ports:
      - '3000:3000'
    environment:
      - DATABASE_URL=postgresql://openclaw:openclaw@db:5432/openclaw
      - LLM_PROVIDER=${LLM_PROVIDER:-anthropic}
      - LLM_API_KEY=${LLM_API_KEY}
      - MISSION_CONTROL_URL=http://mission-control:3001
    depends_on:
      - db
    restart: unless-stopped

  mission-control:
    image: openclaw/mission-control:latest
    ports:
      - '3001:3001'
    environment:
      - DATABASE_URL=postgresql://openclaw:openclaw@db:5432/openclaw
      - GATEWAY_URL=http://gateway:3000
    depends_on:
      - db
    restart: unless-stopped

  db:
    image: postgres:16-alpine
    environment:
      - POSTGRES_USER=openclaw
      - POSTGRES_PASSWORD=openclaw
      - POSTGRES_DB=openclaw
    volumes:
      - pgdata:/var/lib/postgresql/data
    restart: unless-stopped

volumes:
  pgdata:

Erstellen Sie Ihre .env-Datei:

# LLM-Konfiguration
LLM_PROVIDER=anthropic
LLM_API_KEY=your-api-key-here

# Optional: Modell angeben
LLM_MODEL=claude-sonnet-4-6

# Optional: Lokales Modell über Ollama konfigurieren
# LLM_PROVIDER=ollama
# OLLAMA_BASE_URL=http://host.docker.internal:11434

Dann starten Sie alles:

docker compose up -d
docker compose logs -f  # Startprotokoll beobachten

Messaging-Dienste verbinden

Die Gateway-Architektur von OpenClaw verwendet ein Plugin-System für Messaging-Integrationen. Jede Plattformverbindung wird über Umgebungsvariablen oder die Mission-Control-Oberfläche konfiguriert.

Um beispielsweise Slack zu verbinden, registrieren Sie eine Slack-App, konfigurieren den Bot-Token und das Signing Secret in Ihrer Umgebung und aktivieren das Slack-Plugin. Das Gateway übernimmt automatisch die Webhook-Endpunkte, die Nachrichtenformatierung und das Conversation Threading.

Dasselbe Muster gilt für jede unterstützte Plattform - Zugangsdaten konfigurieren, Plugin aktivieren, und das Gateway leitet Nachrichten zwischen der Plattform und Ihrem LLM-Backend weiter. Das bedeutet, Sie können einen einzigen KI-Assistenten betreiben, der gleichzeitig über Slack, Discord und Teams erreichbar ist, mit geteiltem Gesprächskontext.

Governance-Funktionen

Hier verdient Mission Control seinen Namen. In einer Produktivumgebung möchten Sie nicht, dass KI-Agenten als Black Boxes agieren. Mission Control bietet drei zentrale Governance-Funktionen:

Genehmigungsworkflows. Definieren Sie Regeln, wann ein Agent eine menschliche Freigabe benötigt, bevor er handelt. Zum Beispiel bei jeder Antwort, die Finanzdaten enthält, jedem Tool-Aufruf, der Produktionssysteme modifiziert, oder jedem Gespräch mit einem VIP-Kunden. Der Agent pausiert, ein Mensch prüft und genehmigt (oder bearbeitet), und dann wird die Antwort gesendet.

Aktivitätstransparenz. Jedes Gespräch, jeder Tool-Aufruf und jede Entscheidung wird protokolliert und ist durchsuchbar. Sie können genau nachvollziehen, warum ein Agent eine bestimmte Antwort gegeben hat, welchen Kontext er hatte und welche Werkzeuge er verwendet hat. Das ist essenziell für Debugging und Compliance.

Multi-Agenten-Orchestrierung. Wenn Ihre Anforderungen wachsen, können Sie spezialisierte Agenten betreiben - einen für Kundenservice, einen für interne IT-Fragen, einen für Code-Reviews - und Mission Control koordiniert das Routing und die Übergaben zwischen ihnen.

Warum selbst gehostete KI wichtig ist

Die Landschaft der KI-Assistenten entwickelt sich rasant, und die Versuchung ist groß, einfach die gehostete Version von allem zu nutzen. Aber es gibt handfeste Gründe, in Self-Hosting zu investieren:

  • Datensouveränität - Gespräche bleiben auf Ihrer Infrastruktur, ohne Ausnahme
  • Kostenkontrolle - Routineanfragen an günstigere Modelle oder lokale Inferenz weiterleiten
  • Individualisierung - Verhalten, Persönlichkeit und Werkzeugzugriff pro Agent anpassen
  • Keine Anbieterabhängigkeit - LLM-Anbieter wechseln, ohne Ihre Integrationen neu aufbauen zu müssen
  • Compliance - Regulatorische Anforderungen an Datenresidenz und Audit-Trails erfüllen

OpenClaw und Mission Control machen dies zugänglich, ohne alles von Grund auf neu bauen zu müssen. Der Stack ist quelloffen, wird aktiv gepflegt und ist auf Erweiterbarkeit ausgelegt.

Wenn Sie es ausprobieren möchten, sind die Repositories auf GitHub verfügbar. Beginnen Sie mit der Schnelleinrichtung, verbinden Sie einen Test-Slack-Workspace und erleben Sie, wie es sich anfühlt, einen KI-Assistenten zu haben, den Sie vollständig kontrollieren.