RYDIR

Een AI-assistent zelf hosten met OpenClaw en Mission Control

23 feb 2026

Waarom een AI-assistent zelf hosten?

Cloud-gehoste AI-assistenten zijn handig, maar ze komen met afwegingen: je gesprekken lopen via servers van derden, je zit vast aan de UI van een enkele aanbieder en je hebt beperkte controle over hoe het systeem zich gedraagt. Zelf hosten draait die vergelijking om — je data blijft op je eigen infrastructuur, je kiest de modellen en je hebt de volledige controle over de ervaring.

Dit artikel laat zien hoe je OpenClaw met Mission Control opzet, een open-source stack voor het draaien en beheren van AI-assistenten op je eigen hardware.

Wat is OpenClaw?

OpenClaw is een open-source AI-assistent gateway die verbinding maakt met meer dan 20 berichtenplatformen — Slack, Discord, Microsoft Teams, WhatsApp, Telegram en meer. Het fungeert als een uniforme laag tussen je gebruikers en je AI-backend, en handelt berichtroutering, gespreksstatus en platformspecifieke opmaak af.

Het kernidee is local-first: de gateway draait op je eigen infrastructuur, gesprekken worden opgeslagen in je eigen database en je kiest welke LLM-provider (of lokaal model) de inferentie doet. Je krijgt het gemak van een multi-platform chatbot met de privacy van zelf hosten.

Kernfuncties zijn onder andere:

  • Multi-platform berichtenintegratie via een plugin-architectuur
  • Configureerbare LLM-backends (OpenAI, Anthropic, lokale modellen via Ollama)
  • Gespreksgeschiedenis en contextbeheer
  • Uitbreidbaar pluginsysteem voor custom tools en integraties

Wat is Mission Control?

Als OpenClaw de motor is, dan is Mission Control het dashboard. Het is een operationele en governance-laag die je inzicht geeft in wat je AI-assistenten doen en controle over hoe ze zich gedragen.

Mission Control biedt:

  • Agentbeheer — registreer, configureer en monitor meerdere AI-agents vanuit een enkele interface
  • Goedkeuringsworkflows — vereis menselijke goedkeuring voor gevoelige acties voordat de agent ze uitvoert
  • Activiteitsinzicht — realtime logs van agentgesprekken, toolgebruik en beslissingspaden
  • Multi-agent orkestratie — coordineer meerdere gespecialiseerde agents die verschillende domeinen of taken afhandelen

Dit is belangrijk wanneer je AI-assistenten draait in een team of organisatie. Je moet weten wat de agents zeggen, fouten opvangen voordat ze gebruikers bereiken en audittrails bijhouden voor compliance.

Snelle setup

De snelste manier om te beginnen is het one-liner installatiescript. Dit haalt de Docker-images op en zet de standaardconfiguratie klaar:

curl -fsSL https://raw.githubusercontent.com/openclaw/openclaw/main/install.sh | bash

Dit maakt een openclaw-directory aan met de Docker Compose-configuratie, standaard omgevingsvariabelen en een opstartscript. Na de installatie:

cd openclaw
cp .env.example .env
# Bewerk .env met je LLM API-keys en configuratie
docker compose up -d

De web-UI is beschikbaar op http://localhost:3000 en Mission Control op http://localhost:3001.

Handmatige Docker-setup

Als je meer controle wilt, is hier de stap-voor-stap setup. Maak eerst je projectdirectory en omgevingsconfiguratie aan:

mkdir openclaw && cd openclaw

Maak een docker-compose.yml:

version: '3.8'

services:
  gateway:
    image: openclaw/gateway:latest
    ports:
      - '3000:3000'
    environment:
      - DATABASE_URL=postgresql://openclaw:openclaw@db:5432/openclaw
      - LLM_PROVIDER=${LLM_PROVIDER:-anthropic}
      - LLM_API_KEY=${LLM_API_KEY}
      - MISSION_CONTROL_URL=http://mission-control:3001
    depends_on:
      - db
    restart: unless-stopped

  mission-control:
    image: openclaw/mission-control:latest
    ports:
      - '3001:3001'
    environment:
      - DATABASE_URL=postgresql://openclaw:openclaw@db:5432/openclaw
      - GATEWAY_URL=http://gateway:3000
    depends_on:
      - db
    restart: unless-stopped

  db:
    image: postgres:16-alpine
    environment:
      - POSTGRES_USER=openclaw
      - POSTGRES_PASSWORD=openclaw
      - POSTGRES_DB=openclaw
    volumes:
      - pgdata:/var/lib/postgresql/data
    restart: unless-stopped

volumes:
  pgdata:

Maak je .env-bestand:

# LLM-configuratie
LLM_PROVIDER=anthropic
LLM_API_KEY=your-api-key-here

# Optioneel: specificeer een model
LLM_MODEL=claude-sonnet-4-6

# Optioneel: configureer lokaal model via Ollama
# LLM_PROVIDER=ollama
# OLLAMA_BASE_URL=http://host.docker.internal:11434

Start vervolgens alles op:

docker compose up -d
docker compose logs -f  # Volg de opstartlogs

Berichtenservices koppelen

De gateway-architectuur van OpenClaw gebruikt een pluginsysteem voor berichtenintegraties. Elke platformverbinding wordt geconfigureerd via omgevingsvariabelen of de Mission Control-UI.

Om bijvoorbeeld Slack te koppelen, registreer je een Slack-app, configureer je de bot token en signing secret in je omgeving en schakel je de Slack-plugin in. De gateway regelt de webhook-endpoints, berichtopmaak en gespreksthreading automatisch.

Hetzelfde patroon geldt voor elk ondersteund platform — configureer credentials, schakel de plugin in en de gateway koppelt berichten tussen het platform en je LLM-backend. Dit betekent dat je een enkele AI-assistent kunt draaien die bereikbaar is op Slack, Discord en Teams tegelijk, met gedeelde gesprekscontext.

Governance-functies

Hier maakt Mission Control zijn naam waar. In een productieomgeving wil je niet dat AI-agents als zwarte dozen opereren. Mission Control geeft je drie belangrijke governance-mogelijkheden:

Goedkeuringsworkflows. Definieer regels voor wanneer een agent menselijke goedkeuring nodig heeft voordat hij handelt. Bijvoorbeeld elk antwoord dat financiele gegevens bevat, elke toolaanroep die productiesystemen wijzigt of elk gesprek met een VIP-klant. De agent pauzeert, een mens beoordeelt en keurt goed (of bewerkt), en dan wordt het antwoord verzonden.

Activiteitsinzicht. Elk gesprek, elke toolaanroep en elke beslissing wordt gelogd en is doorzoekbaar. Je kunt precies traceren waarom een agent een bepaald antwoord gaf, welke context hij had en welke tools hij gebruikte. Dit is essentieel voor debugging en compliance.

Multi-agent orkestratie. Naarmate je behoeften groeien, kun je gespecialiseerde agents draaien — een voor klantenservice, een voor interne IT-vragen, een voor code review — en Mission Control coordineert de routering en overdrachten tussen hen.

Waarom zelf gehoste AI ertoe doet

Het AI-assistentenlandschap beweegt snel, en de verleiding is groot om gewoon de gehoste versie van alles te gebruiken. Maar er zijn echte redenen om te investeren in zelf hosten:

  • Datasoevereiniteit — gesprekken blijven op je eigen infrastructuur, punt
  • Kostenbeheersing — routeer naar goedkopere modellen of lokale inferentie voor routinematige vragen
  • Maatwerk — stem gedrag, persoonlijkheid en tooltoegang af per agent
  • Geen vendor lock-in — wissel van LLM-provider zonder je integraties opnieuw te bouwen
  • Compliance — voldoe aan regelgeving voor dataresidentie en audittrails

OpenClaw en Mission Control maken dit toegankelijk zonder alles zelf te hoeven bouwen. De stack is open source, wordt actief onderhouden en is ontworpen om uitgebreid te worden.

Als je het wilt uitproberen, zijn de repositories beschikbaar op GitHub. Begin met de snelle setup, koppel een test Slack-workspace en ervaar hoe het voelt om een AI-assistent te hebben waar je volledige controle over hebt.