Qu'est-ce que l'architecture d'OpenClaw ?
OpenClaw (anciennement MoltBot, anciennement ClawdBot) a explosé sur la scène fin janvier 2026 et est devenu l'un des projets open-source les plus commentés depuis ChatGPT. Créé par Peter Steinberger, c'est un agent IA auto-hébergé, 24/7, qui fait réellement des choses sur votre ordinateur — gérer des fichiers, écrire du code, naviguer sur le web et automatiser votre vie via 13+ plateformes de messagerie.
Mais voici la question que personne ne répond correctement : où devriez-vous l'exécuter, et où le LLM doit-il vivre ?
Il existe au moins six configurations d'architecture distinctes, et la bonne dépend de vos priorités autour de la vitesse, la sécurité et la puissance.
Avant de plonger, comprenez le concept central. OpenClaw utilise une architecture Gateway :
- La Gateway est le cerveau — elle possède l'état, l'espace de travail, la mémoire et la configuration de l'agent.
- Vous vous connectez à la Gateway via une Control UI (tableau de bord web), des applications de messagerie (Telegram, Discord, WhatsApp, Slack) ou des applications mobiles.
- La Gateway communique avec un fournisseur LLM — soit une API commerciale (Anthropic, OpenAI, Google) soit un modèle local via Ollama.
- Des Nodes optionnels peuvent étendre la Gateway en fournissant un accès local à l'écran, la caméra et le système depuis d'autres appareils.
Configuration 1 : Sur Votre Machine Quotidienne (Installation Native)
Le chemin le plus simple. Vous installez OpenClaw directement sur le Mac ou PC que vous utilisez quotidiennement. La Gateway, l'espace de travail et vos fichiers sont tous sur le même OS.
Pour qui : Développeurs expérimentant pour la première fois, utilisateurs solo qui veulent essayer OpenClaw avant de s'engager sur du matériel dédié.
| Dimension | Note | Notes |
|---|---|---|
| Vitesse | ★★★★★ | Zéro latence réseau — tout est local |
| Sécurité | ★★☆☆☆ | OpenClaw a un accès complet à vos fichiers personnels et OS |
| Puissance | ★★★☆☆ | Limité par la disponibilité de votre machine |
Code FlowZap :
User { # Utilisateur
n1: circle label="Début"
n2: rectangle label="Ouvrir Terminal"
n3: rectangle label="Envoyer message via Web UI"
n1.handle(right) -> n2.handle(left)
n2.handle(right) -> n3.handle(left)
n3.handle(bottom) -> Machine.n4.handle(top) [label="localhost"]
}
Machine { # Votre Machine Quotidienne
n4: rectangle label="Gateway OpenClaw"
n5: rectangle label="Workspace + Fichiers"
n6: rectangle label="Appel API LLM"
n7: circle label="Tâche Terminée"
n4.handle(right) -> n5.handle(left)
n4.handle(bottom) -> LLM.n8.handle(top) [label="Requête API"]
n5.handle(right) -> n7.handle(left)
}
LLM { # API LLM Commerciale
n8: rectangle label="Claude / GPT / Gemini"
n9: rectangle label="Générer réponse"
n8.handle(right) -> n9.handle(left)
n9.handle(top) -> Machine.n4.handle(bottom) [label="Réponse"]
}
Configuration 2 : Docker Isolé sur Machine Quotidienne
Même machine, mais OpenClaw s'exécute dans un conteneur Docker. C'est la configuration que Simon Willison a choisi — "Je ne suis pas assez courageux pour exécuter OpenClaw directement sur mon Mac".
Pour qui : Utilisateurs soucieux de sécurité qui veulent quand même la commodité locale. Développeurs utilisant déjà Docker quotidiennement.
| Dimension | Note | Notes |
|---|---|---|
| Vitesse | ★★★★★ | Toujours local, overhead Docker minimal |
| Sécurité | ★★★★☆ | Isolation système de fichiers, pas d'accès aux fichiers personnels |
| Puissance | ★★★☆☆ | Toujours lié à la disponibilité de votre machine |
Code FlowZap :
User { # Utilisateur
n1: circle label="Début"
n2: rectangle label="Envoyer message via Web UI"
n1.handle(right) -> n2.handle(left)
n2.handle(bottom) -> Docker.n3.handle(top) [label="localhost"]
}
Docker { # Conteneur Docker
n3: rectangle label="Gateway OpenClaw"
n4: rectangle label="Volume Workspace Monté"
n5: rectangle label="Volume Config Monté"
n3.handle(right) -> n4.handle(left)
n3.handle(bottom) -> n5.handle(top)
n3.handle(bottom) -> LLM.n6.handle(top) [label="Requête API"]
}
LLM { # API LLM Commerciale
n6: rectangle label="Claude / GPT / Gemini"
n7: rectangle label="Générer réponse"
n6.handle(right) -> n7.handle(left)
n7.handle(top) -> Docker.n3.handle(bottom) [label="Réponse"]
}
Configuration 3 : Machine Locale Dédiée (Mac Mini / Homelab)
C'est la configuration la plus populaire dans la communauté OpenClaw. Vous exécutez OpenClaw sur une machine séparée, toujours allumée — typiquement un Mac Mini, un vieux laptop ou un serveur Proxmox.
Pour qui : Utilisateurs avancés, home-labbers, ceux qui veulent un assistant IA 24/7 sans coûts cloud.
| Dimension | Note | Notes |
|---|---|---|
| Vitesse | ★★★★☆ | Latence LAN négligeable |
| Sécurité | ★★★★★ | Complètement isolé de votre machine personnelle |
| Puissance | ★★★★★ | Toujours allumé, ressources dédiées |
Code FlowZap :
User { # Utilisateur (Téléphone / Laptop)
n1: circle label="Début"
n2: rectangle label="Envoyer message Telegram"
n1.handle(right) -> n2.handle(left)
n2.handle(bottom) -> MacMini.n3.handle(top) [label="LAN / Tailscale"]
}
MacMini { # Mac Mini Dédié
n3: rectangle label="Gateway OpenClaw"
n4: rectangle label="Workspace"
n5: rectangle label="Mémoire Agent + État"
n3.handle(right) -> n4.handle(left)
n4.handle(right) -> n5.handle(left)
n3.handle(bottom) -> LLM.n6.handle(top) [label="Requête API"]
}
LLM { # API LLM Commerciale
n6: rectangle label="Claude Opus 4.5"
n7: rectangle label="Générer réponse"
n6.handle(right) -> n7.handle(left)
n7.handle(top) -> MacMini.n3.handle(bottom) [label="Réponse"]
}
Configuration 4 : VPS (Serveur Cloud Auto-Géré)
Vous louez un serveur privé virtuel chez DigitalOcean, Hetzner, AWS, GCP ou Oracle Cloud (niveau gratuit) et installez OpenClaw vous-même.
Pour qui : Travailleurs distants, nomades digitaux, utilisateurs à l'aise avec la technique qui veulent un accès global.
| Dimension | Note | Notes |
|---|---|---|
| Vitesse | ★★★★☆ | Dépend de l'emplacement du VPS |
| Sécurité | ★★★★☆ | Bonne isolation, mais données sur infrastructure tierce |
| Puissance | ★★★★★ | Vrai 24/7, accessible globalement, facilement scalable |
Code FlowZap :
User { # Utilisateur (Tout Appareil)
n1: circle label="Début"
n2: rectangle label="Envoyer commande via Telegram"
n1.handle(right) -> n2.handle(left)
n2.handle(bottom) -> VPS.n3.handle(top) [label="Internet / SSH Tunnel"]
}
VPS { # VPS (DigitalOcean / Hetzner)
n3: rectangle label="Gateway OpenClaw"
n4: rectangle label="Workspace + État"
n5: rectangle label="Pare-feu + Auth"
n3.handle(right) -> n4.handle(left)
n3.handle(bottom) -> n5.handle(top)
n3.handle(bottom) -> LLM.n6.handle(top) [label="Requête API"]
}
LLM { # API LLM Commerciale
n6: rectangle label="Claude / GPT / Gemini"
n7: rectangle label="Générer réponse"
n6.handle(right) -> n7.handle(left)
n7.handle(top) -> VPS.n3.handle(bottom) [label="Réponse"]
}
Configuration 5 : Cloud Géré (Déploiement en Un Clic)
Pour les utilisateurs non-techniques ou les équipes qui veulent que ça fonctionne. Des plateformes comme Railway, xCloud, Northflank et Cloudflare Workers offrent un déploiement OpenClaw en un clic.
Pour qui : Utilisateurs non-techniques, petites entreprises, équipes qui valorisent le temps plutôt que le contrôle.
| Dimension | Note | Notes |
|---|---|---|
| Vitesse | ★★★★☆ | Optimisé par la plateforme, emplacements edge globaux |
| Sécurité | ★★★★☆ | Durcissement géré par plateforme, SSL, pare-feu |
| Puissance | ★★★★☆ | Toujours allumé, mais personnalisation limitée |
Code FlowZap :
User { # Utilisateur
n1: circle label="Début"
n2: rectangle label="Cliquer Déployer sur Railway"
n3: rectangle label="Configurer clé API dans l'assistant"
n4: rectangle label="Chatter via Telegram / Discord"
n1.handle(right) -> n2.handle(left)
n2.handle(right) -> n3.handle(left)
n3.handle(right) -> n4.handle(left)
n4.handle(bottom) -> Cloud.n5.handle(top) [label="Internet"]
}
Cloud { # Plateforme Cloud Gérée
n5: rectangle label="Gateway OpenClaw (géré)"
n6: rectangle label="Mises à jour auto + Monitoring"
n7: rectangle label="Intégrations Pré-configurées"
n5.handle(right) -> n6.handle(left)
n6.handle(right) -> n7.handle(left)
n5.handle(bottom) -> LLM.n8.handle(top) [label="Requête API"]
}
LLM { # API LLM Commerciale
n8: rectangle label="Claude / GPT / Gemini"
n9: rectangle label="Générer réponse"
n8.handle(right) -> n9.handle(left)
n9.handle(top) -> Cloud.n5.handle(bottom) [label="Réponse"]
}
Configuration 6 : Hybride — Gateway VPS + Nodes Locaux
C'est l'architecture la plus avancée d'OpenClaw. La Gateway s'exécute dans le cloud (VPS ou géré), tandis que des Nodes sur vos appareils locaux fournissent l'accès écran, caméra et capacités système. Pensez-y comme "cerveau dans le cloud, mains sur votre bureau".
Pour qui : Utilisateurs avancés qui veulent disponibilité globale ET contrôle de machine locale.
| Dimension | Note | Notes |
|---|---|---|
| Vitesse | ★★★☆☆ | Les allers-retours cloud-local ajoutent de la latence |
| Sécurité | ★★★☆☆ | Plus de surface d'attaque — cloud + local à sécuriser |
| Puissance | ★★★★★ | Le meilleur des deux mondes : cerveau toujours allumé + capacités locales |
Code FlowZap :
User { # Utilisateur
n1: circle label="Début"
n2: rectangle label="Envoyer commande via WhatsApp"
n1.handle(right) -> n2.handle(left)
n2.handle(bottom) -> CloudGW.n3.handle(top) [label="Internet"]
}
CloudGW { # Gateway Cloud (VPS)
n3: rectangle label="Gateway OpenClaw"
n4: rectangle label="Mémoire Agent + État"
n5: diamond label="Tâche locale nécessaire ?"
n3.handle(right) -> n4.handle(left)
n4.handle(right) -> n5.handle(left)
n5.handle(bottom) -> LocalNode.n6.handle(top) [label="Oui - Dispatch"]
n5.handle(right) -> n8.handle(left) [label="Non - API seulement"]
n3.handle(bottom) -> LLM.n9.handle(top) [label="Requête API"]
}
LocalNode { # Node Local (Mac / iPhone)
n6: rectangle label="Écran + Caméra + Système"
n7: rectangle label="Exécuter action locale"
n6.handle(right) -> n7.handle(left)
n7.handle(top) -> CloudGW.n3.handle(bottom) [label="Résultat"]
}
LLM { # Fournisseur LLM
n8: rectangle label="Tâche cloud directe"
n9: rectangle label="Claude Opus 4.5"
n10: rectangle label="Générer réponse"
n9.handle(right) -> n10.handle(left)
n10.handle(top) -> CloudGW.n3.handle(bottom) [label="Réponse"]
}
Où le LLM Doit-il Résider ?
L'architecture d'OpenClaw n'est que la moitié de l'équation. L'autre moitié est où votre LLM s'exécute.
Option A : APIs LLM Commerciales (Cloud)
Utilisez Anthropic Claude (recommandé, surtout Opus 4.5), OpenAI GPT-4 ou Google Gemini.
Option B : LLM Local via Ollama (Même Machine qu'OpenClaw)
Exécutez des modèles open-source comme Llama 3.3, Qwen 2.5 Coder 32B, DeepSeek R1 32B directement sur la même machine.
Configuration :
ollama pull qwen2.5-coder:32b export OLLAMA_API_KEY="ollama-local" openclaw config set agent.model ollama/qwen2.5-coder:32b
Option C : LLM Local via Ollama (Machine LAN Séparée)
Ollama s'exécute sur un serveur GPU sur votre réseau, tandis qu'OpenClaw tourne sur une machine plus légère ou VPS.
Option D : LLM Open-Source sur VPS (Ollama Cloud)
Exécutez Ollama sur un VPS GPU-enabled (Lambda Labs, Vast.ai) et pointez votre instance OpenClaw dessus.
Tableau Comparatif Complet
| Configuration | Vitesse | Sécurité | Puissance | Coût Mensuel | Compétence Technique |
|---|---|---|---|---|---|
| 1. Natif sur machine quotidienne | ★★★★★ | ★★☆☆☆ | ★★★☆☆ | 0€ + API | Faible |
| 2. Docker sur machine quotidienne | ★★★★★ | ★★★★☆ | ★★★☆☆ | 0€ + API | Moyenne |
| 3. Machine locale dédiée | ★★★★☆ | ★★★★★ | ★★★★★ | 0€ + API | Moyenne |
| 4. VPS auto-géré | ★★★★☆ | ★★★★☆ | ★★★★★ | 5-24€ + API | Élevée |
| 5. Cloud géré | ★★★★☆ | ★★★★☆ | ★★★★☆ | 24-35€ + API | Aucune |
| 6. Hybride (VPS + Nodes) | ★★★☆☆ | ★★★☆☆ | ★★★★★ | 5-24€ + API | Élevée |
Choisir Votre Architecture
Si vous voulez juste essayer OpenClaw : Commencez avec Configuration 1 (installation native) + Option A (API Claude). Vous serez opérationnel en 15 minutes.
Si vous êtes sérieux à l'utiliser quotidiennement : Configuration 3 (Mac Mini dédié) + Option A (API Claude) est le favori de la communauté. Meilleur équilibre puissance, sécurité et simplicité.
Si la confidentialité est non-négociable : Configuration 3 + Option B ou C (Ollama local). Rien ne quitte jamais votre réseau.
Si vous voulez un accès de partout sans matériel : Configuration 4 (VPS) ou 5 (cloud géré) + Option A. Vrai 24/7 disponibilité globale.
Si vous voulez tout : Configuration 6 (hybride) + Option A ou C. Cerveau cloud, mains locales. Le plus complexe, mais le plus capable.
Chaque bloc de Code FlowZap ci-dessus peut être collé directement dans le FlowZap Playground pour générer un diagramme d'architecture interactif.
OpenClaw évolue rapidement. Ce guide reflète l'état du projet début février 2026. Pour les dernières nouvelles, consultez la documentation officielle OpenClaw et le subreddit r/openclaw.
