Architecture OpenClaw en installation native
Déploiement OpenClaw sur votre machine du quotidien avec la passerelle, l'espace de travail et l'API LLM commerciale connectés localement via l'interface web.
Architecture OpenClaw pour un Mac Mini ou un serveur homelab dédié avec espace de travail persistant, état de l'agent et accès distant via messagerie.
User { # User (Phone / Laptop)
n1: circle label:"Start"
n2: rectangle label:"Send Telegram message"
n1.handle(right) -> n2.handle(left)
n2.handle(bottom) -> MacMini.n3.handle(top) [label="LAN / Tailscale"]
}
MacMini { # Dedicated Mac Mini
n3: rectangle label:"OpenClaw Gateway"
n4: rectangle label:"Workspace"
n5: rectangle label:"Agent Memory + State"
n3.handle(right) -> n4.handle(left)
n4.handle(right) -> n5.handle(left)
n3.handle(bottom) -> LLM.n6.handle(top) [label="API Request"]
}
LLM { # Commercial LLM API
n6: rectangle label:"Claude Opus 4.5"
n7: rectangle label:"Generate response"
n6.handle(right) -> n7.handle(left)
n7.handle(top) -> MacMini.n3.handle(bottom) [label="Response"]
}
Déploiement OpenClaw sur votre machine du quotidien avec la passerelle, l'espace de travail et l'API LLM commerciale connectés localement via l'interface web.
Déploiement Docker d'OpenClaw avec runtime de passerelle isolé, volumes montés pour l'espace de travail et la configuration, et API LLM commerciale.
Architecture OpenClaw hybride avec passerelle cloud, nœuds locaux pour les actions sur appareil, état persistant de l'agent et appels à un fournisseur LLM commercial.
Déploiement OpenClaw sur VPS autogéré avec passerelle, espace de travail, couche pare-feu/authentification et accès au fournisseur LLM commercial depuis n'importe quel appareil.
Déploiement OpenClaw en cloud managé via des plateformes comme Railway ou Northflank avec passerelle hébergée, intégrations, monitoring et API LLM commerciales.
Diagramme d'architecture de passerelle API pour microservices montrant le routage des requêtes, l'authentification JWT, la limitation de débit, la découverte de services et l'agrégation des réponses à travers des services backend distribués. Ce modèle représente le point d'entrée de tout le trafic client dans un écosystème de microservices, appliquant les politiques de sécurité avant que les requêtes n'atteignent les services internes. Idéal pour les ingénieurs plateforme concevant une infrastructure API évolutive avec des préoccupations transversales centralisées.