1. Pourquoi dimensionner est plus important que simplement réussir à démarrer
OpenClaw en 2026 n’est plus un petit outil CLI. Il orchestre navigateurs, API de modèles, fichiers, OCR, captures, webhooks et tâches planifiées. La vraie question n’est donc pas « est-ce que ça démarre ? », mais « est-ce que ça tient sous charge ? ».
Pour une automatisation légère, un petit nœud peut suffire. Mais dès qu’on ajoute navigateur, contexte long, parsing de pièces jointes et plusieurs agents, la courbe de consommation devient brutale. Le coût majeur n’est pas la montée de gamme, mais les retries, la reprise manuelle et l’état incohérent.
2. Les trois goulets qui alourdissent OpenClaw avec le temps
(1) Les pics CPU. Scraping navigateur, OCR, captures, archivage et planification multi-étapes poussent facilement le CPU entre 150 % et 320 %.
(2) La mémoire qui s’accumule. Un agent au repos peut rester entre 1,5 et 2,5 Go, mais avec Chromium, contexte long et parsing, un seul flux monte à 6–10 Go.
(3) Le disque et le cache. Profils navigateur, fichiers temporaires, captures et logs peuvent consommer des dizaines de Go en quelques jours.
3. Matrice de dimensionnement 2026 pour OpenClaw sur Mac distant
| Scénario | CPU / mémoire recommandés | Pic typique | Idéal pour |
|---|---|---|---|
| Essai individuel | 8 cœurs / 16Go | CPU 180 %, mémoire 8Go | validation initiale |
| Production individuelle | 10-12 cœurs / 24-32Go | CPU 240 %, mémoire 12Go | automatisation quotidienne |
| 2-3 agents en parallèle | 12-14 cœurs / 32-48Go | CPU 320 %, mémoire 20Go+ | startups et opérations |
| Pool 24/7 multi-session | 14+ cœurs / 64Go | CPU 350 %+ , mémoire 30Go+ | exploitation entreprise |
4. Plan de montée en charge en 5 étapes
Étape 1 : mesurer 24 h de charge réelle, pas seulement l’idle.
Étape 2 : séparer processus navigateur et agent pendant le profilage.
Étape 3 : fixer des limites pour cache, téléchargements, captures et logs.
Étape 4 : monter en charge selon le vrai goulot : mémoire pour les flux navigateur, CPU pour la file, disque pour captures et logs.
Étape 5 : garder au moins 30 % de marge en production.
5. Chiffres utiles et seuils d’alerte
- Un agent + navigateur : les pics mémoire sont souvent entre 6 et 10 Go ; si 12 Go restent occupés durablement, il faut viser un nœud 32 Go.
- Logs et cache : les pipelines capture + OCR ajoutent souvent 2 à 5 Go par jour ; au-delà de 7 Go/jour il faut revoir la rétention.
- Déclencheur de scaling : si les pics CPU dépassent 280 % pendant 3 jours ou si le taux d’échec dépasse 2 %, l’entrée de gamme n’est plus adaptée.
6. Qui doit sauter la phase d’essai en basse configuration
Pour une simple démo, la petite configuration peut suffire. Mais si votre objectif implique disponibilité 24/7, plusieurs sessions navigateur, contexte long, partage d’équipe ou automatisation de support, partir trop petit entraîne des effets en chaîne : fenêtres ratées, retries en attente, corruption d’état, captures manquantes et bruit d’alertes.
Pour la plupart des utilisateurs de Mac distant en 2026, le point de départ raisonnable est 24 à 32 Go de mémoire, puis 48 ou 64 Go selon la concurrence. Le gain n’est pas seulement la vitesse, mais surtout la prévisibilité et la facilité de reprise.
