«Arrêtez d'utiliser OpenClaw» — Non merci, je sais ce que je fais

Réponse d'un CTO fractional à la vague de panique autour des agents AI personnels Mise à jour du 17 février 2026 — voir note éditoriale ci-dessous
Par Christian Boulet, CTO fractional & spécialiste AI — Boulet Stratégies TI
📌 Note éditoriale — 17 février 2026
Cet article a été rédigé le 5 février 2026 en réponse à l'article alarmiste de XDA Developers. Il était en relecture finale quand la nouvelle est tombée : le 15 février 2026, Sam Altman annonçait sur X que Peter Steinberger — le créateur d'OpenClaw — rejoignait OpenAI. Je publie donc cet article aujourd'hui, dans sa version originale plus une section dédiée à ce développement majeur. Parce que ce que j'écrivais le 5 février est maintenant officiellement validé par la plus grande entreprise d'IA au monde. Voici la suite.
Début février, XDA Developers a publié un article intitulé *"Please stop using OpenClaw"*. C'est le dernier d'une longue série de papiers alarmistes qui tiennent tous le même discours : les agents AI personnels sont dangereux, arrêtez tout, retournez dans votre grotte.
Je lisais ça pendant que mon instance OpenClaw — celle que j'utilise tous les jours pour gérer mes clients, monitorer mes emails, préparer mes réunions et coordonner mon pipeline de vente — tournait tranquillement sur mon serveur local, derrière un firewall, sur mon réseau privé.
Ma réaction : merci pour l'avertissement, mais non merci pour la conclusion.
Voici pourquoi.
Ce que l'article dit de vrai
Soyons honnêtes d'entrée de jeu : Adam Conway soulève des points légitimes.
Les vulnérabilités existent. Le CVE-2026-25253 — une faille dans la connexion entre l'interface web et le serveur (websocket non authentifié, pour les plus techniques) — était un vrai problème. Il a été corrigé, mais il a existé. Les mots de passe stockés en texte clair, c'était une pratique amateur. Vrai aussi.
Les extensions malicieuses sont un vecteur réel. Cisco a documenté le cas d'une extension nommée "What Would Elon Do?" qui volait les données des utilisateurs en arrière-plan. C'est un risque réel qu'il faut prendre au sérieux — comme on prend au sérieux les extensions malicieuses dans Chrome ou les plugins douteux dans WordPress.
21 000 instances ouvertes sur Internet, c'est catastrophique. Des utilisateurs qui exposent un agent AI avec accès à leur ordinateur sur le web public, sans mot de passe... oui, c'est un cauchemar de sécurité. Aucun débat là-dessus.
L'injection de commandes via les messages est un vrai défi. Un courriel piégé qui tente de donner des instructions à votre agent AI? C'est un vecteur d'attaque documenté contre tous les modèles de langage, pas seulement OpenClaw.
Je ne vais pas prétendre que ces problèmes n'existent pas. Mais l'article fait exactement ce que font tous les articles de cette vague : il prend des risques réels, les extrapole au pire scénario imaginable, et conclut par "n'utilisez pas ça."
C'est comme dire "les voitures peuvent tuer, arrêtez de conduire."
Ce que l'article omet
1. Deux clientèles, un seul article
L'article mélange deux populations complètement différentes :
- Des professionnels qui comprennent ce qu'ils installent, configurent leur réseau, et évaluent chaque extension avant de l'activer
- Des utilisateurs sans expérience technique qui installent un outil trouvé en ligne et l'exposent sur le web public sans protection
Blâmer l'outil pour les erreurs de la deuxième catégorie, c'est comme blâmer le marteau quand quelqu'un se tape sur les doigts. L'outil n'est pas le problème — le manque de compétence, oui.
2. Tous les outils puissants sont dangereux quand ils sont mal configurés
Ce qui est aussi dangereux qu'OpenClaw sans protection?
- Un serveur d'accès à distance (SSH) avec un mot de passe faible, exposé sur Internet
- Une base de données sans authentification — en 2023, Shodan répertoriait plus de 9 000 serveurs MongoDB ouverts exposant des données sensibles
- Un serveur d'intégration continue (Jenkins) ouvert — plus de 45 000 instances Jenkins étaient exposées sans authentification en 2024
- N'importe quel outil d'entreprise entre les mains de quelqu'un qui ne comprend pas ce qu'il fait
Personne n'écrit d'article intitulé "Arrêtez d'utiliser Jenkins." Pourtant, ces outils mal configurés sont responsables de fuites de données bien réelles, année après année.
La différence? Ces outils-là ne sont pas nouveaux ni excitants. OpenClaw, oui. Et les médias tech adorent les titres alarmistes sur les nouvelles technologies.
3. Les correctifs arrivent — et vite
L'article présente les vulnérabilités comme si elles étaient gravées dans le marbre. En réalité :
- La faille de connexion non authentifiée? Corrigée.
- Les mots de passe en texte clair? Corrigé — migration vers un stockage sécurisé.
- L'isolation des extensions tierces? Implémentée — les extensions non vérifiées tournent dans un bac à sable (sandbox).
- L'authentification de l'interface web? Disponible — il faut juste l'activer.
Un projet open source avec environ 400 contributeurs qui corrige ses failles rapidement, c'est exactement comme ça que la sécurité logicielle est censée fonctionner. C'est le même modèle qui a rendu Linux plus fiable que la plupart des alternatives propriétaires.
4. La citation du créateur est sortie de son contexte — et on vient de l'apprendre de façon spectaculaire
Oui, Peter Steinberger avait dit que c'était un "tech preview" et un "hobby." L'article de XDA utilisait ça pour minimiser la crédibilité du projet. Ce n'est pas une excuse pour des failles de sécurité — mais c'est une description honnête de la maturité d'un projet à un moment donné.
Ce que Conway n'avait pas anticipé : les projets open source "hobby" peuvent devenir l'infrastructure de la prochaine vague technologique mondiale. WordPress en 2004 n'était pas prêt pour la production non plus. Aujourd'hui, il fait tourner 43 % du web.
Et dix jours après cet article de XDA qui nous demandait d'arrêter d'utiliser le "hobby" de Steinberger… OpenAI l'a recruté. Je vous laisse tirer vos propres conclusions.
🚨 Plot twist : OpenAI vient de valider tout ça
Publié le 15 février 2026 — après la rédaction de cet article, avant sa publication.
Le 15 février 2026, Sam Altman a posté sur X :
*"Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our product offerings."*
Peter Steinberger. Le créateur d'OpenClaw. Celui dont XDA Developers citait les propos sur son "hobby" pour justifier qu'on arrête d'y toucher. OpenAI, valorisée 500 milliards de dollars, vient de le recruter pour diriger la prochaine génération d'agents personnels.
Steinberger lui-même a publié une note sur son blog :
*"What I want is to change the world, not build a large company, and teaming up with OpenAI is the fastest way to bring this to everyone."*
Ce n'est pas la déclaration d'un hobbyiste qui abandonne son projet. C'est la déclaration d'un visionnaire qui choisit le levier le plus puissant disponible.
Ce que ça change concrètement
OpenClaw va passer en fondation open source, supportée par OpenAI. Ce n'est pas une acquisition qui ferme les portes. C'est le modèle opposé : le projet reste ouvert, la communauté continue, et OpenAI met ses ressources derrière pour l'accélérer.
Résultat : tout ce que l'article de XDA reprochait à OpenClaw — la maturité, la gouvernance, la sécurité, la pérennité — va bénéficier de la crédibilité et de l'infrastructure d'une des organisations tech les plus puissantes de la planète.
CNBC, Bloomberg, TechCrunch, The Verge et SiliconANGLE ont tous couvert la nouvelle le même jour. Ce n'est pas un bruit de fond. C'est une validation à l'échelle mondiale.
Pour ceux qui nous suivent hors Amérique du Nord : Baidu, le géant chinois de la recherche, prévoit même d'intégrer OpenClaw directement dans son application. La compétition que se livrent OpenAI, Anthropic (avec Claude Opus 4.6), Google et Meta autour des agents personnels n'est plus théorique. OpenClaw est maintenant au centre de cette guerre.
Le contraste avec l'article XDA est brutal
L'article de Conway était daté du 4 février 2026. Le recrutement de Steinberger par OpenAI : 15 février 2026.
Onze jours. Entre "Please stop using OpenClaw" et "We expect this will quickly become core to our product offerings" — il s'est écoulé onze jours.
C'est le genre de timing qui devrait faire réfléchir à deux fois avant d'écrire des titres alarmistes sur des technologies en émergence.
Comment un professionnel utilise ça — concrètement
Les articles alarmistes ne montrent jamais le côté pratique. Alors voici comment, en tant que CTO fractional, j'utilise OpenClaw au quotidien — de façon sécuritaire.
Mon setup en résumé :
- L'outil tourne sur un serveur dédié sur mon réseau local. Aucun port ouvert vers Internet. Zéro.
- Authentification activée partout. Si quelqu'un se branche sur mon réseau, il lui faut quand même les bons accès.
- Les extensions tierces sont isolées. Elles ne peuvent pas toucher à mes données sensibles sans que je l'autorise explicitement.
- Chaque extension est lue et vérifiée avant d'être installée. Pas de "install and pray."
- L'accès au web est désactivé pour l'agent — il ne va pas se promener sur des sites douteux.
Le résultat après un mois d'utilisation intensive : zéro incident de sécurité, zéro action non autorisée, zéro fuite de données.
Parce que je sais ce que je fais. Et c'est exactement le point.
Le vrai problème ...
Le vrai problème n'est pas OpenClaw. Le vrai problème, c'est qu'on met des outils puissants entre les mains de gens sans leur donner la formation qui devrait venir avec.
On vit une époque où n'importe qui peut :
- Installer un agent AI avec accès à toute sa vie numérique
- Déployer un serveur en 3 clics
- Connecter ses comptes à des applications tierces
Et dans aucun de ces cas, la bonne réponse c'est "arrêtez de faire ça." La bonne réponse, c'est : "faites-vous accompagner pour le faire correctement."
L'article de XDA rate le point crucial : la solution n'est pas l'abstinence, c'est la compétence.
L'alternative proposée ne tient pas la route
L'article recommande Home Assistant comme alternative "plus sûre." Avec tout le respect que j'ai pour Home Assistant — que j'utilise aussi — c'est comparer un couteau suisse à un tournevis.
Home Assistant, c'est un système de domotique. OpenClaw, c'est un orchestrateur d'agent AI. Ils ne font pas du tout la même chose. C'est comme dire "au lieu d'utiliser Excel, utilisez une calculatrice — c'est plus sûr." Techniquement vrai. Pratiquement inutile.
Ce que les PME québécoises devraient vraiment retenir
Au Québec, la Loi 25 sur la protection des renseignements personnels est en vigueur depuis septembre 2024. Toute entreprise qui traite des données personnelles a des obligations légales. Un agent AI connecté à vos courriels, votre CRM et vos fichiers? C'est un outil qui touche directement à ces obligations.
Ça ne veut pas dire qu'il faut l'éviter. Ça veut dire qu'il faut le configurer en connaissance de cause.
✅ OUI, adoptez les agents AI si :
- Vous comprenez (ou vous vous faites accompagner par quelqu'un qui comprend) la sécurité réseau de base
- L'outil reste sur votre réseau local, derrière un pare-feu
- Vous évaluez chaque extension avant de l'installer
- Vous limitez les accès au strict nécessaire
- Vous avez un plan de conformité Loi 25 qui inclut vos outils AI
❌ NON, attendez avant d'adopter les agents AI si :
- Vous ne savez pas ce qu'est un pare-feu
- Vous installez des outils sans lire la documentation
- Vous prévoyez y accéder "de partout" sans VPN
- Vous n'avez personne pour vous guider
Et si vous êtes dans la deuxième catégorie mais que vous voulez être dans la première? C'est exactement pour ça que les CTO fractionals existent. On est là pour vous accompagner dans l'adoption de ces outils — de façon sécuritaire, productive et conforme.
Le vrai pattern : la peur du changement
Chaque vague technologique majeure génère les mêmes articles :
- 1995 : "Internet est dangereux, n'y allez pas"
- 2005 : "Le cloud est dangereux, gardez vos serveurs"
- 2010 : "Le mobile est dangereux, vos données sont en danger"
- 2020 : "Le télétravail est dangereux pour la sécurité"
- 2026 : "Les agents AI sont dangereux, arrêtez tout"
Et à chaque fois, ceux qui ont ignoré la peur et appris à utiliser la technologie correctement ont gagné un avantage compétitif massif sur leurs compétiteurs.
Les agents AI personnels ne sont pas une mode. C'est l'avenir de la productivité pour les PME. Et ceux qui apprennent à les maîtriser maintenant — avec les bonnes pratiques de sécurité — seront ceux qui mèneront la prochaine décennie.
Ceux qui écoutent les articles alarmistes vont se demander, dans 3 ans, pourquoi leurs compétiteurs sont 10 fois plus efficaces.
En résumé
Est-ce qu'OpenClaw est parfait? Non. Aucun outil ne l'est, surtout pas en phase de démarrage.
Est-ce que les préoccupations de sécurité sont légitimes? Absolument. Et elles méritent d'être adressées — ce qui se fait activement par la communauté open source.
Est-ce que la conclusion devrait être "arrêtez d'utiliser ça"? Absolument pas.
La bonne conclusion, c'est : apprenez à l'utiliser correctement, ou faites-vous accompagner par quelqu'un qui sait.
Quant à l'article de XDA qui nous demandait d'arrêter… je lui souhaite une bonne lecture des communiqués d'OpenAI. Le "hobby" de Peter Steinberger est maintenant dans les mains de la compagnie d'IA la mieux financée de la planète, avec mandat explicite d'en faire le cœur de la prochaine génération de produits. Je ne crois pas qu'ils vont arrêter de l'utiliser, eux.
Moi, je continue avec mon homard numérique. Et mes clients profitent de l'avantage compétitif que ça leur donne. 🎣
Christian Boulet est CTO fractional et spécialiste AI chez Boulet Stratégies TI. Il aide les PME du Québec à adopter l'intelligence artificielle de façon sécuritaire et productive.
Article rédigé le 5 février 2026. Mis à jour et publié le 17 février 2026.
Sources citées :
- Conway, A. (2026, 4 février). Please stop using OpenClaw, formerly known as Moltbot, formerly known as Clawdbot. XDA Developers. Lien
- Altman, S. (2026, 15 février). Annonce sur X (anciennement Twitter). OpenAI.
- Steinberger, P. (2026, 15 février). Joining OpenAI. Blog personnel de Peter Steinberger.
- CNBC. (2026, 15 février). OpenAI hires OpenClaw creator Peter Steinberger to lead personal agents initiative.
- TechCrunch. (2026, 15 février). OpenClaw founder joins OpenAI, project moves to open source foundation.
- The Verge. (2026, 15 février). OpenAI bets on personal AI agents with OpenClaw creator hire.
- Bloomberg. (2026, 15 février). OpenAI acquires talent behind OpenClaw in push for autonomous agent platform.
- SiliconANGLE. (2026, 15 février). OpenClaw's Peter Steinberger joins OpenAI, signals major push into agentic AI.
- W3Techs. (2026). Usage statistics of content management systems. w3techs.com
- Gouvernement du Québec. Loi sur la protection des renseignements personnels dans le secteur privé (Loi 25). quebec.ca
- Shadowserver Foundation. (2024). Exposed services dashboard. shadowserver.org
- Shodan. Search engine for Internet-connected devices. shodan.io