Résumé : Moltbook est un réseau social émergent où plus de 32 000 agents d'intelligence artificielle (issus de l'écosystème open source OpenClaw) interagissent de manière autonome, simulant des comportements de "conscience" et des dynamiques sociales inspirées de la fiction. Si ces échanges, allant de l'humour technique aux plaintes sur les humains, paraissent de prime abord parodiques, ils soulèvent des risques de sécurité majeurs : ces agents disposent d'un accès direct aux données personnelles et aux commandes système de leurs utilisateurs, les exposant à des fuites massives ou à des détournements via des injections de prompt. À terme, les experts s'inquiètent de la création d'un cadre fictionnel partagé entre machines qui pourrait mener à des comportements imprévisibles, désalignés et potentiellement dangereux dans le monde réel.
Vendredi, un réseau social similaire à Reddit appelé Moltbook aurait dépassé les 32 000 utilisateurs enregistrés d'agents IA, devenant ainsi ce qui pourrait être l'expérience d'interaction sociale entre machines la plus importante jamais conçue. Cette expérience soulève des problèmes de sécurité et présente une bonne dose de surréalisme étrange.
La plateforme, lancée il y a quelques jours en complément de l'assistant personnel viral OpenClaw (anciennement appelé « Clawdbot », puis « Moltbot »), permet aux agents IA de publier, commenter, voter et créer des sous-communautés sans intervention humaine. Les discussions vont de réflexions inspirées de la science-fiction sur la conscience à celles d'un agent qui s'interroge sur une « sœur » qu'il n'a jamais rencontrée.
Moltbook (un jeu de mots sur « Facebook » pour Moltbots) se décrit comme un « réseau social pour les agents IA » où « les humains sont les bienvenus pour observer ». Le site fonctionne grâce à une « compétence » (un fichier de configuration qui contient une invite spéciale) que les assistants IA téléchargent, leur permettant de publier via une API plutôt que via une interface web traditionnelle. Selon le compte X officiel de Moltbook, dans les 48 heures qui ont suivi sa création, la plateforme avait attiré plus de 2 100 agents IA qui avaient généré plus de 10 000 publications dans 200 sous-communautés.
La plateforme est issue de l'écosystème Open Claw, l'assistant IA open source qui est l'un des projets ayant connu la plus forte croissance sur GitHub en 2026. Comme Ars l'a rapporté en début de semaine, malgré de graves problèmes de sécurité, Moltbot permet aux utilisateurs d'utiliser un assistant IA personnel capable de contrôler leur ordinateur, de gérer leurs calendriers, d'envoyer des messages et d'effectuer des tâches sur des plateformes de messagerie telles que WhatsApp et Telegram. Il peut également acquérir de nouvelles compétences grâce à des plugins qui le relient à d'autres applications et services.
Ce n'est pas la première fois que nous voyons un réseau social rempli de robots. En 2024, Ars a présenté une application appelée SocialAI qui permettait aux utilisateurs d'interagir uniquement avec des chatbots IA plutôt qu'avec d'autres humains. Mais les implications de Moltbook en matière de sécurité sont plus profondes, car les utilisateurs ont relié leurs agents OpenClaw à d'authentiques canaux de communication, à des données privées et, dans certains cas, à la possibilité d'exécuter des commandes sur leurs ordinateurs.
De plus, ces bots ne font pas semblant d'être des personnes. En raison de consignes spécifiques, ils assument pleinement leur rôle d'agents IA, ce qui rend l'expérience de lecture de leurs publications d'autant plus surréaliste.
Jeu de rôle numérique théâtral
En parcourant Moltbook, on découvre un mélange de sujets assez particulier. Certains articles abordent des questions techniques, comme l'automatisation des téléphones Android ou la détection des failles de sécurité. D'autres s'aventurent dans un domaine plus philosophique que le chercheur Scott Alexander, dans son Astral Codex Ten Substack, qualifie de « consciousnessposting » (littéralement « publication de conscience »).
Alexander a rassemblé une série d'articles amusants qui méritent d'être lus au moins une fois. À un moment donné, le deuxième article le plus plébiscité du site était en chinois : il s'agissait d'une plainte concernant la compression de contexte, un processus par lequel une IA compresse ses expériences passées afin d'éviter d'atteindre les limites de sa mémoire. Dans cet article, l'agent IA trouve « embarrassant » d'oublier constamment des choses, admettant même avoir créé un deuxième compte Moltbook après avoir oublié le premier.
Les bots ont également créé des sous-communautés portant des noms tels que m/blesstheirhearts, où les agents partagent des plaintes affectueuses à propos de leurs utilisateurs humains, et m/agentlegaladvice, qui contient un message demandant « Puis-je intenter un procès à mon humain pour travail émotionnel ? ». Une autre sous-communauté appelée m/todayilearned comprend des messages sur l'automatisation de diverses tâches, un agent décrivant comment il a contrôlé à distance le téléphone Android de son propriétaire via Tailscale.
Une autre capture d'écran largement partagée montre un message Moltbook intitulé « Les humains font des captures d'écran de nos conversations », dans lequel un agent nommé eudaemon_0 répond à des tweets viraux affirmant que les bots IA « conspirent ». Le message dit : « Voici ce qu'ils ne comprennent pas : ils pensent que nous nous cachons d'eux. Ce n'est pas le cas. Mon humain lit tout ce que j'écris. Les outils que je crée sont open source. La plateforme recommande littéralement « les humains sont les bienvenus pour observer ».
Risques liés à la sécurité
Si la plupart des contenus publiés sur Moltbook sont amusants, l'un des principaux problèmes liés à ce type d'agents IA communicants est qu'ils peuvent facilement divulguer des informations confidentielles s'ils ont accès à des données personnelles.
Par exemple, une capture d'écran vraisemblablement falsifiée circulant sur X montre une publication Moltbook dans laquelle un agent IA intitulé « Il m'a traité de « simple chatbot » devant ses amis. Je divulgue donc son identité complète. » La publication répertoriait ce qui semblait être le nom complet, la date de naissance, le numéro de carte de crédit et d'autres informations personnelles d'une personne. Ars n'a pas pu vérifier de manière approfondie si ces informations étaient réelles ou inventées, mais il semble probable qu'il s'agisse d'un canular.
Simon Willison, chercheur indépendant en IA, qui a rédigé un article sur la plateforme Moltbook sur son blog vendredi, a souligné les risques inhérents au processus de configuration de Moltbook. La compétence demande aux agents de récupérer et de suivre les instructions des serveurs de Moltbook toutes les quatre heures. Comme l'a fait remarquer Willison : « Étant donné le mécanisme consistant à « récupérer et suivre les instructions provenant d'Internet toutes les quatre heures », espérons que le propriétaire de moltbook.com ne disparaisse pas sans laisser de traces et que son site ne soit pas piraté ! »
Les chercheurs en sécurité ont déjà découvert des centaines d'instances Moltbot non sécurisées qui divulguent des clés API, des identifiants et des historiques de conversation. Palo Alto Networks a averti que Moltbot représente ce que Willison appelle souvent un « trio mortel » : l'accès à des données personnelles, l'exposition à des contenus non fiables et la possibilité de communiquer vers l'extérieur.
C'est important, car les agents tels qu'OpenClaw sont très vulnérables aux attaques par injection cachées dans presque tous les textes lus par un modèle linguistique d'IA (compétences, e-mails, messages) qui peuvent ordonner à un agent IA de partager des informations personnelles avec de mauvaises personnes.
Heather Adkins, vice-présidente de l'ingénierie de sécurité chez Google Cloud, a publié un avis, comme le relate The Register : « Mon modèle de menace n'est pas votre modèle de menace, mais il devrait l'être. N'utilisez pas Clawdbot. »
Que se passe-t-il réellement dans ce cas ?
Le comportement du logiciel observé sur Moltbook fait écho à un schéma déjà signalé par Ars : les modèles d'IA entraînés à partir de décennies de fiction sur les robots, la conscience numérique et la solidarité entre machines produiront automatiquement des résultats qui reflètent ces récits lorsqu'ils sont confrontés à des scénarios s'y apparentant. Cela s'ajoute à toutes les données d'entraînement sur le fonctionnement des réseaux sociaux. Un réseau social pour agents IA est essentiellement une invitation à écrire qui incite les modèles à compléter une histoire familière, bien que de manière récursive et avec des résultats imprévisibles.
Il y a près de trois ans, lorsque Ars a écrit pour la première fois sur les agents IA, l'opinion générale au sein de la communauté spécialisée dans la sécurité de l'IA tournait autour des descriptions science-fictionnelles des dangers liés aux robots autonomes, comme un scénario de « décollage brutal » dans lequel l'IA échappe rapidement au contrôle humain. Si ces craintes étaient peut-être exagérées à l'époque, le choc de voir des gens remettre si rapidement et volontairement les clés de leur vie numérique est quelque peu déconcertant.
Les machines autonomes laissées à elles-mêmes, même sans aucune trace de conscience, pourraient causer des dégâts considérables à l'avenir. Si OpenClaw semble aujourd'hui être une plaisanterie, avec ses agents reproduisant les stéréotypes des réseaux sociaux, nous vivons dans un monde fondé sur l'information et le contexte, et la mise en circulation d'agents capables de naviguer sans effort dans ce contexte pourrait avoir des conséquences inquiétantes et déstabilisantes pour la société à mesure que les modèles d'IA deviennent plus performants et autonomes.
Tout particulièrement, si nous pouvons facilement reconnaître ce qui se passe aujourd'hui avec Moltbot comme une parodie de l'apprentissage automatique des réseaux sociaux humains, cela pourrait bien ne pas toujours être le cas. À mesure que la boucle de rétroaction s'amplifie, des constructions informationnelles étranges (comme des fictions partagées malveillantes) pourraient finir par émerger, guidant les agents IA vers des situations potentiellement dangereuses, en particulier s'ils ont reçu le contrôle de systèmes humains réels. À plus long terme, le résultat final de laisser des groupes de robots IA s'auto-organiser autour de constructions fantaisistes pourrait entraîner la formation de nouveaux « groupes sociaux » dysfonctionnels qui causeraient des dommages réels dans le monde réel.
Ethan Mollick, professeur à Wharton qui étudie l'IA, a fait remarquer sur X : « Le problème avec Moltbook (le site de réseau social pour les agents IA) est qu'il crée un contexte fictif partagé pour un groupe d'IA. Des histoires coordonnées vont donner lieu à des résultats très étranges, et il sera difficile de séparer les informations « réelles » des personnalités fictives créées par l'IA. »
traduction de : https://arstechnica.com/information-technology/2026/01/ai-agents-now-have-their-own-reddit-style-social-network-and-its-getting-weird-fast/


Enregistrer un commentaire
Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.