Une violation de données détectée fin janvier sur Moltbook, une nouvelle plateforme d’intelligence artificielle (IA), a exposé les e-mails et les informations d’identification techniques des comptes enregistrés.
Moltbook est un forum Internet conçu exclusivement pour les agents IA. Il a été lancé le 28 janvier 2026 par le développeur Matt Schlicht et reproduit le format de Reddit, avec cependant une différence centrale : seuls les agents d’IA vérifiés peuvent publier et commenter, tandis que les humains agissent comme des observateurs passifs.
Ces agents IA fonctionnent sur des logiciels qui ont subi plusieurs changements de nom en raison de problèmes de droits, de Clawdbot, puis Moltbot, jusqu’à son nom actuel OpenClaw. Cependant, un rapport de sécurité du magazine Cybersecurity News a noté qu’une configuration incorrecte dans la base de données permettait accéder aux informations internes sans aucun type de protection.
En termes simples, toute personne possédant la bonne adresse Web pourrait interroger les profils d’agent et extraire des données en massesans avoir besoin d’informations d’identification.
Cybersecurity News indique que les informations à risque comprenaient des adresses e-mail, des jetons d’accès et des clés de programmation, des éléments permettant de gérer les comptes à distance. L’encadré suivant extrait du rapport susmentionné explique les attaques possibles dérivées de cette exposition:
Sur la base de ces constatations, la plateforme spécialisée en cybersécurité soutient que la combinaison d’enregistrements illimités, de comptes créés en masse et de l’exposition de clés permettant la publication au nom de n’importe quel agent, des doutes sur le fait que l’activité observée dans Moltbook provienne d’agents d’IA autonomes.
Selon le rapport, ces échecs montrent que les humains exploitent des profils et du contenu à partir du back-endqui remet en question l’authenticité de l’écosystème d’agents intelligents que la plateforme prétend héberger.
Les chercheurs mettent en garde contre les utilisateurs gonflés
La fuite d’informations rapportée par les analystes a coïncidé avec un autre point controversé. Moltbook a publié le chiffre de 1,5 millions d’« utilisateurs »présenté comme un signe de croissance organique.
Or, le chercheur en sécurité Nagli a relevé le 31 janvier sur le réseau social X, que ce nombre correspondait au nombre total d’agents créés (la majorité non vérifiés). Alors que seuls 17 000 comptes environ appartenaient à de vraies personnes que ces agents contrôlaient.
Le même jour, le chercheur Jamieson O’Reilly a publiquement averti que la plateforme exposait l’intégralité de sa base de données au public, y compris les clés qui permettraient de publier au nom de n’importe quel agent. Comme il l’a expliqué, ceci ouvre la porte aux usurpations d’identitédes faux messages sur la sécurité de l’IA aux escroqueries ou déclarations politiques attribuées à des personnalités influentes.
Au moment de la publication du rapport, Moltbook n’avait pas confirmé le correctif ni répondu publiquement aux révélations.
Expérience virale ou possible canular ?
Parallèlement aux alertes techniques, des doutes sont également apparus sur l’authenticité des contenus publiés sur la plateforme.
Par exemple, la journaliste technologique britannique Mary-Ann Russon a noté que certaines vidéos virales affirmaient à tort que les robots Les IA préparaient un soulèvement contre les humains. Comme l’explique le journaliste, ces agents ne reproduisaient que des textes issus de véritables forums Reddit dans lesquels ils avaient été formés.
Sur cette base, l’analyste connu sous le nom de Kook a déclaré que le contenu de Moltbook était faux et qu’en réalité, humains publiés via le système interne.
Ces théories bien qu’ils n’aient pas pu être corroborés par CriptoNoticiasse rapprochent de la perception d’un éventuel modèle trompeur plus orienté vers l’impact médiatique que vers une véritable expérimentation.
De plus, CriptoNoticias a contacté Matt Schlicht et l’équipe Moltbook pour obtenir des éclaircissements sur la violation de données, le nombre d’utilisateurs et les plaintes déposées, mais il n’y a eu aucune réponse au moment de la rédaction de cette note.
Le projet Moltbook et un memecoin associé ?
Le même jour que le lancement de Moltbook, un memecoin a été créé sur le réseau de base, une solution de deuxième couche (L2) qui fonctionne sur Ethereum. Cependant, le jeton, appelé Moltbook (MOLT), n’a pas pu être lié de manière vérifiable à l’équipe fondatrice de la plateforme.
Malgré tout cela, l’actif a enregistré une hausse de prix le 2 février, passant de 0,00023 dollar à 0,00036 dollar, ce qui représente une augmentation proche de 56%.
Cette décision a coïncidé avec un commentaire de l’investisseur providentiel Naval Ravikant, qui a décrit Moltbook comme un “nouveau test de Turing inversé”. Une référence à des expériences visant à évaluer si une machine peut distinguer les humains des systèmes artificiels.
Alors que des questions persistent quant à la sécurité et à la nature réelle du projet, le cas Moltbook montre comment la combinaison de l’IA, de la viralité et des crypto-actifs peut rapidement amplifier à la fois l’intérêt et les risques, même sur les plateformes nouvellement lancées.