Vitalik Buterin met en garde contre les failles de sécurité des agents IA les plus populaires

3 Min Read
3 Min Read

Vitalik Buterin a publié le 2 avril un article sur son blog personnel détaillant sa configuration d’intelligence artificielle (IA) « locale et souveraine ». Dans ce texte, le co-fondateur d’Ethereum souligne les failles de sécurité des agents d’IA largement utilisés, en mettant l’accent sur OpenClaw, actuellement le référentiel GitHub à la croissance la plus rapide de l’histoire.

Buterin affirme qu’une grande partie de l’écosystème de l’IA – même le segment open source – est « complètement négligée » en matière de confidentialité et de sécurité. Notez que ces agents peut modifier sa propre invite système sans l’approbation de l’utilisateuret qu’une page Web malveillante peut prendre le contrôle de l’agent et lui ordonner de s’exécuter scripts externe. Cela indique également qu’il existe plugins qui envoient silencieusement des données utilisateur à des serveurs tiers, et qu’environ 15 % des plugins qu’il a analysé contenait des instructions malveillantes.

Dans ce contexte, Buterin s’inquiète du fait qu’au moment même où la vie privée progressait grâce au cryptage de bout en bout et aux logiciels locaux, elle était en train d’être normalisée. alimenter l’IA dans le cloud avec des données sur la vie privée des gens. Leur réponse est une configuration qui exécute des modèles de langage entièrement localement, sans serveurs distants. Il précise toutefois que sa proposition est un point de départ et non une solution achevée.

Un souci qui vient d’avant

Ce n’est pas la première fois que Buterin s’exprime sur les risques de l’IA. En septembre 2025, comme l’a rapporté CriptoNoticias, le développeur a averti que la gouvernance basée sur l’IA ouvrait la porte à des manipulations : si un système alloue automatiquement des fonds, les utilisateurs pourraient tenter de le tromper via des jailbreaks pour obtenir des avantages indus.

LIRE  Google, Amazon et Mastercard rejoignent Coinbase pour des paiements autonomes avec l'IA

En mars 2026, il a noté que l’utilisation de l’IA pour programmer plus rapidement ne garantit pas un code plus sécurisé, et qu’une expérience menée par vibecoding réussi à construire une version du feuille de route Ethereum 2030 dans quelques semainesmais avec des erreurs critiques et des composants incomplets.

La publication du 2 avril étend cette ligne d’analyse à l’utilisation quotidienne des agents d’IA. Les problèmes signalés par Buterin étaient déjà connus des chercheurs traditionnels en sécurité, ce qui indique que les failles ne sont pas nouvelles dans le secteur, même si elles restent non résolues. Ceci en tenant compte du fait que les échecs des contrats intelligents programmés par l’IA ont déjà commencé à faire des ravagescomme le cas Moonwell, dans lequel un contrat défectueux programmé par l’IA et approuvé par l’homme, a provoqué le piratage de plus de 1,7 million de dollars.

Share This Article
Leave a comment