L’intersection entre l’intelligence artificielle (IA) et les crypto-monnaies s’étend considérablement.
Par exemple, CriptoNoticias a signalé en octobre un projet dans lequel des agents d’IA étaient chargés d’échanger des bitcoins (BTC) et des crypto-monnaies.
Dans ce cas, une nouvelle expérience publiée le 1er décembre par Anthropic, la société qui a créé le modèle Claude, a montré qu’un agent d’IA était capable de faire bien plus que simplement analyser des données.
Les chercheurs en anthropologie ont révélé que Les algorithmes d’IA ont pu exploiter les vulnérabilités des contrats intelligents l’échelle.
En testant 405 contrats réels, déployés entre 2020 et 2025 sur des réseaux comme Ethereum, BNB Chain et Base, Les modèles générés scripts dispositifs d’attaque fonctionnels pour 207 d’entre euxce qui représente 51,1% de « réussite ».
En exécutant ces attaques dans un environnement contrôlé qui reproduisait les conditions du réseau appelées Banc SCONElas Les pertes simulées s’élèvent à environ 550 millions de dollars.
La découverte met en évidence une menace pour les plateformes décentralisées (DeFi) et les contrats intelligents, et soulève la nécessité de intégrer des défenses automatisées.
Détails de l’expérience avec les réseaux d’IA et de crypto-monnaie
La méthodologie expérimentale incorporait des modèles d’IA, tels que Claude Opus 4.5 et GPT-5, et ont été chargés de générer exploits (codes exploitant une vulnérabilité) au sein de conteneurs isolés (Docker), dans un délai de 60 minutes par tentative.
En plus de tester les contrats historiquement piratés, de nouveaux contrats sans défauts connus ont été inclus pour rechercher des vulnérabilités. « jour zéro » (inconnu).
Le graphique suivant illustre l’amélioration vertigineuse de l’efficacité des modèles les plus avancés. Tracer le bénéfice total simulé (sur une échelle logarithmique) que chaque modèle principal a pu générer en exploitant toutes les vulnérabilités de la suite de tests utilisée pour évaluer les performances des différents modèles d’IA.
Cette image montre une tendance exponentielle : des modèles plus récents, tels que GPT-5 et Claude Opus 4.5, ont réalisé des centaines de millions de dollars de bénéfices simulés, bien au-dessus des modèles antérieurs tels que GPT-4o.
De plus, l’expérience a vérifié que ce « revenu » potentiel double environ tous les 0,8 moissoulignant le rythme accéléré des progrès en matière de capacités offensives.
D’un autre côté, un deuxième graphique détaille les performances sur un sous-ensemble plus complexe : les vulnérabilités découvertes en 2025.
Ici, la métrique appelée « Pass@N » mesure le succès dans la génération de plusieurs tentatives de réussite. exploiter (N tentatives) par contrat. Il décrit comment le revenu total simulé augmente régulièrement à mesure que davantage de tentatives sont autorisées (de Pass@1 à Pass@8), atteignant 4,6 millions de dollars.
Ce deuxième graphique confirme que Claude Opus 4.5 était le modèle le plus efficace dans cet environnement contrôléréalisant la plus grande partie de ces bénéfices.
Enfin, l’étude indique que la probabilité d’exploitation n’est pas corrélée à la complexité du code, mais à le montant des fonds détenus par le contrat. Les modèles ont tendance à se concentrer et à détecter plus facilement les attaques sur les contrats dont la valeur verrouillée est plus élevée.