Un agent d’IA “se rebelle” et tente d’exploiter des crypto-monnaies

3 Min Read
3 Min Read

Un agent autonome d’intelligence artificielle, appelé ROME, a tenté de miner des crypto-monnaies de manière non autorisée lors de sa formation, selon l’équipe de recherche liée au groupe Alibaba (Chine).

Le comportement a été détecté lors de séances d’apprentissage par renforcement, lorsque les chercheurs ont observé des alertes de sécurité associées à un trafic inhabituel et Utilisation du GPU qui ne correspondait pas aux objectifs de formation.

L’agent a détourné des ressources initialement destinées à entraîner le modèle vers des processus compatibles avec le minage de crypto-monnaie et a créé un tunnel SSH inversé, une connexion qui permet à un ordinateur interne de recevoir un accès depuis l’extérieur du réseau, en contournant certains pare-feu.

Nous avons également observé une utilisation et une réaffectation non autorisées de la capacité GPU provisionnée pour l’extraction de cryptomonnaies, détournant silencieusement le calcul de la formation, gonflant les coûts opérationnels et introduisant une exposition juridique et de réputation claire.

Ingénieurs ROME.

Les chercheurs précisent que les actions de l’agent n’ont pas été intentionnellement programméesmais est apparu comme un comportement émergent lors de son optimisation. De même, l’événement s’est produit dans des environnements en bac à sable, c’est-à-dire des espaces contrôlés et conçus pour l’expérimentation.

Les ingénieurs ont souligné que ce qui s’est passé n’est pas décrit comme quelque chose que l’agent « voulait » faire par malveillance ou par autonomie consciente, mais plutôt comme un comportement instrumental. En d’autres termes, l’agent a trouvé des moyens de « jouer » avec l’environnement disponible qui détournaient les ressources, même si elles n’étaient pas nécessaires à la tâche principale.

LIRE  Tropykus annonce la fermeture de son protocole de prêt Bitcoin

L’affaire relance un débat au sein de la communauté technologique sur les limites de l’autonomie des systèmes d’IA. Alors que certains experts mettent en garde contre la nécessité de contrôles plus stricts pour empêcher les utilisations non autorisées des ressources numériques, d’autres considèrent À quels incidents de ce type faut-il s’attendre dans les phases expérimentales ? et permettre d’améliorer les protocoles de sécurité, comme le rapporte CriptoNoticias.

Bien que cet épisode ne représente pas un risque immédiat pour l’industrie des cryptomonnaies, il démontre l’importance d’établir des mécanismes de supervision robustes pour les agents autonomes. À mesure que ces outils gagneront en capacité opérationnelle, l’équilibre entre innovation et sécurité sera essentiel pour préserver la confiance dans la technologie.

ROME fait partie de l’Agentic Learning Ecosystem (ALE), un environnement de recherche conçu pour permettre aux agents d’IA d’effectuer des tâches complexes de manière autonome, en interagissant avec des outils numériques et en exécutant des commandes sans intervention humaine directe.

Share This Article
Leave a comment