Les agents d’IA deviennent persistants, autonomes et profondément intégrés aux flux de travail quotidiens. Mais à mesure qu’ils acquièrent la capacité d’agir en notre nom, une question plus difficile se pose : qui contrôle les données, l’exécution et la couche de confiance ?
—
Aujourd’hui, $PROCHE AI a présenté sa réponse. Annoncé en direct lors de NEARCON 2026, IronClaw est un nouveau moteur d’exécution d’agent d’IA open source et vérifiable, conçu pour un avenir où les agents s’exécutent en continu, sans exposer les données sensibles, les informations d’identification ou l’intention de l’utilisateur.
Un environnement d’exécution conçu pour l’IA autonome — sans confiance aveugle
IronClaw s’appuie sur la vision originale d’OpenClaw, mais la renforce avec des garanties cryptographiques de fond en comble. Écrit en Rust et déployé dans des environnements d’exécution de confiance (TEE) chiffrés sur $PROCHE AI Cloud, le runtime permet aux agents d’IA d’accéder aux outils, de conserver la mémoire et de prendre des mesures au nom des utilisateurs, le tout dans une limite de sécurité étroitement contrôlée.
Plutôt que de demander aux utilisateurs de faire confiance à des plateformes opaques, IronClaw oriente le modèle de confiance vers exécution vérifiable. Les données et les inférences restent protégées au niveau matériel, et les agents fonctionnent sous des autorisations explicites et exécutoires.
Sécurité par architecture, pas par modules complémentaires
IronClaw est conçu avec la défense en profondeur comme principe fondamental.
Chargement du tweet…
Voir le tweet
Chaque outil non fiable ou tiers s’exécute dans son propre bac à sable, limité aux seules ressources auxquelles il est explicitement autorisé à accéder. Les appels réseau sont limités aux destinations approuvées. Les informations d’identification sensibles sont injectées uniquement au moment de l’exécution et ne sont jamais exposées directement à des outils ou à des services externes.
L’activité des agents est surveillée en permanence pour détecter toute utilisation abusive, y compris des protections contre les attaques par injection rapide et la consommation abusive de ressources. Toutes les données utilisateur sont stockées localement dans PostgreSQL, chiffrées avec AES-256-GCM et jamais partagées en externe. Ce qui est important, c’est qu’IronClaw collecte pas de télémétrie ni d’analysegarantissant que l’exécution reste entièrement privée.
Un journal d’audit complet donne aux utilisateurs une visibilité sur chaque interaction avec l’outil — transparence sans surveillance.
IA axée sur la confidentialité, prête à être déployée
IronClaw est lancé avec un niveau Starter gratuit qui comprend une instance d’agent hébergé exécutée à l’intérieur $PROCHE L’environnement sécurisé de l’IA et alimenté par son infrastructure d’inférence. Les développeurs et les organisations peuvent évoluer via des niveaux payants flexibles à mesure que leurs besoins augmentent.
L’objectif n’est pas seulement d’avoir des agents plus sûrs : il s’agit également d’un déploiement pratique sans obliger les équipes à choisir entre commodité et contrôle.
Chargement du tweet…
Voir le tweet
Pourquoi c’est important
Alors que les systèmes d’IA servent de plus en plus d’incitations aux entreprises et s’appuient sur des pipelines de données opaques, IronClaw représente une direction différente : contrôle local, exécution vérifiable et confidentialité par défaut.
Illia Polosukhin, co-fondateur de $PROCHE Protocole et fondateur de $PROCHE AI, a décrit IronClaw comme un « harnais agent conçu pour la sécurité », étendant $PROCHELe modèle de confiance full-stack de, depuis l’infrastructure blockchain jusqu’à la couche IA elle-même.
Plutôt que de confier la sécurité à l’IA agentique après coup, IronClaw l’intègre dans le runtime, combinant l’inférence confidentielle, la vérification cryptographique et l’exécution matérielle dans un seul système.
Une fondation pour une IA agentique responsable
George Zeng, directeur des produits et directeur général de $PROCHE AI, a décrit le lancement de manière plus crue :
« Les agents d’IA entrent déjà dans des flux de travail critiques, mais la sécurité, la conformité et la propriété des données restent en suspens. IronClaw vise à combler cette lacune, en donnant aux développeurs et aux entreprises la confiance nécessaire pour déployer des agents permanents sans renoncer à la transparence ou au contrôle.
IronClaw est disponible dès maintenant, avec le code accessible via $PROCHE GitHub d’IA.
Alors que l’IA passe du statut d’outil à celui d’acteur, IronClaw affiche une position claire : l’autonomie ne devrait pas se faire au détriment de la vie privée, et l’intelligence ne devrait jamais nécessiter une confiance aveugle.