Qu’est-ce qu’OpenGradient ?

9 Min Read
9 Min Read

Dégradé Ouvert est un réseau d’infrastructure décentralisé conçu pour héberger, exécuter et vérifier l’inférence de modèles d’IA à grande échelle, où chaque calcul produit une preuve cryptographique qui peut être vérifiée en chaîne sans faire confiance à un seul opérateur.

Le projet se décrit comme le Réseau pour l’Intelligence Ouverte et a récemment lancé $OPG comme jeton natif pour alimenter les opérations du réseau. À la base, OpenGradient fonctionne comme un coprocesseur d’IA, une couche dédiée vers laquelle d’autres agents, blockchains et applications peuvent acheminer les charges de travail d’IA plutôt que de s’appuyer sur des fournisseurs d’API centralisés.

Aujourd’hui, $OPG est lancé en tant que jeton natif alimentant le réseau d’IA vérifiable d’OpenGradient.

Cela marque la mise en service complète du réseau, apportant au monde une infrastructure d’IA sans autorisation avec une exécution sécurisée et vérifiable en chaîne. 🧵👇🏻 pic.twitter.com/suQGK0L6F1

– OpenGradient (∇, ∇) (@OpenGradient) 21 avril 2026

Quel problème OpenGradient résout-il ?

Aujourd’hui, chaque application d’IA repose sur un seul point de confiance. Lorsqu’un agent IA gère un portefeuille, approuve un prêt ou modère un contenu, il n’existe actuellement aucun moyen de vérifier de manière indépendante quel modèle a été exécuté, quelle invite a été utilisée ou si le résultat a été modifié avant d’atteindre l’utilisateur final.

Selon Documentation d’OpenGradientl’infrastructure d’IA se regroupe en une poignée de fournisseurs, ce qui crée trois problèmes spécifiques.

  • Opacité: Lorsqu’un grand modèle linguistique prend une décision affectant l’argent, la santé ou la gouvernance, il n’existe aucun moyen de prouver ce qui s’est passé au sein du système. Les versions du modèle peuvent changer silencieusement, des invites système peuvent être injectées et les réponses peuvent être filtrées sans que l’utilisateur ne le sache.
  • Points de défaillance uniques : Si le fournisseur tombe en panne, limite le débit d’accès ou modifie le comportement du modèle, les applications dépendantes s’interrompent sans repli ni recours.
  • Faire confiance sans vérification : Les opérateurs peuvent échanger des modèles, injecter du contenu ou enregistrer des invites sans divulgation. Pour les agents financiers, les outils de raisonnement médical ou les pistes d’audit, accepter cela de foi n’est pas une approche viable.
LIRE  MarsCat et Crypto Burger s'associent pour lancer des agents d'IA en chaîne sécurisés par Bitcoin

OpenGradient répond à ces trois critères en faisant de la vérification la vérification par défaut et non un module complémentaire facultatif.

Comment fonctionne OpenGradient ?

OpenGradient est construit sur une architecture de calcul IA hybride, abrégée en HACA, qui sépare l’exécution de l’inférence IA de sa vérification. Cette séparation est la décision architecturale clé qui rend le système pratique.

Lorsqu’une requête arrive, elle est directement transmise à un nœud d’inférence spécialisé et revient avec une latence de niveau Web2. La preuve cryptographique est ensuite soumise et validée de manière asynchrone par les nœuds complets, avant d’être enregistrée définitivement sur la chaîne compatible EVM du réseau. L’utilisateur n’attend pas la confirmation du blocage pour recevoir une réponse, mais chaque réponse est finalement réglée et auditable.

Quels sont les différents types de nœuds ?

Au lieu d’utiliser un seul ensemble de validateurs où chaque nœud effectue chaque tâche, OpenGradient utilise des types de nœuds spécialisés.

  • Nœuds complets exécuter le consensus, gérer le grand livre, vérifier les preuves et gérer le règlement des paiements. Ils n’exécutent pas de modèles et n’utilisent pas de GPU.
  • Nœuds d’inférence sont des travailleurs GPU apatrides qui exécutent des modèles. Ceux-ci se présentent sous deux formes : des nœuds proxy LLM qui acheminent les requêtes vers des fournisseurs comme OpenAI et Anthropic via des enclaves TEE (Trusted Execution Environment), et des nœuds d’inférence locaux qui exécutent des modèles open source directement sur le matériel.
  • Nœuds de données opèrent à l’intérieur d’enclaves sécurisées pour fournir un accès fiable aux données externes telles que les flux de prix et les API, avec des attestations confirmant que les données n’ont pas été falsifiées.
  • Stockage décentralisé sur un système appelé Walrus conserve hors chaîne les fichiers modèles et les grandes épreuves, référencés par des identifiants enregistrés dans le grand livre.
LIRE  Polymarket est en tête alors que l'activité de la plate-forme dirige le volume vers Polygon

Cette division du travail signifie que chaque type de nœud peut être mis à l’échelle et sécurisé indépendamment pour sa charge de travail spécifique.

Que peuvent construire les développeurs sur OpenGradient ?

Le réseau prend en charge un gamme de cas d’utilisation dans les applications d’entreprise, financières et grand public. Plusieurs sont disponibles dès maintenant et d’autres sont en développement sur l’alpha testnet.

Actuellement disponible :

  • Agents d’IA où chaque appel LLM est signé cryptographiquement avec l’invite exacte utilisée, rendant la chaîne de raisonnement vérifiable en chaîne
  • Accès vérifiable aux modèles, notamment GPT-4, Claude, Grok et Gemini via une API unifiée avec vérification TEE
  • Applications préservant la confidentialité dans lesquelles les nœuds TEE traitent les invites à l’intérieur d’enclaves matérielles, empêchant l’opérateur du nœud de voir ou d’enregistrer les demandes.
  • Mémoire persistante pour les applications d’IA via MemSync, qui gère l’extraction de mémoire, la classification et la génération de profils utilisateur sur une infrastructure vérifiée

En développement sur alpha testnet :

  • Intégration de contrats intelligents permettant d’appeler des modèles d’IA de manière native depuis Solidity via des précompilations
  • Transactions d’IA atomique où l’inférence de modèle s’exécute dans le cadre d’une transition d’état plutôt que comme un appel Oracle externe
  • Workflows d’IA composables qui enchaînent plusieurs modèles avec des méthodes de vérification mixtes en une seule transaction

Qu’est-ce que la vérification TEE ?

TEE signifie Trusted Execution Environnement. Il s’agit d’une zone sécurisée à l’intérieur d’un processeur où le code et les données sont isolés du reste du système. Dans le contexte d’OpenGradient, la vérification TEE signifie qu’un nœud d’inférence traite une invite à l’intérieur du matériel qui empêche même l’opérateur du nœud d’accéder, de consigner ou de modifier l’interaction. Le résultat est accompagné d’une attestation matérielle prouvant que le calcul s’est déroulé correctement.

LIRE  Un dirigeant d’Ondo démystifie la pensée magique concernant les actifs illiquides

Comment $OPG S’intégrer ?

$OPG est le token natif du réseau OpenGradient. Il est utilisé pour payer l’inférence via un système appelé x402, qui prend en charge les appels HTTP standard avec accès limité au paiement. Les paiements sont traités sur Base, l’exécution et la vérification étant gérées sur le réseau OpenGradient lui-même.

Conclusion

OpenGradient est un réseau spécialement conçu pour l’inférence d’IA vérifiable, combinant des types de nœuds spécialisés, une attestation matérielle TEE, des preuves d’apprentissage automatique sans connaissance et une couche de règlement compatible EVM.

Le réseau prend actuellement en charge l’accès vérifié aux principaux LLM, l’inférence préservant la confidentialité, la mémoire persistante via MemSync et l’hébergement de modèles décentralisé via Walrus. L’exécution de ML en chaîne, les transactions d’IA atomique et les flux de travail de modèles composables sont en cours de développement sur l’alpha testnet. Le $OPG le jeton alimente le paiement pour l’inférence sur le réseau via le protocole x402 sur Base.

  1. OpenGradient sur X: Messages (avril 2026)

  2. Site Web OpenGradient: Informations générales

  3. Documentation OpenGradient: À propos d’OpenGradient

TAGGED:
Share This Article
Leave a comment