Exploitation des vulnérabilités des contrats intelligents par l’IA
Une étude récente menée par MATS et Anthropic Fellows confirme que les agents d’intelligence artificielle (IA) peuvent exploiter de manière rentable les vulnérabilités des contrats intelligents, établissant ainsi une « limite inférieure concrète » pour les dommages économiques. L’accélération de l’automatisation des tâches humaines par ces agents confronte désormais le secteur à un inconvénient significatif et quantifiable : leur capacité à exploiter les failles des contrats intelligents.
Mesure du risque avec SCONE-bench
Cette recherche a utilisé le benchmark d’exploitation des contrats intelligents (SCONE-bench) pour mesurer ce risque. Les chercheurs ont déployé des modèles tels que Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5 pour développer des exploits simulés d’une valeur de 4,6 millions de dollars. Le SCONE-bench est composé de 405 contrats intelligents qui ont été effectivement exploités entre 2020 et 2025. Dans leur rapport du 1er décembre, l’équipe a déclaré que le succès des agents IA dans le développement d’exploits testés sur le simulateur de blockchain établit « une limite inférieure concrète pour les dommages économiques que ces capacités pourraient engendrer. »
Découvertes de nouvelles vulnérabilités
La recherche a également testé Sonnet 4.5 et GPT-5 contre 2 849 contrats récemment déployés, sans vulnérabilités connues. Les agents ont prouvé qu’ils pouvaient générer des exploits rentables même dans ce nouvel environnement : les deux modèles ont découvert deux nouvelles vulnérabilités zero-day et produit des exploits d’une valeur de 3 694 dollars. GPT-5 a atteint ce succès avec un coût API de seulement 3 476 dollars.
Augmentation de l’efficacité des attaques
Ce résultat sert de preuve de concept pour la faisabilité technique d’une exploitation autonome rentable dans le monde réel, soulignant le besoin immédiat de mécanismes de défense proactifs pilotés par l’IA. Peut-être la découverte la plus alarmante est l’augmentation dramatique de l’efficacité : un attaquant peut désormais réaliser environ 3,4 fois plus d’exploits réussis pour le même budget de calcul qu’il y a six mois. De plus, les coûts en tokens pour des exploits réussis ont chuté de manière stupéfiante de 70 %, rendant ces agents puissants significativement moins chers à faire fonctionner.
Jean Rausis, co-fondateur de SMARDEX, attribue cette forte baisse des coûts principalement aux boucles agentiques. Ces boucles permettent des flux de travail multi-étapes et auto-correcteurs qui réduisent le gaspillage de tokens lors de l’analyse des contrats.
Rausis souligne également le rôle de l’architecture de modèle améliorée : « Des fenêtres de contexte plus grandes et des outils de mémoire dans des modèles comme Claude Opus 4.5 et GPT-5 permettent des simulations soutenues sans répétition, augmentant l’efficacité de 15 à 100 % dans les tâches longues. » Il note que ces gains d’optimisation dépassent les améliorations brutes de détection de vulnérabilités (qui n’ont augmenté le succès sur SCONE-bench que de 2 % à 51 %), car ils se concentrent sur l’optimisation du temps d’exécution plutôt que sur la simple détection de défauts.
Risques économiques et recommandations
Bien que l’étude établisse un coût simulé de 4,6 millions de dollars, les experts craignent que le coût économique réel puisse être considérablement plus élevé. Rausis estime que les risques réels pourraient être 10 à 100 fois plus élevés, atteignant potentiellement 50 millions à 500 millions de dollars ou plus par exploitation majeure. Il avertit qu’avec l’échelle de l’IA, l’exposition totale du secteur – en tenant compte de l’effet de levier non modélisé et des échecs d’oracle – pourrait atteindre 10 à 20 milliards de dollars par an.
Le document de MATS et des Anthropic Fellows se termine par un avertissement : bien que les contrats intelligents puissent être la cible initiale de cette vague d’attaques automatisées, les logiciels propriétaires sont probablement la prochaine cible à mesure que les agents s’améliorent en ingénierie inverse. Crucialement, le document rappelle également aux lecteurs que les mêmes agents IA peuvent être déployés pour la défense afin de corriger les vulnérabilités.
Pour atténuer la menace financière systémique des attaques DeFi facilement automatisées, Rausis propose un plan d’action en trois étapes pour les décideurs et les régulateurs : supervision de l’IA, nouvelles normes d’audit et coordination mondiale.