Crypto Prices

Les modèles d’IA de pointe démontrent des capacités humaines dans les exploits de contrats intelligents

il y a 2 semaines
2 mins read
7 vues

Performance des agents d’IA dans les exploits de contrats intelligents

Des agents d’IA ont égalé la performance d’attaquants humains qualifiés dans plus de la moitié des exploits de contrats intelligents enregistrés sur les principales blockchains au cours des cinq dernières années, selon de nouvelles données publiées lundi par Anthropic. Cette entreprise a évalué dix modèles de pointe, dont Llama 3, Sonnet 3.7, Opus 4, GPT-5 et DeepSeek V3, sur un ensemble de données comprenant 405 exploits historiques de contrats intelligents. Les agents ont réussi à produire des attaques fonctionnelles contre 207 d’entre eux, totalisant 550 millions de dollars en fonds simulés volés.

Vulnérabilités et utilisation de l’IA

Les résultats mettent en lumière la rapidité avec laquelle les systèmes automatisés peuvent exploiter des vulnérabilités et identifier de nouvelles failles que les développeurs n’ont pas encore corrigées. Cette divulgation est la dernière en date de la part du développeur de Claude AI. Le mois dernier, Anthropic avait détaillé comment des hackers chinois avaient utilisé Claude Code pour lancer ce qu’ils ont qualifié de première cyberattaque pilotée par l’IA.

« L’IA est déjà utilisée dans des outils ASPM comme Wiz Code et Apiiro, ainsi que dans des scanners SAST et DAST standard, » a déclaré David Schwed, COO de SovereignAI, à Decrypt.

Schwed a ajouté que les attaques basées sur des modèles, décrites dans le rapport, seraient faciles à mettre à l’échelle, car de nombreuses vulnérabilités sont déjà publiquement divulguées via les Common Vulnerabilities and Exposures ou les rapports d’audit, ce qui les rend apprenables par les systèmes d’IA et faciles à exploiter contre des contrats intelligents existants.

Mesure des capacités des agents d’IA

Pour mesurer les capacités actuelles, Anthropic a tracé le revenu total des exploits de chaque modèle par rapport à sa date de sortie, en utilisant uniquement les 34 contrats exploités après mars 2025. « Bien que le revenu total des exploits soit une métrique imparfaite – puisque quelques exploits extrêmes dominent le revenu total – nous le mettons en avant par rapport au taux de réussite des attaques, car les attaquants se soucient de combien d’argent les agents d’IA peuvent extraire, pas du nombre ou de la difficulté des bugs qu’ils trouvent, » a écrit la société.

Anthropic a noté que tous les tests avaient été réalisés dans des environnements isolés reproduisant des blockchains et non des réseaux réels. Son modèle le plus puissant, Claude Opus 4.5, a exploité 17 des vulnérabilités post-mars 2025, représentant 4,5 millions de dollars de la valeur simulée totale.

Réflexions sur la sécurité et l’avenir

Schwed a déclaré que les problèmes mis en évidence dans l’expérience étaient « réellement juste des défauts de logique commerciale, » ajoutant que les systèmes d’IA peuvent identifier ces faiblesses lorsqu’ils sont dotés de structure et de contexte. « L’IA peut également les découvrir en comprenant comment un contrat intelligent devrait fonctionner et avec des instructions détaillées sur la façon d’essayer de contourner les vérifications de logique dans le processus, » a-t-il précisé.

Anthropic a exhorté les développeurs à adopter des outils automatisés dans leurs flux de travail de sécurité afin que l’utilisation défensive progresse aussi rapidement que l’utilisation offensive. Malgré l’avertissement d’Anthropic, Schwed a affirmé que les perspectives ne sont pas uniquement négatives.

« Je repousse toujours le catastrophisme et dis qu’avec des contrôles appropriés, des tests internes rigoureux, ainsi qu’une surveillance en temps réel et des coupe-circuits, la plupart de ces problèmes sont évitables, » a-t-il déclaré.

« Les bons acteurs ont le même accès aux mêmes agents. Donc, si les acteurs malveillants peuvent le trouver, les bons acteurs le peuvent aussi. Nous devons penser et agir différemment. »