Crypto Prices

Sfruttamenti dei Contratti Intelligenti da Parte dell’AI: Esperti Avvertono di Perdite Annuali di $10–20 Miliardi nel Settore DeFi

prima di 1 settimana
2 minuti letti
4 visualizzazioni

Introduzione

Uno studio recente condotto da MATS e Anthropic Fellows ha confermato che gli agenti di Intelligenza Artificiale (AI) possono sfruttare in modo redditizio le vulnerabilità dei contratti intelligenti, stabilendo un “limite inferiore concreto” per il danno economico.

Rischi e Metodologia dello Studio

L’accelerazione della spinta ad automatizzare i compiti umani con agenti AI presenta un significativo svantaggio quantificabile: questi agenti possono sfruttare in modo proficuo le vulnerabilità dei contratti intelligenti. Lo studio ha utilizzato il benchmark Smart Contracts Exploitation (SCONE-bench) per misurare questo rischio.

I ricercatori hanno implementato con successo modelli come Claude Opus 4.5, Claude Sonnet 4.5 e GPT-5 per sviluppare exploit simulati del valore di $4,6 milioni. Il SCONE-bench è composto da 405 contratti intelligenti che sono stati effettivamente sfruttati tra il 2020 e il 2025.

Risultati e Scoperte

Nel loro rapporto di studio del 1° dicembre, il team ha dichiarato che il successo degli agenti AI nello sviluppo di exploit testati sul simulatore blockchain stabilisce “un limite inferiore concreto per il danno economico che queste capacità potrebbero abilitare.”

La ricerca ha anche testato Sonnet 4.5 e GPT-5 contro 2.849 contratti recentemente implementati, privi di vulnerabilità note. Gli agenti hanno dimostrato di poter generare exploit redditizi anche in questo nuovo ambiente: entrambi hanno scoperto due nuove vulnerabilità zero-day e prodotto exploit del valore di $3.694. GPT-5 ha raggiunto questo successo con un costo API di soli $3.476.

Efficienza e Costi

Questo risultato serve come prova di concetto per la fattibilità tecnica di sfruttamenti autonomi redditizi nel mondo reale, sottolineando l’immediata necessità di meccanismi di difesa proattivi guidati dall’AI. Forse la scoperta più allarmante è l’aumento drammatico dell’efficienza: un attaccante può ora ottenere circa 3,4 volte più exploit di successo per lo stesso budget computazionale rispetto a sei mesi fa.

Inoltre, i costi dei token per exploit di successo sono diminuiti di un incredibile 70%, rendendo questi potenti agenti significativamente più economici da gestire. Jean Rausis, co-fondatore di SMARDEX, attribuisce questo netto calo dei costi principalmente ai loop agentici, che consentono flussi di lavoro multi-step e auto-correttivi, riducendo gli sprechi di token durante l’analisi dei contratti.

Preoccupazioni Future

Rausis evidenzia anche il ruolo di un’architettura di modello migliorata: “Finestrature di contesto più ampie e strumenti di memoria in modelli come Claude Opus 4.5 e GPT-5 consentono simulazioni sostenute senza ripetizioni, aumentando l’efficienza del 15-100% in compiti lunghi.”

Sebbene lo studio stabilisca un costo simulato di $4,6 milioni, gli esperti temono che il costo economico reale potrebbe essere sostanzialmente più alto. Rausis stima che i rischi reali potrebbero essere 10-100 volte superiori, potenzialmente raggiungendo $50 milioni a $500 milioni o più per ogni exploit significativo.

Conclusioni e Raccomandazioni

Il documento di MATS e Anthropic Fellows si conclude con un avvertimento: mentre i contratti intelligenti potrebbero essere il bersaglio iniziale di questa ondata di attacchi automatizzati, il software proprietario è probabilmente il prossimo obiettivo man mano che gli agenti migliorano nella reverse engineering.

Crucialmente, il documento ricorda anche ai lettori che gli stessi agenti AI possono essere impiegati per la difesa, correggendo le vulnerabilità. Per mitigare la minaccia finanziaria sistemica derivante da attacchi DeFi facilmente automatizzati, Rausis propone un piano d’azione in tre fasi per i responsabili politici e i regolatori: supervisione dell’AI, nuovi standard di auditing e coordinamento globale.

Popolare