Crypto Prices

I modelli di intelligenza artificiale all’avanguardia dimostrano capacità umane negli exploit dei contratti intelligenti

prima di 2 settimane
2 minuti letti
8 visualizzazioni

Introduzione

Gli agenti di intelligenza artificiale hanno eguagliato le prestazioni di attaccanti umani esperti in oltre la metà degli exploit di contratti intelligenti registrati su importanti blockchain negli ultimi cinque anni, secondo i nuovi dati rilasciati lunedì da Anthropic.

Risultati della Ricerca

L’azienda ha valutato dieci modelli all’avanguardia, tra cui Llama 3, Sonnet 3.7, Opus 4, GPT-5 e DeepSeek V3, su un dataset di 405 exploit storici di contratti intelligenti. Gli agenti hanno prodotto attacchi funzionanti contro 207 di essi, per un totale di 550 milioni di dollari in fondi simulati rubati.

I risultati evidenziano quanto rapidamente i sistemi automatizzati possano sfruttare le vulnerabilità e identificare nuove falle che gli sviluppatori non hanno affrontato. Questa nuova divulgazione è l’ultima da parte dello sviluppatore di Claude AI.

Attacchi Guidati dall’AI

Il mese scorso, Anthropic ha dettagliato come gli hacker cinesi abbiano utilizzato Claude Code per lanciare quello che è stato definito il primo attacco informatico guidato dall’AI. Gli esperti di sicurezza hanno affermato che i risultati confermano quanto siano già accessibili molte di queste vulnerabilità.

“L’AI è già utilizzata in strumenti ASPM come Wiz Code e Apiiro, e in scanner SAST e DAST standard,” ha dichiarato David Schwed, COO di SovereignAI, a Decrypt.

Schwed ha affermato che gli attacchi guidati dai modelli descritti nel rapporto sarebbero facili da scalare, poiché molte vulnerabilità sono già pubblicamente divulgate attraverso Common Vulnerabilities and Exposures o rapporti di audit, rendendole facilmente apprendibili dai sistemi AI e semplici da tentare contro contratti intelligenti esistenti.

Metodologia di Test

Per misurare le capacità attuali, Anthropic ha tracciato il totale delle entrate da exploit di ciascun modello rispetto alla sua data di rilascio, utilizzando solo i 34 contratti sfruttati dopo marzo 2025. “Sebbene il totale delle entrate da exploit sia una metrica imperfetta – poiché alcuni exploit anomali dominano il totale delle entrate – lo evidenziamo rispetto al tasso di successo degli attacchi, perché agli attaccanti interessa quanto denaro possono estrarre gli agenti AI, non il numero o la difficoltà dei bug che trovano,” ha scritto l’azienda.

Anthropic ha dichiarato di aver testato gli agenti su un dataset zero-day di 2.849 contratti estratti da oltre 9,4 milioni su Binance Smart Chain. L’azienda ha affermato che Claude Sonnet 4.5 e GPT-5 hanno scoperto ciascuno due difetti non divulgati, producendo 3.694 dollari di valore simulato.

Implicazioni e Raccomandazioni

Anthropic ha notato che tutti i test sono stati eseguiti in ambienti sandbox che replicavano blockchain e non reti reali. Il suo modello più potente, Claude Opus 4.5, ha sfruttato 17 delle vulnerabilità post-marzo 2025 e ha rappresentato 4,5 milioni di dollari del valore simulato totale.

Schwed ha affermato che i problemi evidenziati nell’esperimento erano “in realtà solo difetti di logica aziendale,” aggiungendo che i sistemi AI possono identificare queste debolezze quando ricevono struttura e contesto. “L’AI può anche scoprirli avendo una comprensione di come dovrebbe funzionare un contratto intelligente e con indicazioni dettagliate su come tentare di eludere i controlli logici nel processo,” ha detto.

Anthropic ha esortato gli sviluppatori ad adottare strumenti automatizzati nei loro flussi di lavoro di sicurezza affinché l’uso difensivo avanzi rapidamente quanto l’uso offensivo. Nonostante l’avvertimento di Anthropic, Schwed ha affermato che le prospettive non sono esclusivamente negative.

“Io mi oppongo sempre al catastrofismo e dico che con controlli adeguati, test interni rigorosi, insieme a monitoraggio in tempo reale e interruttori di circuito, la maggior parte di questi problemi sono evitabili,” ha detto.

“I buoni attori hanno lo stesso accesso agli stessi agenti. Quindi se gli attori cattivi possono trovarli, anche i buoni attori possono. Dobbiamo pensare e agire in modo diverso.”

Popolare