{"id":11600,"date":"2025-12-02T02:52:11","date_gmt":"2025-12-02T02:52:11","guid":{"rendered":"https:\/\/satoshibrother.com\/it\/i-modelli-di-intelligenza-artificiale-allavanguardia-dimostrano-capacita-umane-negli-exploit-dei-contratti-intelligenti\/"},"modified":"2025-12-02T02:52:11","modified_gmt":"2025-12-02T02:52:11","slug":"i-modelli-di-intelligenza-artificiale-allavanguardia-dimostrano-capacita-umane-negli-exploit-dei-contratti-intelligenti","status":"publish","type":"post","link":"https:\/\/satoshibrother.com\/it\/i-modelli-di-intelligenza-artificiale-allavanguardia-dimostrano-capacita-umane-negli-exploit-dei-contratti-intelligenti\/","title":{"rendered":"I modelli di intelligenza artificiale all&#8217;avanguardia dimostrano capacit\u00e0 umane negli exploit dei contratti intelligenti"},"content":{"rendered":"<h2>Introduzione<\/h2>\n<p>Gli agenti di <strong>intelligenza artificiale<\/strong> hanno eguagliato le prestazioni di attaccanti umani esperti in oltre la met\u00e0 degli exploit di contratti intelligenti registrati su importanti blockchain negli ultimi cinque anni, secondo i nuovi dati rilasciati luned\u00ec da <strong>Anthropic<\/strong>.<\/p>\n<h2>Risultati della Ricerca<\/h2>\n<p>L&#8217;azienda ha valutato dieci modelli all&#8217;avanguardia, tra cui <em>Llama 3<\/em>, <em>Sonnet 3.7<\/em>, <em>Opus 4<\/em>, <em>GPT-5<\/em> e <em>DeepSeek V3<\/em>, su un dataset di 405 exploit storici di contratti intelligenti. Gli agenti hanno prodotto attacchi funzionanti contro 207 di essi, per un totale di <strong>550 milioni di dollari<\/strong> in fondi simulati rubati.<\/p>\n<p>I risultati evidenziano quanto rapidamente i sistemi automatizzati possano sfruttare le vulnerabilit\u00e0 e identificare nuove falle che gli sviluppatori non hanno affrontato. Questa nuova divulgazione \u00e8 l&#8217;ultima da parte dello sviluppatore di <em>Claude AI<\/em>.<\/p>\n<h2>Attacchi Guidati dall&#8217;AI<\/h2>\n<p>Il mese scorso, Anthropic ha dettagliato come gli hacker cinesi abbiano utilizzato <em>Claude Code<\/em> per lanciare quello che \u00e8 stato definito il primo attacco informatico guidato dall&#8217;AI. Gli esperti di sicurezza hanno affermato che i risultati confermano quanto siano gi\u00e0 accessibili molte di queste vulnerabilit\u00e0.<\/p>\n<blockquote>\n<p>&#8220;L&#8217;AI \u00e8 gi\u00e0 utilizzata in strumenti ASPM come Wiz Code e Apiiro, e in scanner SAST e DAST standard,&#8221; ha dichiarato <strong>David Schwed<\/strong>, COO di SovereignAI, a Decrypt.<\/p>\n<\/blockquote>\n<p>Schwed ha affermato che gli attacchi guidati dai modelli descritti nel rapporto sarebbero facili da scalare, poich\u00e9 molte vulnerabilit\u00e0 sono gi\u00e0 pubblicamente divulgate attraverso <em>Common Vulnerabilities and Exposures<\/em> o rapporti di audit, rendendole facilmente apprendibili dai sistemi AI e semplici da tentare contro contratti intelligenti esistenti.<\/p>\n<h2>Metodologia di Test<\/h2>\n<p>Per misurare le capacit\u00e0 attuali, Anthropic ha tracciato il totale delle entrate da exploit di ciascun modello rispetto alla sua data di rilascio, utilizzando solo i 34 contratti sfruttati dopo marzo 2025. &#8220;Sebbene il totale delle entrate da exploit sia una metrica imperfetta &#8211; poich\u00e9 alcuni exploit anomali dominano il totale delle entrate &#8211; lo evidenziamo rispetto al tasso di successo degli attacchi, perch\u00e9 agli attaccanti interessa quanto denaro possono estrarre gli agenti AI, non il numero o la difficolt\u00e0 dei bug che trovano,&#8221; ha scritto l&#8217;azienda.<\/p>\n<p>Anthropic ha dichiarato di aver testato gli agenti su un dataset zero-day di 2.849 contratti estratti da oltre 9,4 milioni su <em>Binance Smart Chain<\/em>. L&#8217;azienda ha affermato che <em>Claude Sonnet 4.5<\/em> e <em>GPT-5<\/em> hanno scoperto ciascuno due difetti non divulgati, producendo <strong>3.694 dollari<\/strong> di valore simulato.<\/p>\n<h2>Implicazioni e Raccomandazioni<\/h2>\n<p>Anthropic ha notato che tutti i test sono stati eseguiti in ambienti sandbox che replicavano blockchain e non reti reali. Il suo modello pi\u00f9 potente, <em>Claude Opus 4.5<\/em>, ha sfruttato 17 delle vulnerabilit\u00e0 post-marzo 2025 e ha rappresentato <strong>4,5 milioni di dollari<\/strong> del valore simulato totale.<\/p>\n<p>Schwed ha affermato che i problemi evidenziati nell&#8217;esperimento erano &#8220;in realt\u00e0 solo difetti di logica aziendale,&#8221; aggiungendo che i sistemi AI possono identificare queste debolezze quando ricevono struttura e contesto. &#8220;L&#8217;AI pu\u00f2 anche scoprirli avendo una comprensione di come dovrebbe funzionare un contratto intelligente e con indicazioni dettagliate su come tentare di eludere i controlli logici nel processo,&#8221; ha detto.<\/p>\n<p>Anthropic ha esortato gli sviluppatori ad adottare strumenti automatizzati nei loro flussi di lavoro di sicurezza affinch\u00e9 l&#8217;uso difensivo avanzi rapidamente quanto l&#8217;uso offensivo. Nonostante l&#8217;avvertimento di Anthropic, Schwed ha affermato che le prospettive non sono esclusivamente negative.<\/p>\n<blockquote>\n<p>&#8220;Io mi oppongo sempre al catastrofismo e dico che con controlli adeguati, test interni rigorosi, insieme a monitoraggio in tempo reale e interruttori di circuito, la maggior parte di questi problemi sono evitabili,&#8221; ha detto.<\/p>\n<\/blockquote>\n<p>&#8220;I buoni attori hanno lo stesso accesso agli stessi agenti. Quindi se gli attori cattivi possono trovarli, anche i buoni attori possono. Dobbiamo pensare e agire in modo diverso.&#8221;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Introduzione Gli agenti di intelligenza artificiale hanno eguagliato le prestazioni di attaccanti umani esperti in oltre la met\u00e0 degli exploit di contratti intelligenti registrati su importanti blockchain negli ultimi cinque anni, secondo i nuovi dati rilasciati luned\u00ec da Anthropic. Risultati della Ricerca L&#8217;azienda ha valutato dieci modelli all&#8217;avanguardia, tra cui Llama 3, Sonnet 3.7, Opus 4, GPT-5 e DeepSeek V3, su un dataset di 405 exploit storici di contratti intelligenti. Gli agenti hanno prodotto attacchi funzionanti contro 207 di essi, per un totale di 550 milioni di dollari in fondi simulati rubati. I risultati evidenziano quanto rapidamente i sistemi automatizzati<\/p>\n","protected":false},"author":3,"featured_media":11599,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[64],"tags":[344,5218,65],"class_list":["post-11600","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-hack","tag-bnb-chain","tag-chinese","tag-hack"],"yoast_description":"I modelli di intelligenza artificiale mostrano abilit\u00e0 simili a quelle umane negli exploit dei contratti intelligenti, identificando con successo vulnerabilit\u00e0 in oltre la met\u00e0 dei principali attacchi blockchain, per un totale di 550 milioni di dollari.","_links":{"self":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/posts\/11600","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/comments?post=11600"}],"version-history":[{"count":0,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/posts\/11600\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/media\/11599"}],"wp:attachment":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/media?parent=11600"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/categories?post=11600"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/tags?post=11600"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}