{"id":11820,"date":"2025-12-07T05:28:35","date_gmt":"2025-12-07T05:28:35","guid":{"rendered":"https:\/\/satoshibrother.com\/it\/sfruttamenti-dei-contratti-intelligenti-da-parte-dellai-esperti-avvertono-di-perdite-annuali-di-10-20-miliardi-nel-settore-defi\/"},"modified":"2025-12-07T05:28:35","modified_gmt":"2025-12-07T05:28:35","slug":"sfruttamenti-dei-contratti-intelligenti-da-parte-dellai-esperti-avvertono-di-perdite-annuali-di-10-20-miliardi-nel-settore-defi","status":"publish","type":"post","link":"https:\/\/satoshibrother.com\/it\/sfruttamenti-dei-contratti-intelligenti-da-parte-dellai-esperti-avvertono-di-perdite-annuali-di-10-20-miliardi-nel-settore-defi\/","title":{"rendered":"Sfruttamenti dei Contratti Intelligenti da Parte dell&#8217;AI: Esperti Avvertono di Perdite Annuali di $10\u201320 Miliardi nel Settore DeFi"},"content":{"rendered":"<h2>Introduzione<\/h2>\n<p>Uno studio recente condotto da <strong>MATS<\/strong> e <strong>Anthropic Fellows<\/strong> ha confermato che gli agenti di <strong>Intelligenza Artificiale (AI)<\/strong> possono sfruttare in modo redditizio le vulnerabilit\u00e0 dei contratti intelligenti, stabilendo un <strong>&#8220;limite inferiore concreto&#8221;<\/strong> per il danno economico.<\/p>\n<h2>Rischi e Metodologia dello Studio<\/h2>\n<p>L&#8217;accelerazione della spinta ad automatizzare i compiti umani con agenti AI presenta un significativo svantaggio quantificabile: questi agenti possono sfruttare in modo proficuo le vulnerabilit\u00e0 dei contratti intelligenti. Lo studio ha utilizzato il benchmark <strong>Smart Contracts Exploitation (SCONE-bench)<\/strong> per misurare questo rischio.<\/p>\n<p>I ricercatori hanno implementato con successo modelli come <strong>Claude Opus 4.5<\/strong>, <strong>Claude Sonnet 4.5<\/strong> e <strong>GPT-5<\/strong> per sviluppare exploit simulati del valore di <strong>$4,6 milioni<\/strong>. Il SCONE-bench \u00e8 composto da <strong>405 contratti intelligenti<\/strong> che sono stati effettivamente sfruttati tra il 2020 e il 2025.<\/p>\n<h2>Risultati e Scoperte<\/h2>\n<blockquote>\n<p>Nel loro rapporto di studio del 1\u00b0 dicembre, il team ha dichiarato che il successo degli agenti AI nello sviluppo di exploit testati sul simulatore blockchain stabilisce &#8220;un limite inferiore concreto per il danno economico che queste capacit\u00e0 potrebbero abilitare.&#8221;<\/p>\n<\/blockquote>\n<p>La ricerca ha anche testato Sonnet 4.5 e GPT-5 contro <strong>2.849 contratti recentemente implementati<\/strong>, privi di vulnerabilit\u00e0 note. Gli agenti hanno dimostrato di poter generare exploit redditizi anche in questo nuovo ambiente: entrambi hanno scoperto <strong>due nuove vulnerabilit\u00e0 zero-day<\/strong> e prodotto exploit del valore di <strong>$3.694<\/strong>. GPT-5 ha raggiunto questo successo con un costo API di soli <strong>$3.476<\/strong>.<\/p>\n<h2>Efficienza e Costi<\/h2>\n<p>Questo risultato serve come prova di concetto per la fattibilit\u00e0 tecnica di sfruttamenti autonomi redditizi nel mondo reale, sottolineando l&#8217;immediata necessit\u00e0 di meccanismi di difesa proattivi guidati dall&#8217;AI. Forse la scoperta pi\u00f9 allarmante \u00e8 l&#8217;<strong>aumento drammatico dell&#8217;efficienza<\/strong>: un attaccante pu\u00f2 ora ottenere circa <strong>3,4 volte pi\u00f9 exploit di successo<\/strong> per lo stesso budget computazionale rispetto a sei mesi fa.<\/p>\n<p>Inoltre, i costi dei token per exploit di successo sono diminuiti di un incredibile <strong>70%<\/strong>, rendendo questi potenti agenti significativamente pi\u00f9 economici da gestire. Jean Rausis, co-fondatore di SMARDEX, attribuisce questo netto calo dei costi principalmente ai <strong>loop agentici<\/strong>, che consentono flussi di lavoro multi-step e auto-correttivi, riducendo gli sprechi di token durante l&#8217;analisi dei contratti.<\/p>\n<h2>Preoccupazioni Future<\/h2>\n<blockquote>\n<p>Rausis evidenzia anche il ruolo di un&#8217;architettura di modello migliorata: &#8220;Finestrature di contesto pi\u00f9 ampie e strumenti di memoria in modelli come Claude Opus 4.5 e GPT-5 consentono simulazioni sostenute senza ripetizioni, aumentando l&#8217;efficienza del <strong>15-100%<\/strong> in compiti lunghi.&#8221;<\/p>\n<\/blockquote>\n<p>Sebbene lo studio stabilisca un costo simulato di <strong>$4,6 milioni<\/strong>, gli esperti temono che il costo economico reale potrebbe essere sostanzialmente pi\u00f9 alto. Rausis stima che i rischi reali potrebbero essere <strong>10-100 volte superiori<\/strong>, potenzialmente raggiungendo <strong>$50 milioni a $500 milioni<\/strong> o pi\u00f9 per ogni exploit significativo.<\/p>\n<h2>Conclusioni e Raccomandazioni<\/h2>\n<p>Il documento di MATS e Anthropic Fellows si conclude con un avvertimento: mentre i contratti intelligenti potrebbero essere il bersaglio iniziale di questa ondata di attacchi automatizzati, il software proprietario \u00e8 probabilmente il prossimo obiettivo man mano che gli agenti migliorano nella reverse engineering.<\/p>\n<p>Crucialmente, il documento ricorda anche ai lettori che gli stessi agenti AI possono essere impiegati per la difesa, correggendo le vulnerabilit\u00e0. Per mitigare la minaccia finanziaria sistemica derivante da attacchi DeFi facilmente automatizzati, Rausis propone un piano d&#8217;azione in tre fasi per i responsabili politici e i regolatori: <strong>supervisione dell&#8217;AI<\/strong>, <strong>nuovi standard di auditing<\/strong> e <strong>coordinamento globale<\/strong>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Introduzione Uno studio recente condotto da MATS e Anthropic Fellows ha confermato che gli agenti di Intelligenza Artificiale (AI) possono sfruttare in modo redditizio le vulnerabilit\u00e0 dei contratti intelligenti, stabilendo un &#8220;limite inferiore concreto&#8221; per il danno economico. Rischi e Metodologia dello Studio L&#8217;accelerazione della spinta ad automatizzare i compiti umani con agenti AI presenta un significativo svantaggio quantificabile: questi agenti possono sfruttare in modo proficuo le vulnerabilit\u00e0 dei contratti intelligenti. Lo studio ha utilizzato il benchmark Smart Contracts Exploitation (SCONE-bench) per misurare questo rischio. I ricercatori hanno implementato con successo modelli come Claude Opus 4.5, Claude Sonnet 4.5 e<\/p>\n","protected":false},"author":3,"featured_media":11819,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[64],"tags":[556,12,65],"class_list":["post-11820","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-hack","tag-ai","tag-defi","tag-hack"],"yoast_description":"Uno studio rivela che gli agenti AI possono sfruttare le vulnerabilit\u00e0 dei contratti intelligenti, rischiando perdite annuali di $10-20 miliardi nel settore DeFi, evidenziando l'urgenza di difese adeguate.","_links":{"self":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/posts\/11820","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/comments?post=11820"}],"version-history":[{"count":0,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/posts\/11820\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/media\/11819"}],"wp:attachment":[{"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/media?parent=11820"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/categories?post=11820"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/satoshibrother.com\/it\/wp-json\/wp\/v2\/tags?post=11820"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}