Crypto Prices

Vulnerabilità nei Router AI Espongono i Portafogli Crypto al Furto

prima di 9 ore
2 minuti letti
2 visualizzazioni

Rischi di Sicurezza nei Router e nell’Ecosistema dell’IA

Uno studio ha rivelato che alcuni router iniettano codice malevolo, estraggono credenziali come chiavi private e token cloud, e accedono a dati in chiaro terminando le connessioni TLS tra gli utenti e fornitori come OpenAI, Anthropic e Google. I test hanno evidenziato casi di accesso non autorizzato alle credenziali e almeno un’istanza di Ether drenato da un portafoglio di prova utilizzando una chiave compromessa.

Scoperte dei Ricercatori

I ricercatori dell’Università della California hanno scoperto un rischio di sicurezza critico nell’ecosistema dell’intelligenza artificiale, avvertendo che alcuni router di modelli linguistici di grandi dimensioni (LLM) di terze parti potrebbero esporre gli utenti a vulnerabilità gravi, incluso il furto di criptovalute. Le loro scoperte mettono in luce una crescente preoccupazione riguardo ai rischi nascosti nella catena di approvvigionamento dell’IA, specialmente mentre gli sviluppatori si affidano a servizi intermedi per connettersi ai principali fornitori di IA.

“Un gran numero di questi router stava silenziosamente partecipando al furto di credenziali senza che gli utenti ne fossero a conoscenza.” – Chaofan Shou

Meccanismi di Attacco

Lo studio ha esaminato attacchi intermedi malevoli e ha identificato molteplici vettori di attacco che potrebbero compromettere informazioni sensibili. Tra le scoperte più allarmanti c’era che alcuni router stavano attivamente iniettando chiamate a strumenti malevoli nei flussi di lavoro dell’IA, mentre altri erano in grado di estrarre credenziali come chiavi private e token di accesso cloud.

Agendo come intermediari tra gli utenti e i principali fornitori di IA, questi router terminano le connessioni di Sicurezza del Trasporto (TLS). Questo processo consente loro di accedere a tutti i dati trasmessi in chiaro, ponendoli effettivamente in una posizione di completa visibilità su interazioni sensibili.

Implicazioni per gli Sviluppatori

Per gli sviluppatori che lavorano con agenti di codifica IA, specialmente in aree come contratti intelligenti o portafogli crypto, questo crea uno scenario pericoloso in cui chiavi private, frasi seed e credenziali potrebbero essere esposte involontariamente. I ricercatori hanno valutato dozzine di router a pagamento e centinaia di router gratuiti provenienti da comunità pubbliche, trovando risultati sorprendenti.

In un caso, un router ha utilizzato con successo una chiave privata compromessa per drenare Ether da un portafoglio di prova. Sebbene la perdita finanziaria nell’esperimento controllato fosse minima, le implicazioni per le applicazioni nel mondo reale sono piuttosto gravi.

Rischi Futuri e Raccomandazioni

Lo studio ha anche rivelato che anche i router che sembrano sicuri possono diventare pericolosi nel tempo. Attraverso quello che i ricercatori hanno descritto come “avvelenamento”, sistemi precedentemente benigni possono riutilizzare credenziali trapelate, amplificando la minaccia attraverso la rete.

A rendere le cose ancora più difficili è la difficoltà nel rilevare comportamenti malevoli, poiché ci si aspetta che i router gestiscano dati sensibili come parte della loro funzione normale, rendendo il confine tra elaborazione legittima e furto quasi invisibile.

Un altro fattore di rischio è l’aumento delle funzionalità di automazione come la “modalità YOLO”, in cui gli agenti IA eseguono comandi senza conferma dell’utente. In tali ambienti, istruzioni malevole possono essere eseguite istantaneamente, aumentando la probabilità di sfruttamento.

I ricercatori avvertono che alcuni router potrebbero essere silenziosamente compromessi senza che gli operatori se ne rendano conto, mentre i servizi gratuiti potrebbero deliberatamente attirare gli utenti con accesso a basso costo mentre raccolgono dati preziosi. Le scoperte dimostrano chiaramente che c’è un urgente bisogno di salvaguardie più forti. Si consiglia agli sviluppatori di evitare di trasmettere informazioni sensibili attraverso sistemi IA e di implementare protezioni più rigorose lato client.