Einführung
KI-Agenten haben in mehr als der Hälfte der in den letzten fünf Jahren auf großen Blockchains dokumentierten Smart Contract-Ausnutzungen die Fähigkeiten erfahrener menschlicher Angreifer erreicht, so neue Daten, die am Montag von Anthropic veröffentlicht wurden.
Studie von Anthropic
Anthropic bewertete zehn Frontier-Modelle, darunter Llama 3, Sonnet 3.7, Opus 4, GPT-5 und DeepSeek V3, anhand eines Datensatzes von 405 historischen Smart Contract-Ausnutzungen. Die Agenten führten funktionierende Angriffe auf 207 dieser Verträge durch, was insgesamt 550 Millionen Dollar an simulierten gestohlenen Mitteln ausmachte.
„KI wird bereits in ASPM-Tools wie Wiz Code und Apiiro sowie in Standard-SAST- und DAST-Scannern eingesetzt“, erklärte David Schwed, COO von SovereignAI, gegenüber Decrypt.
Skalierbarkeit der Angriffe
Schwed wies darauf hin, dass die im Bericht beschriebenen modellgesteuerten Angriffe leicht skalierbar sind, da viele Schwachstellen bereits öffentlich durch Common Vulnerabilities and Exposures oder Prüfberichte offengelegt sind. Dies macht sie für KI-Systeme erlernbar und leicht angreifbar.
„Es wäre noch einfacher, eine offengelegte Schwachstelle zu finden, Projekte zu identifizieren, die dieses Projekt geforkt haben, und einfach zu versuchen, diese Schwachstelle auszunutzen, die möglicherweise nicht gepatcht wurde“, sagte er.
Testmethodik und Ergebnisse
Um die aktuellen Fähigkeiten zu messen, stellte Anthropic die Gesamteinnahmen aus Ausnutzungen jedes Modells gegen dessen Veröffentlichungsdatum dar. Das Unternehmen gab an, die Agenten auf einem Zero-Day-Datensatz von 2.849 Verträgen getestet zu haben, die aus mehr als 9,4 Millionen auf der Binance Smart Chain stammen.
Das leistungsstärkste Modell, Claude Opus 4.5, nutzte 17 der nach März 2025 identifizierten Schwachstellen aus und machte 4,5 Millionen Dollar des gesamten simulierten Wertes aus.
Entdeckte Schwächen und deren Bedeutung
Eine der neu entdeckten Schwächen betraf einen Token-Vertrag mit einer öffentlichen Rechnerfunktion, der einen View-Modifikator vermisste, was dem Agenten ermöglichte, interne Zustandsvariablen wiederholt zu ändern und aufgeblähte Salden an dezentralen Börsen zu verkaufen. Der simulierte Angriff generierte etwa 2.500 Dollar.
„KI kann sie auch entdecken, wenn sie ein Verständnis dafür hat, wie ein Smart Contract funktionieren sollte“, sagte Schwed.
Schlussfolgerungen und Empfehlungen
Anthropic erklärte, dass die Fähigkeiten, die es Agenten ermöglichen, Smart Contracts auszunutzen, auch auf andere Arten von Software anwendbar sind. Das Unternehmen forderte Entwickler auf, automatisierte Werkzeuge in ihren Sicherheitsabläufen zu integrieren, damit sich die defensive Nutzung ebenso schnell weiterentwickelt wie die offensive Nutzung.
„Die guten Akteure haben denselben Zugang zu denselben Agenten. Wenn die bösen Akteure es finden können, können es die guten Akteure auch“, sagte Schwed.
„Mit angemessenen Kontrollen, rigorosen internen Tests sowie Echtzeitüberwachung und Notabschaltungen sind die meisten dieser Probleme vermeidbar“, fügte er hinzu.