Einführung
Eine aktuelle Studie von MATS und Anthropic Fellows bestätigt, dass KI-Agenten profitabel Schwachstellen in Smart Contracts ausnutzen können, was eine „konkrete Untergrenze“ für den wirtschaftlichen Schaden festlegt. Der beschleunigte Vorstoß, menschliche Aufgaben mit Künstlicher Intelligenz (KI) zu automatisieren, bringt einen signifikanten, quantifizierbaren Nachteil mit sich: Diese Agenten sind in der Lage, profitabel Schwachstellen in Smart Contracts auszunutzen.
Studienergebnisse
Eine kürzlich durchgeführte Forschungsstudie von MATS und Anthropic Fellows verwendete den Smart Contracts Exploitation Benchmark (SCONE-bench), um dieses Risiko zu messen. Die Studie setzte erfolgreich Modelle wie Claude Opus 4.5, Claude Sonnet 4.5 und GPT-5 ein, um Ausnutzungen zu entwickeln, die einen simulierten Wert von 4,6 Millionen Dollar hatten. Der SCONE-bench besteht aus 405 Smart Contracts, die tatsächlich zwischen 2020 und 2025 ausgenutzt wurden. In ihrem Bericht vom 1. Dezember erklärte das Team, dass der Erfolg der KI-Agenten bei der Entwicklung von Ausnutzungen, die auf dem Blockchain-Simulator getestet wurden, „eine konkrete Untergrenze für den wirtschaftlichen Schaden darstellt, den diese Fähigkeiten ermöglichen könnten.“
Die Forschung ging weiter, indem Sonnet 4.5 und GPT-5 gegen 2.849 kürzlich bereitgestellte Verträge ohne bekannte Schwachstellen getestet wurden. Die Agenten bewiesen, dass sie auch in dieser neuen Umgebung profitable Ausnutzungen generieren konnten: Beide Agenten entdeckten zwei neuartige Zero-Day-Schwachstellen und produzierten Ausnutzungen im Wert von 3.694 Dollar. GPT-5 erzielte diesen Erfolg mit Kosten für die API von nur 3.476 Dollar.
Implikationen und Warnungen
Dieses Ergebnis dient als Machbarkeitsnachweis für die technische Umsetzbarkeit profitabler, autonomer Ausnutzungen in der realen Welt und unterstreicht den unmittelbaren Bedarf an proaktiven, KI-gesteuerten Verteidigungsmechanismen. Vielleicht ist die alarmierendste Erkenntnis der dramatische Anstieg der Effizienz: Ein Angreifer kann jetzt etwa 3,4-mal mehr erfolgreiche Ausnutzungen für dasselbe Rechenbudget erzielen als noch vor sechs Monaten. Darüber hinaus sind die Token-Kosten für erfolgreiche Ausnutzungen um erstaunliche 70 % gesunken, was diese leistungsstarken Agenten erheblich günstiger macht.
Jean Rausis, Mitbegründer von SMARDEX, führt diesen drastischen Kostenrückgang hauptsächlich auf agentische Schleifen zurück. Diese Schleifen ermöglichen mehrstufige, selbstkorrektive Arbeitsabläufe, die den Token-Abfall während der Vertragsanalyse reduzieren.
Rausis hebt auch die Rolle verbesserter Modellarchitekturen hervor: „Größere Kontextfenster und Gedächtniswerkzeuge in Modellen wie Claude Opus 4.5 und GPT-5 ermöglichen nachhaltige Simulationen ohne Wiederholungen, was die Effizienz bei langen Aufgaben um 15 bis 100 % steigert.“
Er weist darauf hin, dass diese Optimierungsgewinne die Verbesserungen bei der reinen Schwachstellenerkennung übertreffen (die den Erfolg auf dem SCONE-bench nur von 2 % auf 51 % erhöhten), da sie sich auf die Optimierung der Laufzeit konzentrieren, anstatt nur Fehler zu erkennen. Während die Studie eine simulierte Kosten von 4,6 Millionen Dollar festlegt, befürchten Experten, dass die tatsächlichen wirtschaftlichen Kosten erheblich höher sein könnten. Rausis schätzt, dass die realen Risiken 10 bis 100 Mal höher sein könnten, was potenziell 50 Millionen bis 500 Millionen Dollar oder mehr pro schwerwiegender Ausnutzung erreichen könnte.
Er warnt, dass mit der Skalierung von KI die gesamte sektorspezifische Exposition – unter Berücksichtigung nicht modellierter Hebel und Oracle-Fehler – jährlich 10 bis 20 Milliarden Dollar erreichen könnte. Das Papier von MATS und Anthropic Fellows schließt mit einer Warnung: Während Smart Contracts das anfängliche Ziel dieser Welle automatisierter Angriffe sein mögen, ist proprietäre Software wahrscheinlich das nächste Ziel, da die Agenten im Reverse Engineering besser werden.
Entscheidend ist, dass das Papier die Leser auch daran erinnert, dass dieselben KI-Agenten zur Verteidigung eingesetzt werden können, um Schwachstellen zu beheben. Um die systemische finanzielle Bedrohung durch leicht automatisierbare DeFi-Angriffe zu mindern, schlägt Rausis einen dreistufigen Aktionsplan für politische Entscheidungsträger und Regulierungsbehörden vor: KI-Überwachung, neue Prüfstandards und globale Koordination.