Estudio sobre la Explotación de Contratos Inteligentes por Agentes de IA
Un estudio reciente de MATS y Anthropic Fellows confirma que los agentes de inteligencia artificial (IA) pueden explotar de manera rentable las vulnerabilidades de los contratos inteligentes, estableciendo un «límite inferior concreto» para el daño económico. El impulso acelerado para automatizar tareas humanas con agentes de IA ahora enfrenta un inconveniente significativo y cuantificable: estos agentes pueden aprovechar las vulnerabilidades de los contratos inteligentes de forma rentable.
Metodología del Estudio
El estudio utilizó el benchmark de Explotación de Contratos Inteligentes (SCONE-bench) para medir este riesgo. Se implementaron con éxito modelos como Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 para desarrollar explotaciones simuladas que se valoraron en 4.6 millones de dólares. El SCONE-bench está compuesto por 405 contratos inteligentes que fueron realmente explotados entre 2020 y 2025. En su informe del 1 de diciembre, el equipo declaró que el éxito de los agentes de IA en el desarrollo de explotaciones probadas en el simulador de blockchain establece «un límite inferior concreto para el daño económico que estas capacidades podrían permitir».
Resultados del Estudio
La investigación fue más allá al probar Sonnet 4.5 y GPT-5 contra 2,849 contratos recientemente desplegados sin vulnerabilidades conocidas. Los agentes demostraron que podían generar explotaciones rentables incluso en este nuevo entorno: ambos agentes descubrieron dos nuevas vulnerabilidades de día cero y produjeron explotaciones valoradas en 3,694 dólares. GPT-5 logró este éxito con un costo de API de solo 3,476 dólares.
Este resultado sirve como prueba de concepto para la viabilidad técnica de la explotación autónoma rentable en el mundo real, subrayando la necesidad inmediata de mecanismos de defensa proactivos impulsados por IA. Quizás el hallazgo más alarmante es el dramático aumento en la eficiencia: un atacante ahora puede lograr aproximadamente 3.4 veces más explotaciones exitosas con el mismo presupuesto de computación que hace seis meses. Además, los costos de tokens para explotaciones exitosas han disminuido en un asombroso 70%, haciendo que estos poderosos agentes sean significativamente más baratos de operar.
Factores que Contribuyen a la Eficiencia
Jean Rausis, cofundador de SMARDEX, atribuye esta drástica disminución de costos principalmente a los bucles de agentes. Estos bucles permiten flujos de trabajo de múltiples pasos y autocorrección que reducen el desperdicio de tokens durante el análisis de contratos. Rausis también destaca el papel de la arquitectura de modelo mejorada:
«Ventanas de contexto más grandes y herramientas de memoria en modelos como Claude Opus 4.5 y GPT-5 permiten simulaciones sostenidas sin repetición, aumentando la eficiencia entre un 15% y un 100% en tareas largas».
Él señala que estas ganancias de optimización superan las mejoras en la detección de vulnerabilidades (que solo aumentaron el éxito en SCONE-bench del 2% al 51%), ya que se enfocan en optimizar el tiempo de ejecución en lugar de solo detectar fallas.
Implicaciones Económicas y Futuras
Si bien el estudio establece un costo simulado de 4.6 millones de dólares, los expertos temen que el costo económico real podría ser sustancialmente mayor. Rausis estima que los riesgos reales podrían ser de 10 a 100 veces más altos, alcanzando potencialmente entre 50 millones y 500 millones de dólares o más por explotación significativa. Advierte que, con la escalabilidad de la IA, la exposición total en todo el sector—teniendo en cuenta el apalancamiento no modelado y las fallas de oráculos—podría alcanzar entre 10 y 20 mil millones de dólares anuales.
El documento de MATS y Anthropic Fellows concluye con una advertencia: aunque los contratos inteligentes pueden ser el objetivo inicial de esta ola de ataques automatizados, el software propietario es probablemente el siguiente objetivo a medida que los agentes mejoran en la ingeniería inversa. Crucialmente, el documento también recuerda a los lectores que los mismos agentes de IA pueden ser desplegados para la defensa y para parchear vulnerabilidades. Para mitigar la amenaza financiera sistémica de los ataques DeFi fácilmente automatizados, Rausis propone un plan de acción de tres pasos para los responsables de políticas y reguladores: supervisión de IA, nuevos estándares de auditoría y coordinación global.