Impacto de la Industria Blockchain en 2025
En la primera mitad de 2025, la industria blockchain sufrió pérdidas superiores a los $2.37 mil millones debido a incidentes de seguridad, siendo el sector DeFi el más afectado. Las estafas dirigidas a usuarios individuales también han proliferado, con la inteligencia artificial (IA) permitiendo la creación de esquemas cada vez más sofisticados.
Estadísticas de Pérdidas y Ataques
Según el «Informe de Seguridad Blockchain y AML» de SlowMist, la industria blockchain registró aproximadamente $2.37 mil millones en pérdidas a través de 121 incidentes de seguridad en este período. Esto representa un aumento de casi el 66% en las pérdidas financieras en comparación con el mismo período de 2024, a pesar de una disminución en el número de incidentes.
DeFi sigue siendo el sector más atacado, representando el 76.03% de todos los incidentes y aproximadamente $470 millones en pérdidas. Sin embargo, las plataformas de intercambio centralizado (CEX) experimentaron pérdidas de $1.883 mil millones en solo 11 incidentes, lo que indica que los atacantes están apuntando a objetivos de alto valor.
Causas de los Incidentes de Seguridad
Los compromisos de cuentas fueron la principal causa de incidentes de seguridad, seguidos por vulnerabilidades en contratos inteligentes. Más allá de los ataques directos a proyectos, el informe de SlowMist destacó varias tácticas de fraude dirigidas a usuarios individuales que han caracterizado la primera mitad de 2025.
Estafas y Fraudes Dirigidos a Usuarios
Los atacantes están explotando nuevas características del mecanismo de delegación de contratos EIP-7702, introducido con la actualización Pectra de Ethereum. El 24 de mayo, un usuario perdió $146,551 tras ser víctima de un ataque de phishing que abusó de la función de delegación EIP-7702 de MetaMask. La estafa, llevada a cabo por el grupo Inferno Drainer, engañó al usuario para que autorizara un contrato que parecía legítimo, el cual luego explotó aprobaciones masivas de tokens para drenar fondos.
El rápido avance de la IA generativa ha dado paso a una nueva ola de «estafas basadas en la confianza». A principios de 2025, una reunión falsa de Zoom utilizando deepfakes llevó al robo de todos los activos criptográficos de Mehdi Farooq, un socio de Hypersphere Ventures, después de que los atacantes se hicieran pasar por contactos conocidos y lo engañaran para que descargara malware.
Casos de Alto Perfil y Técnicas de Ingeniería Social
Otros casos de alto perfil incluyen videos generados por IA de Elon Musk y funcionarios de Singapur promoviendo esquemas de inversión falsos. Estas estafas engañan a los usuarios para que ejecuten código malicioso desde su portapapeles. Las víctimas fueron atraídas a través de cuentas falsas en X que se hacían pasar por influenciadores de criptomonedas, y luego redirigidas a grupos de Telegram donde los enlaces de «Toca para verificar» activaban comandos de PowerShell con troyanos.
Estos ataques llevaron a un compromiso total del dispositivo, permitiendo que herramientas de acceso remoto robaran archivos de billetera, claves privadas e incluso controlaran cuentas de Telegram en sistemas Windows y macOS.
Extensiones Maliciosas y Phishing en LinkedIn
Disfrazadas como «herramientas de seguridad Web3» o explotando mecanismos de actualización automática, estas extensiones falsas secuestran enlaces de descarga para instalar software malicioso y robar frases mnemotécnicas, claves privadas o credenciales de inicio de sesión. Un caso de alto perfil involucró la extensión «Osiris», donde los atacantes secuestraron la cuenta de un desarrollador legítimo en la Chrome Web Store a través de una explotación de OAuth basada en phishing, empujando una actualización maliciosa sigilosa a más de 2.6 millones de usuarios.
En 2025, el phishing basado en LinkedIn aumentó a medida que los atacantes se hacían pasar por startups de blockchain para atraer a ingenieros a descargar malware disfrazado de pruebas técnicas. Los estafadores compartieron resúmenes de proyectos y documentos de diseño que parecían profesionales, enviando eventualmente a las víctimas a repositorios que contenían cargas maliciosas fuertemente encriptadas.
Consecuencias y Riesgos para Desarrolladores
Los desarrolladores que buscan «acceso ilimitado a modelos avanzados de IA» a través de canales no oficiales corren el riesgo de instalar paquetes npm maliciosos que alteran profundamente las aplicaciones locales. SlowMist destacó un caso en el que una startup perdió cientos de miles debido a código malicioso generado por tal herramienta, que instaló puertas traseras a través de paquetes npm. Más de 4,200 desarrolladores, en su mayoría en macOS, se vieron afectados, permitiendo a los atacantes el control remoto y el robo de credenciales.
Modelos de Lenguaje y Campañas de Ingeniería Social
El informe de SlowMist destaca varios modelos de lenguaje que han sido «jailbreakeados» para eludir las restricciones éticas de sus versiones originales. WormGPT se especializa en generar contenido relacionado con malware y correos electrónicos de phishing, mientras que FraudGPT puede producir materiales de proyectos de criptomonedas falsos y clonar páginas de phishing. DarkBERT, entrenado con datos de la dark web, permite campañas de ingeniería social altamente dirigidas. GhostGPT puede crear estafas de deepfake haciéndose pasar por ejecutivos de intercambios, entre otros usos maliciosos.