Divulgation
Les points de vue et opinions exprimés ici appartiennent uniquement à l’auteur et ne reflètent pas ceux de l’édition de crypto.news.
Augmentation des incidents de vishing
Les incidents de vishing ont augmenté de 28 % au troisième trimestre 2025 par rapport à l’année précédente, marquant la plus forte accélération trimestrielle de la fraude vocale générée par l’IA ciblant le secteur de la cryptomonnaie. Cela fait suite à une augmentation de 2 137 % des attaques de vishing deepfake au cours des trois dernières années, avec un contenu deepfake projeté à atteindre 8 millions en 2025, soit une augmentation seizième fois par rapport à environ 500 000 en 2023.
Vulnérabilités des systèmes de détection
Les données révèlent que les méthodes de détection traditionnelles créent une fausse sécurité. Les détecteurs centralisés sont passés d’une précision de 86 % sur des ensembles de données contrôlés à seulement 69 % sur du contenu du monde réel, selon des études récentes. Cet écart de performance de 17 points représente une vulnérabilité existentielle pour une industrie construite sur des principes de vérification sans confiance.
« La montée du phishing au troisième trimestre expose un défaut architectural fondamental : les détecteurs conventionnels restent statiques tandis que l’IA générative évolue de manière dynamique. »
Risques pour les leaders d’opinion
Les leaders d’opinion clés dans l’espace de la cryptomonnaie, tels que Michael Saylor, Vitalik Buterin, CZ et d’autres, sont particulièrement à risque face à la tendance du vishing. Le préjudice va au-delà des pertes personnelles lorsque des escrocs imitent ces voix pour promouvoir de faux schémas d’investissement ou des tokens ; cela érode également la confiance systémique.
Responsabilité des plateformes et des créateurs
Ces leaders de l’industrie, ainsi que les plateformes, doivent reconnaître leur responsabilité envers leurs audiences et s’associer proactivement avec des entreprises de détection. Rendre les voix authentiques vérifiables et les imitations synthétiques immédiatement détectables devrait être considéré comme une protection de base pour le public.
Solutions proposées
Les KOLs de la crypto devraient activement plaider pour l’adoption de la détection et éduquer leurs abonnés sur les méthodes de vérification. Les médias sociaux, ainsi que les plateformes de crypto, doivent adopter des réseaux de détection décentralisés où des centaines de développeurs rivalisent pour créer des algorithmes de détection supérieurs.
Implications financières
Le coût annuel moyen des attaques deepfake par organisation dépasse désormais 14 millions de dollars, certaines institutions perdant des dizaines de millions lors d’incidents uniques. La fraude facilitée par des deepfakes a causé plus de 200 millions de dollars de pertes au premier trimestre 2025 seulement.
Conclusion
La montée du phishing au troisième trimestre 2025 représente plus que des statistiques de fraude trimestrielles. Elle marque le moment où l’insuffisance fondamentale de la détection centralisée est devenue indéniable, et la fenêtre pour mettre en œuvre des alternatives décentralisées a commencé à se fermer. Les plateformes de crypto doivent choisir entre faire évoluer leur architecture de sécurité ou regarder la confiance des utilisateurs s’éroder sous une avalanche de fraudes générées par l’IA.