Escroqueries dans le secteur de la cryptomonnaie
Les escroqueries représentent la majorité des activités illicites dans le secteur de la cryptomonnaie. Selon des données du Federal Bureau of Investigation (FBI), les citoyens américains ont perdu 9,3 milliards de dollars à cause des escroqueries cryptographiques l’année dernière. L’essor de l’intelligence artificielle (IA) a aggravé cette situation. D’après la société d’analyse blockchain TRM Labs, les escroqueries facilitées par l’IA ont augmenté de 456 % en 2024 par rapport aux années précédentes. À mesure que l’IA générative (GenAI) progresse, les acteurs malveillants peuvent désormais déployer des chatbots sophistiqués, des vidéos deepfake, des voix clonées et des réseaux automatisés de jetons d’escroquerie à une échelle sans précédent. En conséquence, la fraude cryptographique n’est plus uniquement pilotée par des humains, mais devient algorithmique, rapide, adaptative et de plus en plus convaincante.
Escroqueries à la vitesse de l’éclair
Ari Redbord, responsable mondial des politiques et des affaires gouvernementales chez TRM Labs, a déclaré à Cryptonews que des modèles génératifs sont utilisés pour lancer des milliers d’escroqueries simultanément. « Nous assistons à un écosystème criminel qui est plus intelligent, plus rapide et infiniment évolutif, » a-t-il affirmé.
Redbord a expliqué que les modèles GenAI peuvent s’adapter à la langue, à la localisation et à l’empreinte numérique d’une victime. Par exemple, en matière de ransomware, l’IA est utilisée pour sélectionner les victimes les plus susceptibles de payer, rédiger des demandes de rançon et automatiser les discussions de négociation. En ingénierie sociale, Redbord a mentionné que des voix et des vidéos deepfake sont utilisées pour escroquer des entreprises et des particuliers dans des escroqueries d' »imitation d’exécutif » et d' »urgence familiale ». Enfin, les escroqueries on-chain impliquant des outils d’IA capables d’écrire des scripts peuvent déplacer des fonds à travers des centaines de portefeuilles en quelques secondes, blanchissant à un rythme qu’aucun humain ne pourrait égaler.
Défenses alimentées par l’IA
L’industrie de la cryptomonnaie se tourne vers des défenses alimentées par l’IA pour lutter contre ces escroqueries. Les sociétés d’analyse blockchain, les entreprises de cybersécurité, les échanges et les chercheurs académiques construisent désormais des systèmes d’apprentissage automatique conçus pour détecter, signaler et atténuer la fraude bien avant que les victimes ne perdent des fonds. Par exemple, Redbord a déclaré que l’intelligence artificielle est intégrée à chaque couche de la plateforme d’intelligence blockchain de TRM Labs. L’entreprise utilise l’apprentissage automatique pour traiter des trillions de points de données à travers plus de 40 réseaux blockchain. Cela permet à TRM Labs de cartographier les réseaux de portefeuilles, d’identifier des typologies et de faire ressortir des comportements anormaux qui indiquent une activité illicite potentielle.
« Ces systèmes ne se contentent pas de détecter des modèles, ils les apprennent. À mesure que les données changent, les modèles évoluent, s’adaptant à la réalité dynamique des marchés cryptographiques, » a commenté Redbord.
La plateforme de risque alimentée par l’IA Sardine adopte une approche similaire. Fondée en 2020, à une époque où des escroqueries cryptographiques notables commençaient à émerger, la société de sécurité a développé une détection de fraude par IA composée de trois couches. « Les données sont au cœur de tout ce que nous faisons. Nous capturons des signaux profonds derrière chaque session utilisateur sur des plateformes financières comme les échanges de cryptomonnaies—comme les attributs des appareils, si les applications sont altérées, ou comment un utilisateur se comporte. Deuxièmement, nous exploitons un large réseau de fournisseurs de données de confiance pour toute entrée utilisateur. Enfin, nous utilisons nos données de consortium—qui peuvent être les plus importantes pour lutter contre la fraude—où les entreprises peuvent partager des données relatives aux acteurs malveillants avec d’autres entreprises. »
Cas d’utilisation IA contre IA
Ces outils s’avèrent déjà efficaces. Matt Vega, chef de cabinet de Sardine, a déclaré à Cryptonews qu’une fois que Sardine détecte un modèle, l’IA de l’entreprise effectue une analyse approfondie pour trouver des recommandations de tendance afin d’empêcher un vecteur d’attaque de se produire. « Cela prendrait normalement une journée à un humain, mais avec l’IA, cela prend des secondes, » a-t-il précisé.
Un article de blog de TRM Labs explique en outre qu’en mai, l’entreprise a été témoin d’un deepfake en direct lors d’un appel vidéo avec un escroc de grooming financier probable. Ce type d’escroc établit une relation de confiance à long terme, souvent émotionnelle ou romantique, avec une victime pour accéder à son argent. « Nous soupçonnions que cet escroc utilisait la technologie deepfake en raison de la ligne de cheveux peu naturelle de la personne, » a expliqué Redbord. « Les outils de détection IA nous ont permis de corroborer notre évaluation selon laquelle l’image était probablement générée par IA. » Bien que TRM Labs ait réussi, cette escroquerie spécifique et d’autres qui y sont liées ont volé environ 60 millions de dollars à des victimes non informées.
Protéger contre les escroqueries alimentées par l’IA
Bien qu’il soit clair que des outils alimentés par l’IA sont utilisés pour détecter et prévenir des escroqueries sophistiquées, ces attaques continueront d’augmenter. « L’IA abaisse la barrière à l’entrée pour le crime sophistiqué, rendant ces escroqueries hautement évolutives et personnalisées, donc elles gagneront certainement en traction, » a remarqué Kerbs. Il pense que des agents malveillants semi-autonomes alimentés par l’IA seront bientôt capables d’orchestrer des campagnes d’attaque entières, nécessitant une supervision humaine minimale, avec une imitation deepfake voix-à-voix indétectable lors d’appels en direct.
Bien que cela soit alarmant, Vega a souligné qu’il existe des étapes spécifiques que les utilisateurs peuvent prendre pour éviter de devenir victimes de telles escroqueries. Par exemple, il a expliqué que de nombreux vecteurs d’attaque sont des sites Web falsifiés, que les utilisateurs visiteront éventuellement et cliqueront sur de faux liens. « Les utilisateurs devraient rechercher des lettres de l’alphabet grec sur les sites Web. La société américaine de technologie multinationale Apple a récemment été victime de cela, car un attaquant a créé un faux site Web en utilisant une lettre grecque ‘A’ dans Apple. Les utilisateurs devraient également éviter les liens sponsorisés et faire attention aux URL. »
De plus, des entreprises comme Sardine et TRM Labs travaillent en étroite collaboration avec les régulateurs pour déterminer comment construire des garde-fous utilisant l’IA pour atténuer le risque d’escroqueries alimentées par l’IA. « Nous construisons des systèmes qui donnent aux forces de l’ordre et aux professionnels de la conformité la même rapidité, échelle et portée que les criminels ont maintenant—de la détection d’anomalies en temps réel à l’identification de blanchiment coordonné inter-chaînes. L’IA nous permet de passer de la gestion des risques réactive à une gestion prédictive, » a déclaré Redbord.