Crypto Prices

Les deepfakes IA ont généré 40 % des fraudes en cryptomonnaie de haute valeur en 2024 : Rapport

il y a 8 heures
3 mins read
4 vues

Les escroqueries en cryptomonnaie et le rôle des deepfakes

Selon un rapport de Bitget, les deepfakes générés par l’intelligence artificielle, imitant des responsables gouvernementaux, des milliardaires et des célébrités, ont représenté 40 % des « fraudes de haute valeur » en 2024. Cette année-là, 4,6 milliards de dollars en cryptomonnaies ont été perdus à cause d’escroqueries, marquant une augmentation de 24 % par rapport à l’année précédente, comme le révèle le Rapport Anti-Scams 2025 de Bitget, coécrit avec Slowmist et Elliptic.

« Les escroqueries dans le domaine de la cryptomonnaie sont entrées dans une nouvelle ère, alimentée par les deepfakes IA, les techniques de social engineering et des projets trompeurs », indique le rapport. « Ces escroqueries exploitent désormais la confiance et la psychologie autant que la technologie. Des prises de contrôle de portefeuilles aux fraudes de plusieurs millions de dollars, les attaques deviennent de plus en plus personnalisées, crédibles et difficiles à détecter. »

Utilisation des deepfakes dans les escroqueries

Il est souligné qu’un deepfake « fréquent » a été utilisé, mettant en vedette le PDG de Tesla, Elon Musk, pour promouvoir des investissements frauduleux ou des campagnes de dons. D’autres applications des deepfakes incluent le contournement de la vérification d’identité, la création d’identités virtuelles pour mener des escroqueries d’investissement et la réalisation d’attaques de phishing via des appels Zoom.

Dans ces escroqueries Zoom, les malfaiteurs se font passer pour des dirigeants, des experts et même des journalistes—y compris des journalistes de Decrypt—dans le but d’attirer leurs victimes sur un appel vidéo frauduleux. Au cours de cet appel, l’escroc peut proposer une offre d’emploi ou demander une interview pour un article inexistant. Pendant l’appel Zoom illicite, les attaquants peuvent prendre le contrôle de l’ordinateur de la victime, voler des données et potentiellement accéder à des clés privées de cryptomonnaie.

Bien que de nombreuses escroqueries par deepfake ne soient pas nouvelles — l’escroquerie impliquant Elon Musk ayant fait le tour du net pour la première fois en 2022 — l’accélération rapide de l’intelligence artificielle a fait en sorte que ces deepfakes commencent à sembler très réalistes.

Réponses législatives et préoccupations

Cela a incité le président Trump, le mois dernier, à signer la loi bipartisane Take It Down Act, qui vise à protéger les victimes de pornographie par deepfake — bien que, à l’échelle générale, les deepfakes ne soient toujours pas interdits. En mai dernier, l’actrice Jamie Lee Curtis a également exprimé ses préoccupations envers Mark Zuckerberg, le PDG de Meta, après avoir découvert une fausse publicité générée par IA la présentant dans un rôle promotionnel sans son consentement.

« La plus grande menace pour la cryptomonnaie aujourd’hui n’est pas la volatilité, mais la tromperie », a déclaré Gracy Chen, PDG de Bitget, dans un communiqué. « L’IA a rendu les escroqueries plus rapides, moins coûteuses et plus difficiles à détecter. »

Les types d’escroqueries les plus dangereuses

En dehors des deepfakes, le social engineering et les systèmes de Ponzi modernes occupent respectivement les deuxième et troisième places parmi les escroqueries les « plus dangereux » signalées dans le rapport. Les escroqueries de social engineering exploitent la psychologie des victimes d’une manière « peu technologique, mais très efficace », comme le souligne le rapport. Un exemple courant est l’escroquerie du « pig butcher », également connue sous le nom d’escroquerie romantique, où l’attaquant établit une relation avec la victime uniquement dans le but de l’escroquer.

Le rapport note également qu’il y a eu une « évolution digitale » des systèmes de Ponzi, qui se déguisent généralement sous de nouveaux concepts comme DeFi, NFTs et GameFi. Ces escroqueries sont présentées comme des levées de fonds pour des projets, du mining de liquidités ou du staking de tokens de plateforme.

« Fondamentalement, elles restent des systèmes de Ponzi classiques où ‘de nouveaux fonds comblent de vieux trous’. Une fois que le flux de trésorerie se brise ou que les opérateurs retirent leur argent et partent, l’ensemble du système s’effondre rapidement. »

Le rapport note aussi une hausse des systèmes de Ponzi adoptant des « interfaces utilisateur de type jeu » et utilisant des deepfakes pour forger des endorsements de célébrités afin de renforcer la crédibilité du schéma. L’intelligence artificielle a véritablement révolutionné l’industrie de l’escroquerie, conduisant à un paysage radicalement différent de celui d’il y a quelques années.

« Il y a cinq ans, éviter les escroqueries signifiait ‘ne pas cliquer sur des liens suspects’. Aujourd’hui, cela signifie ‘ne pas faire confiance à ses propres yeux.' »