Betrug durch AI-generierte Deepfakes
AI-generierte Deepfake-Imitationen von Regierungsbeamten, Milliardären und Prominenten machten 40 % der „hochwertigen Betrügereien“ im Jahr 2024 aus, so ein Bericht von Bitget. Im selben Jahr gingen 4,6 Milliarden Dollar in Kryptowährungen durch Betrügereien verloren, was einen Anstieg von 24 % im Vergleich zum Vorjahr bedeutet, berichtet der Anti-Betrugsbericht 2025 von Bitget, der in Zusammenarbeit mit Slowmist und Elliptic erstellt wurde.
„Krypto-Betrügereien haben eine neue Ära erreicht, angetrieben durch AI-Deepfakes, Social Engineering und irreführende Projektfronten.“
Der Bericht beschreibt, dass Betrüger Vertrauen und Psychologie ebenso einsetzen wie Technologie. Von Wallet-Übernahmen bis zu Multimillionen-Dollar-Betrügereien sind die Angriffe personalisierter, glaubwürdiger und schwerer zu erkennen.
Beispiele für Deepfake-Betrügereien
Ein häufiges Beispiel für einen Deepfake ist ein Video von Tesla-CEO Elon Musk, der betrügerische Investitions- oder Giveaway-Programme anpreist. Weitere Anwendungen für Deepfakes beinhalten:
- Umgehen der Know-Your-Customer-Verifizierung
- Erstellen virtueller Identitäten zur Durchführung von Investitionsbetrügereien
- Durchführung gefälschter Zoom-Phishing-Angriffe
Bei diesen Zoom-Betrügereien geben sich Betrüger als Führungskräfte, Experten und Journalisten aus, um das Opfer zu einem betrügerischen Videoanruf zu verleiten. Der Angreifer könnte dem Opfer einen Job anbieten oder darum bitten, es für einen nicht existierenden Artikel zu interviewen. Während des gefälschten Zoom-Anrufs können Angreifer die Kontrolle über den Computer des Opfers erlangen, Daten stehlen und möglicherweise auf private Krypto-Schlüssel zugreifen.
Die Entwicklung der Technologie
Bitget berichtet, dass in einigen Fällen Angreifer Deepfake-Tools verwenden, um Video- und Audioinhalte zu manipulieren und das Opfer zur Teilnahme am Anruf zu bewegen. Viele dieser Deepfake-Betrügereien sind nicht neu; der Musk-Betrug wurde beispielsweise erstmals 2022 viral. Mit der rasanten Entwicklung der künstlichen Intelligenz sehen Deepfakes jedoch realistisch aus. Letzten Monat unterzeichnete Präsident Trump das parteiübergreifende „Take It Down Act“, um die Opfer von Deepfake-Pornografie zu schützen, obwohl Deepfakes im Allgemeinen weiterhin nicht verboten sind.
Die Schauspielerin Jamie Lee Curtis sprach Meta-CEO Mark Zuckerberg an, nachdem sie eine gefälschte, von AI generierte Werbung von sich selbst entdeckte, die ein Produkt ohne ihre Zustimmung bewarb.
„Die größte Bedrohung für Krypto heute ist nicht die Volatilität, sondern die Täuschung,“ sagte Bitget-CEO Gracy Chen in einer Pressemitteilung.
Weitere Betrugsarten
Neben den Deepfakes wurden Social Engineering und moderne Ponzi-Schemata als die zweit- und drittgefährlichsten Betrügereien im Bericht eingestuft. Social Engineering-Betrügereien nutzen die Psychologie der Opfer auf eine „niedrig-technische, aber hocheffektive“ Methode. Ein gängiges Beispiel ist der Pig Butcher-Betrug, auch bekannt als Romantikbetrug, bei dem der Angreifer eine Beziehung mit dem Opfer aufbaut, um es zu betrügen.
Das klassische Ponzi-Schema, benannt nach dem Betrüger Charles Ponzi, erlebt eine „digitale Evolutionsphase“. Diese Betrügereien tarnen sich typischerweise in neuen Konzepten wie DeFi, NFTs und GameFi, präsentieren sich als Projektfinanzierung, Liquiditätsbergbau oder Plattform-Token-Staking und bleiben in ihrer Essenz klassische Ponzi-Schemata.
„Heute lautet die Devise: ‚Vertraue nicht deinen eigenen Augen.'“
Der Bericht stellt fest, dass auch Ponzi-Schemata spielähnliche Benutzeroberflächen verwenden und gegenwärtig Deepfakes nutzen, um gefälschte Empfehlungen von Prominenten auszusprechen, was die Glaubwürdigkeit des Schemas erhöht. AI hat die Betrugsbranche revolutioniert und eine deutlich andere Landschaft geschaffen als noch vor ein paar Jahren.
Redigiert von James Rubin