Betrügereien im Kryptowährungssektor
Betrügereien machen einen Großteil der illegalen Aktivitäten im Kryptowährungssektor aus. Erkenntnisse des Federal Bureau of Investigation (FBI) zeigen, dass US-Bürger im letzten Jahr 9,3 Milliarden Dollar durch Krypto-Betrügereien verloren haben. Der Anstieg der künstlichen Intelligenz (KI) hat diese Problematik nur verschärft. Laut der Blockchain-Analysefirma TRM Labs gab es im Jahr 2024 einen Anstieg von 456 % bei KI-unterstützten Betrügereien im Vergleich zu den Vorjahren. Mit dem Fortschritt der generativen KI (GenAI) sind böswillige Akteure nun in der Lage, ausgeklügelte Chatbots, Deepfake-Videos, geklonte Stimmen und automatisierte Netzwerke von Betrugstoken in einem bisher nie gesehenen Maßstab einzusetzen. Infolgedessen ist Krypto-Betrug nicht mehr eine von Menschen gesteuerte Operation, sondern vielmehr algorithmisch, schnell, anpassungsfähig und zunehmend überzeugend.
Betrügereien in Lichtgeschwindigkeit
Ari Redbord, globaler Leiter für Politik und Regierungsangelegenheiten bei TRM Labs, erklärte gegenüber Cryptonews, dass generative Modelle verwendet werden, um Tausende von Betrügereien gleichzeitig zu starten. „Wir sehen ein kriminelles Ökosystem, das intelligenter, schneller und unendlich skalierbar ist“, sagte er.
Redbord erläuterte, dass GenAI-Modelle auf die Sprache, den Standort und den digitalen Fußabdruck eines Opfers abgestimmt werden können. Er bemerkte beispielsweise, dass bei Ransomware KI verwendet wird, um die Opfer auszuwählen, die am wahrscheinlichsten zahlen, Lösegeldforderungen zu entwerfen und Verhandlungen zu automatisieren. Im Bereich Social Engineering erwähnte Redbord, dass Deepfake-Stimmen und -Videos verwendet werden, um Unternehmen und Personen in Betrügereien wie „Vorstellung von Führungskräften“ und „Familiennotfällen“ zu täuschen. Schließlich können On-Chain-Betrügereien, bei denen KI-Tools Skripte schreiben, Gelder innerhalb von Sekunden über Hunderte von Wallets bewegen und in einem Tempo waschen, das kein Mensch jemals erreichen könnte.
KI-gestützte Verteidigungen
Die Krypto-Industrie wendet sich KI-gestützten Verteidigungen zu, um gegen diese Betrügereien vorzugehen. Blockchain-Analysefirmen, Cybersicherheitsunternehmen, Börsen und akademische Forscher entwickeln jetzt maschinelle Lernsysteme, die darauf ausgelegt sind, Betrug lange bevor die Opfer Gelder verlieren, zu erkennen, zu kennzeichnen und zu mindern.
Zum Beispiel erklärte Redbord, dass künstliche Intelligenz in jede Schicht der Blockchain-Intelligenzplattform von TRM Labs integriert ist. Das Unternehmen nutzt maschinelles Lernen, um Billionen von Datenpunkten über mehr als 40 Blockchain-Netzwerke zu verarbeiten.
Dies ermöglicht es TRM Labs, Wallet-Netzwerke zu kartieren, Typologien zu identifizieren und anomales Verhalten zu erkennen, das auf potenzielle illegale Aktivitäten hinweist. „Diese Systeme erkennen nicht nur Muster – sie lernen sie. Wenn sich die Daten ändern, ändern sich auch die Modelle und passen sich der dynamischen Realität der Krypto-Märkte an“, kommentierte Redbord.
Dies ermöglicht es TRM Labs, das zu erkennen, was menschliche Ermittler möglicherweise übersehen würden – Tausende von kleinen, scheinbar nicht zusammenhängenden Transaktionen, die die Signatur eines Betrugs, eines Waschnetzwerks oder einer Ransomware-Kampagne bilden.
Die KI-Risiko-Plattform Sardine verfolgt einen ähnlichen Ansatz. Das Sicherheitsunternehmen wurde 2020 gegründet, als prominente Krypto-Betrügereien gerade erst begannen. Alex Kushnir, Leiter der kommerziellen Entwicklung bei Sardine, sagte gegenüber Cryptonews, dass die KI-Betrugserkennung des Unternehmens aus drei Schichten besteht. „Daten sind das Herzstück von allem, was wir tun. Wir erfassen tiefe Signale hinter jeder Benutzersitzung, die auf Finanzplattformen wie Krypto-Börsen stattfindet – wie Geräteattribute, ob Apps manipuliert wurden oder wie sich ein Benutzer verhält. Zweitens nutzen wir ein breites Netzwerk vertrauenswürdiger Datenanbieter für alle Benutzereingaben. Schließlich verwenden wir unsere Konsortialdaten – die möglicherweise am wichtigsten sind, um Betrug zu bekämpfen – wo Unternehmen Daten über böswillige Akteure mit anderen Unternehmen teilen können.“
Kushnir fügte hinzu, dass Sardine eine Echtzeit-Risiko-Engine verwendet, um auf jeden der oben genannten Indikatoren zu reagieren, um Betrügereien zu bekämpfen, während sie stattfinden.
KI gegen KI Anwendungsfälle
Diese Tools erweisen sich bereits als effektiv. Matt Vega, Chief of Staff bei Sardine, erklärte gegenüber Cryptonews, dass, sobald Sardine ein Muster erkennt, die KI des Unternehmens eine tiefgehende Analyse durchführt, um Trendempfehlungen zu finden, um einen Angriffsvektor zu stoppen. „Das würde normalerweise einen Menschen einen Tag kosten, aber mit KI dauert es Sekunden“, sagte er.
Vega erläuterte beispielsweise, dass Sardine eng mit führenden Krypto-Börsen zusammenarbeitet, um ungewöhnliches Benutzerverhalten zu kennzeichnen. Benutzertransaktionen werden durch Sardines Entscheidungsplattform geleitet, und die KI-Analyse hilft, das Ergebnis dieser Transaktionen zu bestimmen, was den Börsen eine frühzeitige Warnung gibt.
Ein Blogbeitrag von TRM Labs erklärt weiter, dass das Unternehmen im Mai während eines Videoanrufs mit einem mutmaßlichen finanziellen Grooming-Betrüger einen Live-Deepfake beobachtete. Diese Art von Betrüger baut eine langfristige, vertrauensvolle und oft emotionale oder romantische Beziehung zu einem Opfer auf, um Zugang zu dessen Geld zu erhalten. „Wir vermuteten, dass dieser Betrüger Deepfake-Technologie verwendete, aufgrund der unnatürlich aussehenden Haarlinie der Person“, erklärte Redbord.
Obwohl TRM Labs erfolgreich war, hat dieser spezifische Betrug und andere damit verbundene etwa 60 Millionen Dollar von ahnungslosen Opfern gestohlen. Das Cybersicherheitsunternehmen Kidas verwendet ebenfalls KI, um Betrügereien zu erkennen und zu verhindern. Ron Kerbs, Gründer und CEO von Kidas, sagte gegenüber Cryptonews, dass, da KI-gestützte Betrügereien zugenommen haben, die proprietären Modelle von Kidas jetzt Inhalte, Verhalten und audio-visuelle Inkonsistenzen in Echtzeit analysieren können, um Deepfakes und von LLMs erstellte Phishing-Versuche am Interaktionspunkt zu identifizieren. „Dies ermöglicht sofortige Risikobewertung und Echtzeit-Intervention, was der einzige Weg ist, um automatisierte, skalierte Betriebsbetrügereien zu bekämpfen“, sagte Kerbs.
Kerbs fügte hinzu, dass Kidas‘ Tool in der vergangenen Woche erfolgreich zwei verschiedene Krypto-Betrugsversuche in Discord abgefangen hat. „Diese schnelle Identifizierung zeigt die entscheidende Fähigkeit des Tools zur Echtzeit-Verhaltensanalyse, die effektiv die Kompromittierung von Benutzerkonten und potenzielle finanzielle Verluste verhindert“, sagte er.
Schutz vor KI-gestützten Betrügereien
Während es klar ist, dass KI-gestützte Werkzeuge verwendet werden, um ausgeklügelte Betrügereien zu erkennen und zu verhindern, werden diese Angriffe weiterhin zunehmen. „KI senkt die Eintrittsbarriere für ausgeklügelte Kriminalität, wodurch diese Betrügereien hochgradig skalierbar und personalisiert werden, sodass sie sicherlich mehr Anklang finden werden“, bemerkte Kerbs.
Er glaubt, dass semi-autonome böswillige KI-Agenten bald in der Lage sein werden, ganze Angriffskampagnen zu orchestrieren, die minimale menschliche Aufsicht erfordern, mit nicht nachverfolgbarem Voice-to-Voice-Deepfake-Impersonation in Live-Anrufen.
Obwohl das alarmierend ist, wies Vega darauf hin, dass es spezifische Schritte gibt, die Benutzer unternehmen können, um zu verhindern, dass sie Opfer solcher Betrügereien werden. Er erklärte beispielsweise, dass viele Angriffsvektoren gefälschte Websites sind, die Benutzer schließlich besuchen und dann auf gefälschte Links klicken. „Benutzer sollten nach griechischen Buchstaben auf Websites suchen. Das amerikanische Multinationalunternehmen Apple wurde kürzlich Opfer davon, als ein Angreifer eine gefälschte Website mit einem griechischen ‚A‘-Buchstaben in Apple erstellte. Benutzer sollten auch von gesponserten Links Abstand nehmen und auf URLs achten.“
Darüber hinaus arbeiten Unternehmen wie Sardine und TRM Labs eng mit Regulierungsbehörden zusammen, um zu bestimmen, wie man Schutzmaßnahmen entwickeln kann, die KI nutzen, um das Risiko von KI-gestützten Betrügereien zu mindern. „Wir bauen Systeme, die Strafverfolgungsbehörden und Compliance-Profis die gleiche Geschwindigkeit, Skalierbarkeit und Reichweite geben, die Kriminelle jetzt haben – von der Erkennung von Echtzeit-Anomalien bis zur Identifizierung koordinierter Cross-Chain-Wäsche. KI ermöglicht es uns, das Risikomanagement von etwas Reaktivem zu etwas Prädiktivem zu bewegen“, erklärte Redbord.