Ein tragischer Betrugsfall
Eine Witwe aus San Jose, die glaubte, online einen neuen romantischen Partner gefunden zu haben, verlor stattdessen fast 1 Million Dollar in einem Krypto-Betrug, der als „Pig-Butchering“ bekannt ist. Dies erkannte sie erst, nachdem sie ChatGPT gefragt hatte, ob das Investitionsangebot sinnvoll sei.
Der Beginn der Beziehung
Laut einem Bericht des San Jose-basierten ABC7 News hat das Schema ihre Rentenkonten geleert und sie in Gefahr gebracht, ihr Zuhause zu verlieren. Die Frau, Margaret Loke, traf im Mai letzten Jahres einen Mann, der sich auf Facebook „Ed“ nannte. Die Beziehung verlagerte sich schnell auf WhatsApp, wo der Mann, der behauptete, ein wohlhabender Geschäftsmann zu sein, ihr täglich liebevolle Nachrichten schickte und sie ermutigte, ihm zu vertrauen.
„Er war wirklich nett zu mir und begrüßte mich jeden Morgen“, sagte Loke gegenüber ABC7 News. „Er schickte mir jeden Tag die Nachricht ‚Guten Morgen‘ und sagte, dass er mich mag.“
Der Betrug entfaltet sich
Die Gespräche drehten sich bald um Krypto-Investitionen. Loke gab an, keine Handelserfahrung zu haben, aber „Ed“ führte sie dazu, Geld auf ein Online-Konto zu überweisen, das „er“ kontrollierte. Laut Loke zeigte Ed ihr einen Screenshot einer App, der ihr vorgaukelte, dass sie „in Sekunden einen großen Gewinn macht“. Diese Taktik ist typisch für Pig-Butchering-Schemata, die gefälschte Ergebnisse verwenden, um die Opfer zu überzeugen, dass ihr Geld wächst.
Pig-Butchering-Betrügereien sind langfristige Betrügereien, bei denen Betrüger über Wochen oder Monate eine Beziehung zu einem Opfer aufbauen, bevor sie es in gefälschte Investitionsplattformen lenken und dessen Ersparnisse abziehen. Im August gab Meta bekannt, dass über 6,8 Millionen WhatsApp-Konten, die mit Pig-Butchering-Betrügereien in Verbindung standen, entfernt wurden.
Die finanziellen Folgen
Als der Betrug voranschritt, berichtete Loke, dass sie eine Reihe von steigenden Überweisungen tätigte, beginnend mit 15.000 Dollar, die auf über 490.000 Dollar aus ihrem IRA anwuchsen. Schließlich nahm sie eine zweite Hypothek über 300.000 Dollar auf und überwies auch diese Mittel. Insgesamt schickte sie fast 1 Million Dollar an Konten, die von den Betrügern kontrolliert wurden.
Als ihr angebliches Krypto-Konto plötzlich „einfrohr“, forderte „Ed“ zusätzlich 1 Million Dollar, um die Gelder freizugeben. In Panik wandte sich Loke an ChatGPT und beschrieb die Situation.
„ChatGPT sagte mir: Nein, das ist ein Betrug, du solltest besser zur Polizeistation gehen“, erzählte sie ABC7. Die KI antwortete, dass das Setup bekannten Betrugsmustern entspreche, was sie dazu brachte, den Mann, von dem sie glaubte, dass sie mit ihm zusammen war, zur Rede zu stellen und schließlich die Polizei zu kontaktieren.
Die Ermittlungen und die Folgen
Ermittler bestätigten später, dass sie Geld an eine Bank in Malaysia geleitet hatte, wo es von Betrügern abgehoben wurde. „Warum bin ich so dumm? Ich habe ihn betrügen lassen!“ sagte Loke. „Ich war wirklich, wirklich deprimiert.“
Lokes Fall ist das neueste Beispiel dafür, wie ChatGPT verwendet wird, um Betrüger zu überführen. Laut dem Internet Crime Complaint Center (IC3) des FBI gingen 2024 insgesamt 9,3 Milliarden Dollar durch Online-Betrügereien verloren, die sich gegen amerikanische Senioren richteten.
Warnungen der Behörden
Die US-amerikanische Federal Trade Commission und die Securities and Exchange Commission warnen, dass unaufgeforderte Krypto-„Coaching“, das innerhalb einer Online-Beziehung beginnt, ein Kennzeichen von Beziehungsschemata ist – langfristige Betrügereien, bei denen ein Betrüger emotionales Vertrauen aufbaut, bevor er das Opfer in gefälschte Investitionen lenkt. Lokes Fall folgte diesem Muster, mit steigendem Druck, immer mehr Geld einzuzahlen.
Bundesregulierungsbehörden warnen, dass die Rückgewinnung von Geldern aus Übersee-Pig-Butchering-Operationen äußerst selten ist, sobald Geld die US-Banking-Kanäle verlässt, was Opfer wie Loke mit wenigen Möglichkeiten zur Entschädigung zurücklässt.