Binance und Künstliche Intelligenz in der Sicherheitsinfrastruktur
Binance betrachtet Künstliche Intelligenz (KI) als zentrale Säule seiner Sicherheitsinfrastruktur. Das Unternehmen gibt an, dass es von 2025 bis zum ersten Quartal 2026 über 24 Initiativen und mehr als 100 KI-Modelle implementiert hat, um 10,53 Milliarden Dollar an betrügerischen Mitteln zu blockieren. Der neueste Sicherheitsbericht von Binance beschreibt KI nicht nur als Funktion, sondern als Rückgrat seiner Betrugsabwehr.
Das Unternehmen erklärt, dass es „über 24 KI-Initiativen im Bereich Compliance eingerichtet hat, mit mehr als 100 KI-Modellen, die die Betrugsbekämpfung steuern.“
Laut einem Bericht von Binance Research haben diese Systeme die Exposition gegenüber illegalen Mitteln um 96 % reduziert. Ein maßgeschneiderter Risikomotor namens „Strategy Factory“ kombiniert kontinuierlich Regeln und maschinelles Lernen, um anomales Verhalten beim Login, Handel und bei Abhebungen zu kennzeichnen.
Ergebnisse und Statistiken
Die Zahlen im Bericht verdeutlichen das Ausmaß der Bemühungen. Im Geschäftsjahr 2025, das im November 2025 endet, gibt Binance an, dass seine verbesserten Erkennungssysteme 6,69 Milliarden Dollar an Betrugs- und Betrugsversuchen blockiert haben. Zudem wurden 36.000 Adressen auf die schwarze Liste gesetzt und täglich mehr als 9.600 Echtzeit-Warnmeldungen ausgegeben.
Von 2025 bis zum ersten Quartal 2026 schätzt die Börse, dass sie kumulativ 10,53 Milliarden Dollar an Benutzerverlusten verhindert hat. Diese Zahl wurde in einem separaten sozialen Beitrag von Binance wiederholt, der KI als „Infrastruktur“ darstellt, nachdem im ersten Quartal 2026 allein 22,9 Millionen Bedrohungen abgefangen wurden.
Aktuelle Entwicklungen und Herausforderungen
Im ersten Quartal 2026 stoppte Binance‘ Systeme 22,9 Millionen Betrugs- und Phishing-Versuche, was einem Anstieg von 54 % im Vergleich zum Vorquartal und 209 % im Vergleich zum Vorjahr entspricht. Dadurch wurden etwa 1,98 Milliarden Dollar an Benutzerfonds geschützt.
Das Unternehmen weist darauf hin, dass dies zwar einen Anstieg von 7 % im Jahresvergleich bei geschützten Mitteln darstellt, jedoch im Vergleich zum Vorquartal um 30 % zurückging. Diesen Trend führt Binance auf „saisonale Dynamiken“ wie Feiertagsausgaben zurück, die die Betrugsexposition vorübergehend verändern.
Ein Facebook-Beitrag, der die Daten zusammenfasste, hob „über 100 aktive KI-Modelle“, eine Phishing-Rate von „3,2 % auf 0,4 % (8-fach)“ und mehr als 4.000 wiederhergestellte Benutzer pro Monat hervor, um zu zeigen, wie „KI im großen Maßstab aussieht.“
Das Sicherheitsteam von Binance betont jedoch, dass Angreifer ebenso schnell vorankommen. In einem verwandten Kommentar kommen die Forscher zu dem Schluss, dass „KI derzeit doppelt so gut im Ausnutzen wie im Erkennen ist“ und warnen, dass KI-gestützte Ausnutzungen etwa 1,22 Dollar pro Smart Contract kosten und voraussichtlich alle zwei Monate um 22 % günstiger werden.
Defensive Maßnahmen und Branchenkontext
Diese Asymmetrie zwingt 75 % der Finanzinstitute dazu, die Ausgaben für KI zur Erkennung von Finanzkriminalität zu erhöhen, während Krypto-Börsen und Banken mit derselben Welle von Deepfake-KYC-Versuchen, hyperrealistischem Phishing und automatisiertem Credential Stuffing konfrontiert sind.
Auf der defensiven Seite verweist Binance auf seine KYC Face Attack- und Liveness Detection-Modelle, die kontinuierlich aktualisiert werden, um „physische Masken, statisches Foto-Spoofing, Deepfake-Videos und synthetische Gesichtstausch“ zu bekämpfen. Das Unternehmen behauptet, dass KI eine 100-fache Steigerung des KYC-Verarbeitungsdurchsatzes ermöglicht hat.
Im weiteren Branchenkontext fasst ein Bericht von crypto.news über KI-unterstützten Betrug zusammen, wie die KI-Systeme von JPMorgan dazu beigetragen haben, geschätzte 1,5 Milliarden Dollar an Verlusten zu verhindern, während der KI-Stack von Binance seit 2025 über 10,5 Milliarden Dollar blockiert hat. Der neueste Bericht der Börse wird als Teil eines breiteren Wettrüstens im Bereich der KI-Sicherheit dargestellt, anstatt als isoliertes Upgrade.