KI als Betrugsszenario: Die dunkle Seite von ChatGPT

LuckyStep48 / Bigstock
KI birgt Risiken
Mit der zunehmenden Beliebtheit solcher Programme steige aber auch das Betrugspotenzial. So könnten insbesondere Chatbots dazu missbraucht werden, Malware-Angriffe zu starten, Phishing-Versuche weiter zu perfektionieren oder Identitäten zu stehlen. Die Möglichkeiten seien vielfältig.
Phishing und Social Engineering mithilfe von KI
ChatGPT nutzt die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Das könnten Cyber-Kriminelle für Phishing- und Social-Engineering-Kampagnen ausnutzen. Es ließen sich beispielsweise E-Mail-Konversationen authentisch nachstellen, ohne dass Grammatik- oder Rechtschreibfehler erkennbar sind. Dabei sorge ein natürlicher Sprachfluss für Vertrauen bei den potenziellen Opfern: Der vermeintliche Bankmitarbeiter, der den Kunden per E-Mail auffordert, seine Kontodaten zur Verifizierung anzugeben, wirke durch die natürliche Sprache authentisch. Auf diese Weise können Betrüger laut BioCatch (Website) problemlos Daten abgreifen oder komplette Konten übernehmen.
Für Banken seien solche Betrugsformen schwer zu erkennen, weil es sich bei den geschilderten Fällen um „echte“ Kunden handelt, die die Überweisung auslösen. Aber nicht nur die vielfältigen Betrugsszenarien würden durch den Einsatz von KI für Banken und Finanzinstitute zunehmend zum Problem.
Um sich vor solchen Risiken zu schützen, müssten Unternehmen über solide Sicherheitsmaßnahmen verfügen. Dazu gehören laut dem Unternehmen vor allem regelmäßige Security-Updates sowie eine Multi-Faktor-Authentifizierung. Darüber hinaus sollten zusätzliche Maßnahmen ergriffen werden, um Chatbots vor böswilligen Akteuren zu schützen.
Geldwäschebekämpfung
Auch die Bekämpfung der Geldwäsche stelle eine Herausforderung dar und sei oft mit hohen Kosten verbunden. Hier bleibe die erste Überweisung meist unentdeckt. Entweder werde sie vom Überwachungssystem übersehen, oder der „Kunde“ beziehungsweise der AML-Analyst (Anti-Money Laundering) bestätigt die Transaktion als unverdächtig. Denn mithilfe von KI-gestützten Chatbots wie ChatGPT könnten Geldwäscher Gespräche generieren, die scheinbar legitime Geschäftsaktivitäten zum Gegenstand haben. In Wirklichkeit würden sie jedoch dazu dienen, Geldtransfers zu verschleiern. Dadurch werde es für Finanzinstitute immer schwieriger, die gängigen Muster von Geldwäscheaktivitäten zu erkennen.
Ein weiteres Problem sei die Rekrutierung ahnungsloser Personen zur Geldwäsche. Viele der Konten werden von arglosen Personen eröffnet, die glauben, einen ertragreichen Nebenjob gefunden zu haben. Dabei wissen die Betroffenen oft nicht, dass sie als Geldwäscher agieren und ihr Konto für kriminelle Aktivitäten nutzen, oder es dafür zur Verfügung stellen. Denn die Betrüger geben sich als legitime Unternehmen aus und versprechen schnelles Geld. Und mit ChatGPT lasse sich die vermeintliche Stellenanzeige und der nachfolgende Rekrutierungsprozess noch überzeugender gestalten.
Verhaltensbiometrie schafft Abhilfe
Verhaltensbiometrie könne laut BioCatch hier eine wichtige Rolle beim Aufdecken von Betrugsversuchen und Geldwäsche spielen. Durch die Analyse des Benutzerverhaltens, etwa der Tippgeschwindigkeit, den Tastenanschlägen und Mausbewegungen könne das normale Verhalten eines Benutzers festgelegt werden. Anhand davon könne die Software erkennen, ob es sich tatsächlich um den angemeldeten Benutzer handelt, oder um einen Betrüger. Auch viele andere Betrugsversuche ließen sich so erkennen. Auf diese Weise könnten auch Konten ausfindig gemacht werden, die zu einem späteren Zeitpunkt für Geldwäsche genutzt werden sollen.ft
Schreiben Sie einen Kommentar