Trustworthy AI? 81 % der Banken fliegen ihre KI-Modelle faktisch blind – Governance Framework ist der Ausweg

SAS
von Lars Kunert, Director FSI, SAS
Unternehmen stecken im KI-Dilemma: Das Vertrauen in künstliche Intelligenz (KI) und insbesondere in neuere Technologien wie Generative AI ist überraschend hoch, obwohl längst nicht breitflächig gesicherte IT-Plattformen und Governance-Frameworks dafür etabliert sind. Dies belegt eine globale IDC-Studie, die im Auftrag von SAS durchgeführt wurde.Demnach hinken Maßnahmen zur Transparenz, Erklärbarkeit und Kontrolle von KI deutlich hinter der Nutzung hinterher. Banken machen da keine Ausnahme: 96 Prozent der Finanzinstitute nutzen Systeme, die auf KI oder Machine Learning basieren, bereits seit mindestens einem Jahr. Allerdings setzt erst etwa ein Drittel von ihnen diese Technologien auch integriert beziehungsweise „transformativ“ im Sinne einer längeren strategischen Planung ein. Wenn es um den Aufbau von Trustworthy AI geht, besteht bei Finanzinstituten ebenfalls noch Nachholbedarf:
Lediglich 19 Prozent geben an, dass ihre Organisation eine umfängliche Responsible AI Policy etabliert hat, zu der jeder Mitarbeiter klare Instruktionen bekommen hat.“
Und nur 16 Prozent sind der Ansicht, dass sie über eine umfängliche AI Governance verfügen, die Menschen die Möglichkeit gibt, Bedenken zu melden.
Diese Zahlen sind alarmierend angesichts der Tatsache, dass selbst Banken mehr auf neue Technologien wie Generative AI (43 Prozent), KI-Agenten (34 Prozent) oder Quanten-KI (28 Prozent) vertrauen als auf erprobte „traditionelle“ KI (15 Prozent).
KI-Anwendungsfelder bei Financial Services: Credit Rating
Dass es für KI prädestinierte Einsatzbereiche bei Banken gibt, ist allerdings unbestritten. Das Rating von Unternehmenskrediten ist so ein Beispiel. Präzise Vorhersagen sind für den Finanzmarkt essenziell, aber auch hoch komplex. Dabei helfen kann ein durch KI und Machine Learning gestütztes Modell, wie es kürzlich von SAS in Kooperation mit dem Investment-Management-Unternehmen Man Group, dem britischen Versicherer Pension Insurance und der Stanford University entwickelt wurde.
Ein Frühwarnindikator zeigt an, sobald sich das Rating zu ändern droht (nach unten oder oben), und zwar noch, bevor der Markt darauf reagiert.“
Lars Kunert verantwortet als Director FSI seit November 2025 den Bereich Financial Services für SAS (Webseite). Bevor Kunert zu SAS kam, war er Senior Manager Strategic Sales bei Adobe Germany sowie Head of Sales Automotive Germany bei NetApp und Senior Business Manager bei Tech Data Germany. Lars Kunert hält ein Diplom als Kommunikationswirt von der Bayerischen Akademie für Werbung und Marketing sowie ein Certificate of Advanced Studies für Business Model Innovation der Universität St.Gallen.DKB: In 50 Millisekunden zum zufriedenen Kunden
Ein weiteres wichtiges Anwendungsfeld für KI im Finanzbereich ist die Betrugsprävention. Die Herausforderung hier: Kriminelle erkennen, ohne unbescholtene Kunden zu verprellen. Die DKB, zweitgrößte deutsche Direktbank, nutzt für ihre Betrugserkennung Machine Learning, KI sowie Alert- und Case-Management von SAS. Vorteile erzielt das Kreditinstitut damit insbesondere beim Instant Payment: Bei dieser Echtzeitüberweisung haben Banken zehn Sekunden Zeit, um die Transaktion auf Betrug hin zu prüfen. KI und Machine Learning ermöglichen Anomalie- und Mustererkennung in einem Bruchteil der Zeit und verringern somit False-Positives.
Mit der Modernisierung erzielt die DKB enorme Performancesteigerungen: Die Reaktionsgeschwindigkeit des neuen Systems liegt typischerweise bei rund 50 Millisekunden – die zehn Sekunden werden also bei Weitem nicht ausgeschöpft. Durch die Nutzung von SAS Viya als Managed Service in der Cloud erhofft sich die Bank zudem signifikante Kosteneinsparungen im operativen Geschäft.
Fazit
Vertrauen verdient man Tropfen für Tropfen, aber man verliert es in Litern. Was Jean-Paul Sartre schon wusste, gilt heute noch – und umso mehr für Financial Services. KI kann Banken dabei helfen, das Vertrauen in ihr Institut zu stärken, allerdings nur, wenn sie ganz im Sinne von Trustworthy AI eingesetzt wird. Voraussetzung ist, dass starke Governance-Tools eingesetzt werden, die Compliance, Fairness und Transparenz sicherstellen, sonst werden die Risiken größer als die Vorteile.Lars Kunert, SAS/dk
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/237096


Schreiben Sie einen Kommentar