STRATEGIE10. September 2024

So kann Künstliche Intelligenz etablierte Risikomodelle unterstützen

AI Learning and Artificial Intelligence Concept - Icon Graphic Interface showing computer, machine thinking and AI Artificial Intelligence of Digital Robotic Devices.
World Image / Bigstock

Die Europäische Union hat sich zum Ziel gesetzt, den Missbrauch von Künstlicher Intelligenz (KI) zu verhindern. Mit dem AI Act verbietet sie Unternehmen beispielsweise den Einsatz von KI zur Manipulation von Menschen oder die Einführung eines Punktesystems, das erwünschtes Verhalten belohnt („Social Scoring“). Das Problem: Die neuen Regeln sind so angelegt, dass auch die gängigen Risikomodelle, mit denen Banken und Versicherungen die Kreditwürdigkeit von Kunden prüfen und Prämien berechnen, unter die strengen Vorgaben fallen könnten. Davor warnt das Software- und Beratungsunternehmen PPI.

Wer sich für eine Versicherung oder einen Kredit bei einer Bank interessiert, hat vor allem Interesse an den genauen Konditionen und Bedingungen. Verbraucherinnen und Verbraucher achten in erster Linie darauf, was etwas kostet. Wie hoch die Zinsen oder Prämien sind, ist daher auch für die Anbieter wichtig, um im Wettbewerb bestehen zu können. Der EU-AI Act könnte aber künftig die Modelle beeinflussen, mit denen die Finanzbranche berechnet, wie hoch der Preis für einen Kredit oder eine Versicherung sein muss. Grund dafür sind Vorschriften, die zum Beispiel eine Diskriminierung verhindern sollen. Dies hat zur Folge, dass die Anbieter in Zukunft noch genauer darlegen müssen, wie und auf Basis welcher Daten sie zu einer Entscheidung gekommen sind.

Jan Eßer, Senior Consultant PPI
Jan Eßer, Senior Consultant PPIPPI

Kreditwürdigkeitsprüfungen unterliegen der Risikoklasse hoch, der höchsten noch erlaubten Risikoklasse für KI. Sie erfasst jedoch auch die logistischen Regressionsmodelle, die von wenigen Variablen abhängen und prognostizieren, wie hoch das Risiko ausfällt, das die Bank mit einem Kunden eingeht. Laut der EU fällt dieses Vorgehen bereits unter die Definition von KI.”

Jan Eßer, Managing Consulting bei PPI und Experte für Risiko-Controlling

Zwei entscheidende Kennzahlen spielen in diesen Kreditrisiko-Modellen eine entscheidende Rolle. Sie heißen PD und LGD – und zeigen an, wie wahrscheinlich es ist, dass ein beantragter Kredit ausfällt (Probability of Default) und wie hoch der daraus resultierende finanzielle Schaden wäre (Loss given Default). Von diesen Werten hängt vorrangig ab, ob ein Kredit gewährt wird und zu welchen Konditionen.

Doch wie genau die Anbieter zu ihren Ergebnissen kommen, müssen sie künftig noch genauer belegen. Dazu zählt auch, dass die verwendeten Daten repräsentativ sein müssen, um eine mögliche Verzerrung („Bias“) zu vermeiden. „Auf bestehende Modelle sollen dieselben Kriterien angewendet werden wie für Systeme, die hochkomplexe KI einsetzen, wie beispielsweise neuronale Netze“, fasst Eßer die neue Herausforderung zusammen.

In Erklärungsnot: KI kann zu juristischen Problemen führen

Die neuen Regeln könnten paradoxerweise dazu beitragen, dass Banken verstärkt auf KI zurückgreifen. Denn der Mehraufwand, die verwendeten Risikomodelle und ihre Datenbasis ständig zu pflegen, zu analysieren, zu testen, zu optimieren und das alles zu dokumentieren, dürfte durch mehr Personal kaum zu kompensieren sein. Dazu ist der Kostendruck in der Branche nach wie vor zu groß.

Durch den Einsatz von KI, die vordefinierten Regeln folgt und nicht direkt in der Bonitätsprüfung oder im Underwriting einer Versicherung zum Einsatz kommt, dürften diese zusätzlichen Fleißarbeiten jedoch automatisierbar werden. „Banken sollten KI überall dort einsetzen, wo die Maschine begleitende Arbeiten erledigen kann, ohne in die kritischen IT-Anwendungen eingebunden zu sein“, so der PPI-Experte.

Als Gegenmodell zu den produktiven Risikomodellen empfiehlt Eßer jedoch auch den Einsatz von KI. Für die tatsächliche Kreditentscheidung werden die Ergebnisse zwar zunächst nicht direkt genutzt. Zur Verbesserung und zum Testen bestehender Modelle sowie zur Unterstützung der geforderten Analysen sind sie dennoch durchaus geeignet. „KI-Challenger-Modelle haben sich bewährt, um aus der Not eine Tugend zu machen“, erklärt der Informatiker. „Banken verschaffen sich durch die KI zusätzliche Ressourcen, um regulatorische Anforderungen ohne zusätzliches Personal umzusetzen und gleichzeitig ihre Risikomodelle zu unterstützen.“tw

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert