Explainable AI bei ING: „Ethik ist kein nice-to-have“

ING
Frau Biedinger, Herr Stahl, Banken und Versicherungen haben ihre Governance-Prozesse auch in Bezug auf KI/ML angepasst und ergänzt, um ungerechtfertigte Diskriminierung im Kontext von KI/ML aufsichtsrechtlich zu adressieren. Wie sind Sie hier mit Blick auf Explainable AI vorgegangen und auf was haben Sie besonderen Wert gelegt?
Fabian Stahl: Bevor KI- und ML-Anwendungen bei der ING in den produktiven Betrieb gehen, wird eine Vielzahl an Aspekten in einem verpflichtenden Regelprozess untersucht. Zwei dieser Aspekte sind, neben den Anforderungen des EU AI Acts, Datenschutz und Datenethik. Der Datenschutz überprüft hierbei die Zulässigkeit der Verarbeitung unter geltenden Vorschriften und Gesetzen wie DSGVO und BDSG aber auch die Übereinstimmung mit internen Richtlinien und Vorgaben.
Sollte diese Prüfung die Erlaubnis der Verarbeitung bestätigen stellt die Datenethik die Frage, ob das zulässige Verhalten auch ethisch korrekt ist und mit den Werten der ING übereinstimmt. Hierzu gibt es eigenes Gremium mit Vertretern aus dem Senior Management und Risikofunktionen, welche diese Frage kritisch prüfen. Die Ethik ist hierbei kein nice-to-have sondern ein verpflichtendes Quality Gate, ohne das keine Freigabe erfolgt.
Finanzdienstleister müssen eine ungerechtfertigte Diskriminierung ihrer Kunden durch den Einsatz von KI/ML vermeiden. Die Unternehmen müssen dazu Überprüfungsprozesse einrichten, um mögliche Diskriminierungsquellen zu identifizieren und Maßnahmen zu deren Beseitigung zu ergreifen. Dabei sind die Grenzen bestehender Verfahren zur Vermeidung ungewollter Diskriminierung zu beachten. Wie stellen Sie sicher, dass es zu keiner ungerechtfertigten Diskriminierung kommt? Auf welche Tools setzen Sie?
Fabian Stahl ist seit September 2025 Leiter des Center of Expertise (CoE) Data Protection Execution & AI Innovation bei der ING Deutschland (Webseite). In dieser Rolle verbindet er Expertise in der Datenschutz-Umsetzung mit der strategischen Einführung von KI, insbesondere im Hinblick auf die regulatorischen Anforderungen des EU AI Acts.
Die zentrale Analytics-Plattform der ING bietet verschiedene Monitoring-Lösungen, um im laufenden Betrieb von ML-Modellen Verschlechterungen bzw. Fehlentwicklungen in der Datenbasis automatisch zu erkennen und ggf. zu korrigieren.“
Zur Überwachung von GenAI-Modellen werden darüber hinaus Labeling Tools eingesetzt. Mit solchen Tools werden durch einen menschlichen Sachverständigen unangemessene oder falsche Inhalte gekennzeichnet. Diese Informationen werden in die Modelle eingespeist, um solches Fehlverhalten in Zukunft zu vermeiden.
Modellprüfer der Finanzdienstleister halten üblicherweise Feedbackschleifen mit KI-Systemen, um sie hinsichtlich Genauigkeit und Zuverlässigkeit zu verbessern. Was sind hier die kritischsten Bereiche bzw. zu welchen Schwächen kommt es am ehesten?
Johanna Biedinger ist eine Führungskraft bei der ING Deutschland (Webseite), wo sie die Doppelrolle als Tribe Lead Analytics und Lead COO Transformation innehat. Sie wird oft als „Transformation Tamer“ bezeichnet und ist Expertin für die Schnittstelle zwischen KI, Banking und organisatorischem Wandel.Im KI/ML-Sprachgebrauch werden solche Fragen zu Diskriminierung oft unter dem Terminus Fairness zusammengefasst. Dieser Fairness-Begriff umfasst drei wichtige Aspekte.
- Erstens Algorithmische Fairness. Hier soll das Design des Algorithmus sicherstellen, dass Personen und Personengruppen gleichförmig behandelt werden. Häufig geschieht dies durch quantitative Verfahren, im einfachsten Fall etwa durch den Vergleich der Anteile positiver Kreditentscheidungen gegenüber Frauen mit dem Anteil positiver Entscheidungen gegenüber Männern. Solch ein statistischer Ansatz, der auf Eigenschaften von Personengruppen abstellt, ist jedoch grundsätzlich nicht dazu geeignet, individuelle Diskriminierung zu identifizieren. Daher sind je nach Einzelfall geeignete weitergehende Maßnahmen erforderlich.
- Der zweite Aspekt des hier genutzten Fairness-Begriffes ist Diskriminierung im rechtlichen Sinne. Sie unterscheidet sich je nach nationaler Jurisdiktion. Wann eine gesetzlich (nicht) erlaubte Ungleichbehandlung vorliegt, ist beispielsweise in Deutschland zivilrechtlich im Allgemeinen Gleichbehandlungsgesetz (§§ 19 und 20 AGG) geregelt. Dort sind auch die geschützten Eigenschaften definiert (siehe auch Infokasten „Geschützte Eigenschaften“).
- Drittens umfasst Fairness auch den Aspekt „Bias“, was auf Deutsch so viel wie Vorurteil oder Einseitigkeit bedeutet. Die deutsche Aufsicht beschreibt einen Bias in dem 2021 veröffentlichten Beitrag „Big Data und künstliche Intelligenz: Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen“ als systematische Verzerrung von Ergebnissen. Der Begriff Bias ist vielschichtig und bezieht sich im einfachsten Fall auf den Datensatz, der als Grundlage für das „Training“ bzw. das Anlernen des Algorithmus dient. Es kann in der Praxis passieren, dass dieser Trainingsdatensatz bestimmte Kundengruppen nicht enthält, zum Beispiel alleinstehende Frauen.
Vertrauen bildet die Basis für die Akzeptanz neuer Technologien – das gilt auch für Explainable AI – und trägt entscheidend dazu bei, dass diese erfolgreich implementiert werden.
Frau Biedinger, Herr Stahl, vielen Dank für das Interview. dk
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/238752


Schreiben Sie einen Kommentar