KI bei HanseMerkur: Ausschließlich als Unterstützung, Entscheidungen trifft der Mensch

Hanse Merkur
Horst Karaschewski, IT-Director bei der HanseMerkur, leitet seit 2006 die Anwendungsentwicklung bei der HanseMerkur. Im Interview gibt er Einblicke, wie er in seinem Haus sicherstellt, dass KI erklärbar bleibt und Diskriminierungen keine Chance gibt. Daher setzt er vor der Einführung und Nutzung neuer KI-Lösungen auf verschiedene Kontrollinstanzen, darunter eine umfassende Risikobewertung.
von Dunja Koelwel
Herr Karaschewski, Versicherungen haben ihre Governance-Prozesse auch in Bezug auf KI/ML angepasst und ergänzt, um ungerechtfertigte Diskriminierung im Kontext von KI/ML aufsichtsrechtlich zu adressieren. Wie sind Sie hier vorgegangen und auf was haben Sie besonderen Wert gelegt?
Bei HanseMerkur legen wir großen Wert darauf, den verantwortungsvollen Einsatz von KI und Machine Learning sicherzustellen – insbesondere im Hinblick auf die Vermeidung ungerechtfertigter Diskriminierung. Zu diesem Zweck haben wir verbindliche, unternehmensweite KI-Regeln für alle Anwendungsfelder definiert.Besonderen Wert legen wir darauf, dass KI ausschließlich als unterstützendes Werkzeug eingesetzt wird.
Entscheidungen von größerer Tragweite verbleiben stets in menschlicher Verantwortung.“
In automatisierten Prozessen, wie etwa in der Tierversicherung, sind die Abläufe klar und streng an vertragliche Vorgaben gebunden. Dadurch stellen wir sicher, dass Diskriminierung ausgeschlossen ist und die Ergebnisse transparent und nachvollziehbar bleiben.
Finanzdienstleister müssen eine ungerechtfertigte Diskriminierung ihrer Kunden durch den Einsatz von KI/ML vermeiden. Die Unternehmen müssen dazu Überprüfungsprozesse einrichten, um mögliche Diskriminierungsquellen zu identifizieren und Maßnahmen zu deren Beseitigung zu ergreifen. Dabei sind die Grenzen bestehender Verfahren zur Vermeidung ungewollter Diskriminierung zu beachten. Wie stellen Sie sicher, dass es zu keiner ungerechtfertigten Diskriminierung kommt? Auf welche Tools setzen Sie?
Vor der Einführung und Nutzung neuer KI-Lösungen durchlaufen diese verschiedene Kontrollinstanzen, darunter eine umfassende Risikobewertung. Zusätzlich prüft unser interdisziplinär besetztes AI Advisory Board alle Tools und Anwendungen vor dem produktiven Einsatz. Dieses Gremium bringt unterschiedliche Fachkompetenzen zusammen, um eine ausgewogene und ganzheitliche Bewertung sicherzustellen. Tools haben wir hierfür nicht im Einsatz.
Modellprüfer der Finanzdienstleister halten üblicherweise Feedbackschleifen mit KI-Systemen, um sie hinsichtlich Genauigkeit und Zuverlässigkeit zu verbessern. Was sind hier die kritischsten Bereiche bzw. zu welchen Schwächen kommt es am ehesten?
Horst Karaschewski ist promovierter Mathematiker und leitet seit 2006 die Anwendungsentwicklung bei der HanseMerkur (Webseite). Im Jahr 2013 gründete er zusätzlich red6 enterprise software, mit der er seine Expertise in der Softwareentwicklung weiter ausbaute. Unter seiner Leitung wurde bei der HanseMerkur eine service- und prozessorientierte Architektur eingeführt. Zudem trieb er die Einführung agiler Arbeitsweisen voran, wodurch die Entwicklungsprozesse beschleunigt und die Zusammenarbeit im Team verbessert wurden. Ein weiterer Meilenstein war die erfolgreiche Abschaffung des Großrechners und der COBOL-basierten Altsysteme, was die Modernisierung der IT-Landschaft ermöglichte. Darüber hinaus wurden große Teile der Systeme in eine Cloud-Architektur überführt.Wir sehen hier in erster Linie folgende vier Bereiche:
- Datenqualität und Anwendungsfeld: Eine der zentralen Schwächen besteht darin, dass die KI-Modelle nur so gut sind wie die Daten, mit denen sie trainiert werden. Es muss im Vorfeld klar definiert sein, in welchem Anwendungsfeld die KI eingesetzt wird und welche Fragestellungen sie beantworten soll. Unklare oder nicht ausreichend spezifizierte Anwendungsfälle führen häufig zu unpräzisen oder nicht nachvollziehbaren Ergebnissen. Das Problem liegt dann meist weniger im Modell selbst, sondern in der unzureichenden Vorbereitung und Spezifikation der Aufgabenstellung.
- Erklärbarkeit und Nachvollziehbarkeit: Ein besonders kritischer Bereich ist die mangelnde Erklärbarkeit vieler KI-Modelle, insbesondere bei komplexen neuronalen Netzen. In streng regulierten Branchen wie dem Finanzwesen ist es jedoch essenziell, dass Entscheidungen nachvollziehbar und transparent sind. Der sogenannte „Blackbox-Charakter“ von KI kann dazu führen, dass Modelle zwar technisch funktionieren, aber regulatorisch nicht akzeptiert werden.
- Zuverlässigkeit und Genauigkeit: KI-Systeme erreichen in der Praxis oft noch nicht die Zuverlässigkeit menschlicher Analysten. Studien zeigen, dass KI-Finanzagenten in hochriskanten Märkten häufig unsichere Informationsquellen nutzen oder auf manipulierte Daten hereinfallen. Dadurch kann die Genauigkeit der Ergebnisse deutlich hinter den Erwartungen zurückbleiben.
- Feedback- und Korrekturmechanismen: Effektive Feedbackschleifen sind entscheidend, um Schwächen zu identifizieren und Modelle kontinuierlich zu verbessern. Dabei ist es wichtig, sowohl positive als auch negative Rückmeldungen systematisch auszuwerten und in die Weiterentwicklung der Modelle einfließen zu lassen. Nur so können Fehlerquellen minimiert und die Zuverlässigkeit der KI-Systeme gesteigert werden.
Zusammengefasst heißt das: Um die genannten Schwächen zu adressieren, setzen wir auf eine klare Definition der Anwendungsfelder, hohe Datenqualität, transparente Entscheidungsprozesse und kontinuierliche Feedbackschleifen. Zudem beschränken wir die Freiheiten der KI gezielt, um präzise und verlässliche Antworten zu gewährleisten und unerwünschte Ergebnisse zu vermeiden.
Herr Karaschewski, vielen Dank für das Interview. dk
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/238763


Schreiben Sie einen Kommentar