Anzeige
STRATEGIE21. Oktober 2021

Whitebox-AI: Der Schlüssel zu erklärbaren KI-Modellen in der Versicherungsbranche

Experte für Whitebox-Modelle: Paul-Marie Carfantan ist Experte für AI Governance und Responsible AI bei der Enterprise-AI Plattform Dataiku
Paul-Marie Carfantan, Experte für AI Governance und Responsible AI bei der Enterprise-AI Plattform DataikuDataiku

Mit den neuen Regulierungen der EU für den Einsatz Künstlicher Intelligenz gewinnt nicht nur in der Versicherungsbranche die Erklärbarkeit von KI-Modellen an Bedeutung. Deshalb müssen Unternehmen bereits jetzt die Weichen stellen, um von leistungsfähigen, aber weniger erklärbaren Blackbox-Modellen hin zu transparenten Whitebox-Modellen zu kommen. Denn gerade beim Einsatz von Blackbox-Modellen sind Gründe für das Treffen bestimmter Entscheidungen nur schwer nachvollziehbar. Das schafft einerseits nur wenig Vertrauen auf Kundenseite, kann aber vor allem gegenüber Aufsichtsbehörden zum echten Problem werden.

von Paul-Marie Carfantan, Dataiku

Wie der Begriff „Blackbox“ bereits sagt, wird er für KI und Machine-Learning Modelle verwendet, bei denen die genauen Prozesse hinter der Entscheidungsfindung nicht nachvollziehbar sind. Das ergibt sich insbesondere durch unbeobachtbare Input-Output-Beziehungen. Solche Modelle sind oft sehr leistungsfähig und ermöglichen auch den Einsatz von KI in sehr komplexen Situationen mit hoher Nichtlinearität und Wechselwirkungen zwischen den Eingaben. Die geringe Erklärbarkeit birgt aber auch das Risiko, schlechte oder gar unethische Entscheidungen zu treffen. Whitebox-Modelle hingegen kennzeichnen sich durch beobachtbare und verständliche Verhaltensweisen. Im Wesentlichen ist die Beziehung zwischen den zum Trainieren des Modells verwendeten Daten und dem Modellergebnis erklärbar. Im Vergleich zu Blackbox-Modellen sind sie aber oft nicht so leistungsfähig wie Black-Box-Modelle.

Insbesondere für Versicherungsunternehmen ist es essentiell zu verstehen, wie sie Risiken einschätzen und wie und warum bestimmte Preise angeboten werden, damit sie die richtigen strategischen Entscheidungen treffen können. Dies ist umso wichtiger, da die Wettbewerbsintensität zwischen den Versicherungsunternehmen zugenommen hat und Kunden einfacher wechseln können. Als Beispiel: Ein Versicherungsunternehmen, das Kfz-Versicherungen anbietet, muss eine Entscheidung über die Preisgestaltung für die einzelnen Marktsegmente treffen. Um wettbewerbsfähig zu bleiben, kann es von den traditionellen linearen Regressionsmodellen abrücken und andere Arten von maschinellen Lernansätzen nutzen.

Dafür müssen jedoch die zugrundeliegenden Modelle verständlich sein, um bestimmte Szenarien den Kunden erklären und gegenüber der zuständigen Marktaufsichtsbehörde eine Nachvollziehbarkeit gewährleisten zu können.”

Neue Regularien für Whitebox-Modelle: Anpassungen von KI-Modellen auch bei Versicherern notwendig

Besonders riskant wird der Einsatz von Künstlicher Intelligenz für die Versicherungsbranche aber vor allem dann, wenn Entscheidungen getroffen werden, die dazu geeignet sind, Menschen potenziell zu diskriminieren. Stichpunkt: Beurteilung der Kreditwürdigkeit. Die neuen Regulierungen der Europäischen Union für den Einsatz von Künstlicher Intelligenz verschärfen diese Problematik zusätzlich und warten mit ganz neuen Anforderungen auf. Obwohl diese Regularien noch von Europäischem Rat und Europäischem Parlament abgesegnet werden müssen und voraussichtlich erst 2022 in Kraft treten werden, sollten sich Versicherungsunternehmen bereits heute mit den Änderungen auseinandersetzen.

Hintergrund der neuen Regelungen ist eine Klassifizierung von KI-Anwendungen in vier Risikoklassen, bei dem “risikoreiche” Systeme besonders strengen Anforderungen unterliegen und weniger risikoreiche Systeme freiwilligen Regelungen unterliegen könnten, die auf denselben Grundsätzen beruhen. Für Versicherungsunternehmen relevante Systeme, beispielsweise solche, die zur Bewertung der Kreditwürdigkeit eingesetzt werden, fallen in die sogenannte Gruppe der „Hochrisikosysteme“.

Die Folge:

Solche Systeme müssen seitens der Unternehmen durch wesentlich robustere Rahmenwerke unterstützt werden. Diese betreffen neben Risikomanagement oder der Gewährleistung der Datenqualität auch die Aufzeichnungen und die Protokollierung von Aktivitäten sowie die Transparenz über die Merkmale, Fähigkeiten und Grenzen des Systems.”

Die Verwendung von intransparenten Blackbox-Modellen wird unter diesen Gegebenheiten sehr viel problematischer. Gerade die geforderte Transparenz ist nur schwer mit der mangelnden Erklärbarkeit von Blackbox-Modellen vereinbar.

Höhere Transparenz bei hochrisikoreichen Systemen

Autor Paul-Marie Carfantan, Dataiku
Paul-Marie Carfantan ist Experte für AI Governance und Responsible AI bei der Enterprise-AI Plattform Dataiku (Webseite). Als AI Governance Solution Manager arbeitet er daran, Herausforderungen im Zusammenhang mit der Skalierung von Künstlicher Intelligenz auf kontrollierte und verantwortungsvolle Weise zu bewältigen. Er ist Co-Leiter der Arbeitsgruppe “Verantwortungsvolle KI” bei der Non-Profit-Organisation Impact AI, die sich auf den Austausch und die Dokumentation verantwortungsvoller KI-Praktiken konzentriert.

Für Versicherer bedeutet das nicht, dass Blackbox-Modelle mit Inkrafttreten der Regularien generell verboten werden. Vielmehr werden sich die Anforderungen je nach Risikoniveau der einzelnen Modelle unterschiedlich ausprägen. Die Nutzung von Blackbox-Modellen zur Bewertung der Kreditwürdigkeit von Kunden stünde somit stark in Diskussion, während Anwendungen, die als gering oder minimal riskant eingeschätzt werden, auch nach wie vor einer gewissen Erklärbarkeit der Ergebnisse entbehren können. Dennoch bleibt zu erwarten, dass der EU-Rahmen allmählich das Bewusstsein für die Bedeutung von Erklärbarkeit und KI-Modell-Governance schärfen wird – ähnlich wie die DSGVO als Katalysator für die Stärkung der Bedeutung der Verwaltung personenbezogener Daten gedient hat.

Ein weiterer Vorteil: Finanz- und Versicherungsunternehmen sind es gewohnt, mit risikobezogenen Anforderungen an Modelle umzugehen. Sie werden ihre bestehenden Verfahren weitgehend nutzen können und sie im Lichte dieser neuen Anforderungen, die noch nicht vollständig geklärt sind, überprüfen müssen. Gleichzeitig gibt es ihnen auch die Möglichkeit, proaktiv zu handeln und die Vertrauenswürdigkeit von KI in den Vordergrund ihrer Markenreputationsprogramme zu rücken. Für andere Branchen, die heute noch nicht über einen Rahmen für das Modellrisikomanagement verfügen, dürfte der Weg zur Einhaltung der Vorschriften steiler sein, und sie werden sowohl ihren Modellumfang prüfen als auch den allgemeinen Rahmen einführen müssen.

Von der Blackbox zur Whitebox: So wird KI erklärbarer

Um die Erklärbarkeit in Passgenauigkeit mit den Vorhaben des Versicherungsunternehmens zu gewährleisten, können in den verschiedenen Phasen der Modellentwicklung unterschiedliche Kontrollen durchgeführt werden. Während solche Schritte in der Modellentwicklungsphase von zentraler Bedeutung sind, ist es in Anbetracht der besonderen Beschaffenheit von Modellen des maschinellen Lernens und ihrer Fähigkeit, abzudriften, von entscheidender Bedeutung, solche Kontrollen während des gesamten Modelllebenszyklus durchzuführen. Zu den Kontrollen gehört unter anderem die Abweichung des Trainingsdatensatzes im Vergleich zur Realität des Geschäftsereignisses. Darüber hinaus sollte man prüfen, wie sich das Modell allgemein und bei Teilpopulationen im Vergleich verhält, um große Abweichungen zu vermeiden.

Die Erklärbarkeit von Künstlicher Intelligenz ist immer ein Mix aus Techniken, Werkzeugen und Ansätzen.”

Die Verwendung von Marktstandardtechniken wie ICE und Shapley spielt eine Schlüsselrolle. Noch wichtiger ist jedoch ein kollaborativer Ansatz bei der Modellbildung, der nachweislich in der Lage ist, bei der Modellanpassung und -validierung die Perspektive mehrerer Interessengruppen einzubeziehen. Das gewährleistet, dass die verschiedenen Instrumente, die für die Steigerung der Transparenz der Whitebox-Modelle zuständig sind, diese Perspektiven abdecken und gleichzeitig eine Verantwortung im Team entsteht. Versicherer, die beim Einsatz von Künstlicher Intelligenz bereits jetzt erste Schritte hin zu einer höheren Erklärbarkeit gehen, werden ihre Modelle dann auch nach Einführung der neuen Regularien weiterhin nutzen können.Paul-Marie Carfantan, Dataiku

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert