DEFAULT7. Juli 2022

Automatisierte Vorurteile vermeiden: Der Weg zur ethischen KI bei Banken und Versicherern

. Mit dem Siegeszug der künstlichen Intelligenz ist die Frage nach der Qualität ihrer Resultate verbunden. Weil die statistischen Modelle am menschlichen Verhalten trainiert werden und unsere gesellschaftliche Wirklichkeit spiegeln, können menschliche Vorurteile unabsichtlich Eingang in Ka I Systeme finden. Finanzinstitute, die Ka I nutzen, müssen heute Reputationsrisiken vorbeugen und sich für regulatorische Anforderungen wappnen. Die folgenden Empfehlungen zeigen den Weg zu einer „ethischen Ka I “. von Gery Zollinger, Head of Data Science & Analytics bei Avaloq. Ka I Systeme sind fähig, zahlreiche Aufgaben eines Finanzinstituts zu automatisieren und zu standardisieren. Nur besteht die Gefahr, dass sie dabei menschliche Vorurteile weitertragen. Fünf Schritte, damit Ihre Ka I Vorurteile vermeidet:. Erstens: Problembewusstsein schaffen!. . Schon bei der Ausgestaltung der Ka I Modelle und der Definition der Parameter, die das Modell heranziehen soll, wird unter Umständen eine Voreingenommenheit in der Ka I verankert. Dies kann sich auf eine Ka I gestützte Vorauswahl der geeigneten Bewerber im HR Bereich ebenso auswirken wie auf das Kreditrating eines neuen Bankkunden. Eine Ka I kann sich systematisch und standardisiert irren, auf unethische Weise. . In solch einem Fall erwächst für eine Bank nicht nur ein gravierendes Reputationsrisiko, sie ignoriert mitunter auch relevante Geschäftsmöglichkeiten. Denn nicht nur den Kunden entstehen durch falsche Kreditratings oder unzutreffende Anlageempfehlungen wirtschaftliche Nachteile, auch dem Finanzinstitut selbst entgehen Umsätze. Dabei gilt für Ka I Algorithmen dasselbe wie für alle statistischen Modelle, das Problem der Regression zum Durchschnitt stellt sich auch hier. Individuelle Besonderheiten der zu beurteilenden Fälle verliert das Modell dann immer mehr aus dem Blick. . Zweitens: Den kommenden „AI Act“ schon jetzt erfüllen!. . Ein weiterer Faktor für das wachsende Bewusstsein in Sachen ethischer Ka I sind die Regulierungspläne der Europäischen Gemeinschaft. Die EU Kommission hat ihren Regulierungsvorschlag, den „Artificial Intelligence Act“ (AI Act), bereits im April 2021 vorgelegt. Der Vorschlag postuliert sieben zentrale Anforderungen an Ka I Systeme. Ka I Systeme sollen den Menschen helfen, fundierte Entscheidungen zu treffen, müssen aber zugleich angemessen kontrollierbar sein.Technische Robustheit und Sicherheit stehen ebenso auf der Agenda der Regulatoren wie angemessene Datenschutz- und Governance Mechanismen, die Datenqualität und -integrität sicherstellen.”Auf welche Daten, Systeme und Geschäftsmodelle sich der Ka I Einsatz erstreckt, soll stets transparent sein. Vielfalt, Nicht Diskriminierung und Fairness müssen aus Sicht der EU Kommission ebenso garantiert sein wie die Nachhaltigkeit und Umweltfreundlichkeit der Ka I Systeme. Last but not least: Der AI Act verlangt, dass Ka I Lösungen rechenschaftspflichtig und überprüfbar sind. Zudem unterscheidet der Regulierungsvorschlag Ka I Lösungen grundsätzlich nach ihrem Risikopotenzial: von minimal über stark bis unannehmbar. Letztere will die Kommission komplett verbieten, weil sie menschliche Grundrechte gefährden können. . Drittens: Risikoniveau des konkreten Ka I Einsatzes!. . Um den Einsatz einer stets ethischen Ka I zu gewährleisten, müssen Finanzinstitute sich zunächst Klarheit über den Risikograd all ihrer Ka I Systeme verschaffen. Besonderes Augenmerk brauchen anschließend die Lösungen mit starkem Risiko. Die erste Frage ist also, in welchem Bereich das Ka I System genutzt wird. Soll die Ka I helfen, die Kredit- oder Compliance Risiken eines konkreten Geschäfts beziehungsweise eines individuellen Kunden zu bewerten, sind die Folgen automatisierter Vorurteile potenziell gravierend und das Risiko entsprechend hoch. Anders sieht dies aus, wenn die Ka I nur den Beratungsprozess unterstützt, etwa in Gestalt eines Chatbots für Retailkunden oder eines virtuellen Assistenten für die Berater von vermögenderen und (U)HNW Kunden.Wichtig ist zudem, wie Menschen die Ergebnisse der Ka I letztlich konsumieren.”Mitunter kann es sich gerade für kleinere Finanzinstitute ohne umfassendes Data Science Team als unmöglich erweisen, bei Ka I Systemen, die sie on prem (in der eigenen Ai Tieh Umgebung) betreiben, für die gebotene Kontrolle zu sorgen. Wenn beispielsweise eine Ka I Lösung mittels Natural Language Processing (NLP) kundenindividuell Markt- und Wirtschaftsnachrichten zusammenstellt, die für Anlageentscheidungen relevant sind und den Beratern Kommunikationsanlässe liefern, gibt es bei einem isolierten Betrieb vor Ort kaum eine Möglichkeit der Qualitätskontrolle. Ka I Systeme mit tendenziell moderatem Risiko wie virtuelle Assistenten im Software ähsa-Service Modell zu beziehen, ist dann oft sinnvoller. Dagegen kann es sich bei Ka I Systemen, die sehr nah am Kerngeschäft eines Finanzinstituts sind, wie etwa Recommendation Engines oder Kreditratings, lohnen, sie in eigener Regie zu entwickeln und sie selbst auf ihre Zuverlässigkeit und ethische Unbedenklichkeit hin zu monitoren. . Viertens: Modelle mit individuell geeigneten KPIs überwachen!. . Schon in der Entwicklungsphase für das intelligente, Ka I gestützte System stellt ein Finanzinstitut die Weichen in Sachen Vorurteilsfreiheit. Sinnvoll ist darum ein technisches Framework, das ein konsequentes Monitoring der Ergebnisse der Ka I ebenso vorsieht wie Alerts bei problematischen Entwicklungen. Der Data Scientist muss also bereits bei der Entwicklung des Modells die Key Performance Indicators (KPIs) festlegen. KPIs, anhand derer das Modell überwacht werden sollte, sind typischerweise ethisch sensitive Parameter des Kunden. Dazu zählen Variablen wie etwa Geschlecht, Sprache oder Nationalität. Auch auf Attribute, die eine hohe Korrelation zu den offensichtlich sensitiven Variablen aufweisen, sollten Finanzinstitute im Sinne einer ethischen Ka I verzichten. Bereits während der Modellentwicklung ist zu definieren, welche Vorhersagegenauigkeit man von den KPIs der neuen Ka I erwartet. Bei einer Qualitätskennzahl wie dem Geschlecht des Kunden kann man beispielsweise von einer 50 50 Verteilung ausgehen und ein statistisches Konfidenzintervall von plus oder minus 15 Prozent zugrundelegen. Weicht das Modell mit der Zeit von der erwarteten Genauigkeit ab, muss das Data Science Team handeln. Unter Umständen liegt eine Drift, eine Veränderung in den zugrundeliegenden Daten vor. Mitunter ist es dann notwendig, das Ka I Modell nicht nur anzupassen, sondern es völlig neu zu konzipieren. . Fünftens: Auch ML Modelle brauchen manuelles Training!. . Bei einem Machine Learning Algorithmus unterscheidet man grundsätzlich zwei Phasen: Learning und Running. Momentan ist die erste, die Learning Phase, ein noch manueller Prozess, bei dem das Design des Algorithmus und die Input Parameter aufgrund eines „Training Set“ definiert werden. Anders gesagt: Der Mensch lernt den Algorithmus an. Dieser kann dadurch beispielsweise erkennen, dass erstens ein hohes Haushaltseinkommen ein tiefes Kreditrisiko darstellt und dass zweitens ein Sternzeichen keinen Einfluss auf die Kreditwürdigkeit hat. In der zweiten Phase, dem Running, wird der Algorithmus dann vollautomatisch eingesetzt. . Der ML Algorithmus wird dabei zwar auf völlig neue Daten und Kunden angewendet, er behält aber sein ursprünglich antrainiertes Design. In unserem Beispiel würde der Algorithmus bei einem neuen Kunden mit einem Haushaltsjahreseinkommen von 18.000 Euro also in jedem Fall ein hohes Ausfallrisiko evaluieren. Selbst wenn dieser Kunde über ein Sparkapital von 2Millionen Euro verfügte, hätte dies keinen Einfluss auf die Bewertung, weil wir den Algorithmus nur auf Einkommen und Sternzeichen trainiert haben.Fälschlicherweise wird diese zweite Phase, das Running des ML Algorithmus, oft als „Self Learning“ bezeichnet. Hier bleibt ein kontinuierliches Monitoring der Resultate wichtig.”Denn falls sich die definierten Modell KPIs wie etwa Genauigkeit (Precision), Trefferquote (Recall) oder auch ethische KPIs, etwa die relative Anzahl abgelehnter Kreditentscheide für ein Geschlecht, deutlich verändern, ist es erforderlich, den ML Algorithmus erneut manuell zu trainieren. Bei Kreditrisiko Modellen kann man davon ausgehen, dass dies meist alle zwei bis drei Jahre geschehen sollte, bei ML Modellen mit vielen Datenattributen und komplexen Algorithmen auch häufiger. Fazit: Nicht die Ka I entscheidet, sondern Menschen!. . Für Finanzinstitute ist eine ethische Ka I aus drei Gründen unverzichtbar: um Reputationsrisiken vorzubeugen, um für kommende regulatorische Vorgaben gewappnet zu sein und um Umsatzpotenziale auszuschöpfen. Dazu muss das Institut kontinuierlich überwachen, ob sein Ka I Modell noch so vorurteilsfrei ist, wie es bei seiner Entwicklung intendiert war. Zur Umsetzung des Transparenz- und Monitoring Gebots sehen einige Anbieter von Ka I Systemen bereits Dashboards und Alerts vor, mit denen die Data Scientists die ethisch relevanten KPIs stets im Blick behalten. Auch ein Freigabeprozess für neue Ka I Modelle mit starkem Risiko kann sinnvoll sein.Denn es ist ein Axiom der ethischen Ka I, dass eine Ka I selbst keine moralischen Urteile fällen kann. Am Ende haben immer Menschen darüber zu entscheiden, ob eine Ka I den ethischen Anforderungen noch genügt.”Noch mehr Informationen über ethische Ka I in der Finanzbranche hält Avaloq in seinem aktuellen Report bereit.Sie hörten einen Beitrag von “Gery Zollinger, Avaloq”

 
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/143329
 
 

 

Experte für ethische KI: Gery Zollinger, Avaloq
Gery Zollinger, AvaloqAvaloq

Mit dem Siegeszug der künstlichen Intelligenz ist die Frage nach der Qualität ihrer Resultate verbunden. Weil die statistischen Modelle am menschlichen Verhalten trainiert werden und unsere gesellschaftliche Wirklichkeit spiegeln, können menschliche Vorurteile unabsichtlich Eingang in KI-Systeme finden. Finanzinstitute, die KI nutzen, müssen heute Reputationsrisiken vorbeugen und sich für regulatorische Anforderungen wappnen. Die folgenden Empfehlungen zeigen den Weg zu einer „ethischen KI“.

 von Gery Zollinger, Head of Data Science & Analytics bei Avaloq

KI-Systeme sind fähig, zahlreiche Aufgaben eines Finanzinstituts zu automatisieren und zu standardisieren. Nur besteht die Gefahr, dass sie dabei menschliche Vorurteile weitertragen. Fünf Schritte, damit Ihre KI Vorurteile vermeidet:

1. Problembewusstsein schaffen

Schon bei der Ausgestaltung der KI-Modelle und der Definition der Parameter, die das Modell heranziehen soll, wird unter Umständen eine Voreingenommenheit in der KI verankert. Dies kann sich auf eine KI-gestützte Vorauswahl der geeigneten Bewerber im HR-Bereich ebenso auswirken wie auf das Kreditrating eines neuen Bankkunden. Eine KI kann sich systematisch und standardisiert irren, auf unethische Weise.

Avaloq

In solch einem Fall erwächst für eine Bank nicht nur ein gravierendes Reputationsrisiko – sie ignoriert mitunter auch relevante Geschäftsmöglichkeiten. Denn nicht nur den Kunden entstehen durch falsche Kreditratings oder unzutreffende Anlageempfehlungen wirtschaftliche Nachteile, auch dem Finanzinstitut selbst entgehen Umsätze. Dabei gilt für KI-Algorithmen dasselbe wie für alle statistischen Modelle – das Problem der Regression zum Durchschnitt stellt sich auch hier. Individuelle Besonderheiten der zu beurteilenden Fälle verliert das Modell dann immer mehr aus dem Blick.

2. Den kommenden „AI Act“ schon jetzt erfüllen

Ein weiterer Faktor für das wachsende Bewusstsein in Sachen ethischer KI sind die Regulierungspläne der Europäischen Gemeinschaft. Die EU-Kommission hat ihren Regulierungsvorschlag, den „Artificial Intelligence Act“ (AI Act), bereits im April 2021 vorgelegt. Der Vorschlag postuliert sieben zentrale Anforderungen an KI-Systeme. KI-Systeme sollen den Menschen helfen, fundierte Entscheidungen zu treffen, müssen aber zugleich angemessen kontrollierbar sein.

Technische Robustheit und Sicherheit stehen ebenso auf der Agenda der Regulatoren wie angemessene Datenschutz- und Governance-Mechanismen, die Datenqualität und -integrität sicherstellen.”

Auf welche Daten, Systeme und Geschäftsmodelle sich der KI-Einsatz erstreckt, soll stets transparent sein. Vielfalt, Nicht-Diskriminierung und Fairness müssen aus Sicht der EU-Kommission ebenso garantiert sein wie die Nachhaltigkeit und Umweltfreundlichkeit der KI-Systeme. Last but not least: Der AI Act verlangt, dass KI-Lösungen rechenschaftspflichtig und überprüfbar sind. Zudem unterscheidet der Regulierungsvorschlag KI-Lösungen grundsätzlich nach ihrem Risikopotenzial: von minimal über stark bis unannehmbar. Letztere will die Kommission komplett verbieten, weil sie menschliche Grundrechte gefährden können.

3. Risikoniveau des konkreten KI-Einsatzes

Um den Einsatz einer stets ethischen KI zu gewährleisten, müssen Finanzinstitute sich zunächst Klarheit über den Risikograd all ihrer KI-Systeme verschaffen. Besonderes Augenmerk brauchen anschließend die Lösungen mit starkem Risiko. Die erste Frage ist also, in welchem Bereich das KI-System genutzt wird. Soll die KI helfen, die Kredit- oder Compliance-Risiken eines konkreten Geschäfts bzw. eines individuellen Kunden zu bewerten, sind die Folgen automatisierter Vorurteile potenziell gravierend und das Risiko entsprechend hoch. Anders sieht dies aus, wenn die KI nur den Beratungsprozess unterstützt, etwa in Gestalt eines Chatbots für Retailkunden oder eines virtuellen Assistenten für die Berater von vermögenderen und (U)HNW-Kunden.

Wichtig ist zudem, wie Menschen die Ergebnisse der KI letztlich konsumieren.”

Autor Gery Zollinger, Avaloq
Experte für ethische KI: Gery Zollinger, AvaloqGery Zollinger ist Head of Data Science & Analytics bei Avaloq (Webseite), Anbieter von digitalen Banking-Lösungen, und seit mehr als zehn Jahren im Bereich Analytics und quantitative Modellierung tätig. Das Unternehmen bietet seine Kernbankenplattform und Vermögensverwaltungstechnologie in Form von Software as a Service- (SaaS) und On-Premises-Modellen an. Die Business Process as a Service-Lösung (BPaaS) von Avaloq bietet einen hohen Automatisierungsgrad, um die Effizienz im Backoffice zu steigern. Davor arbeitete Gerry Zollinger bei Credit Suisse im globalen Credit Risk Analytics Team und war dort für die Kreditrisikomodellierung innerhalb der Abteilungen Private Banking und Investment Banking verantwortlich. Zudem hat er ein globales Data Scientist Team im Bereich Compliance Analytics aufgebaut und geleitet. Gery Zollinger verfügt über Abschlüsse in Wirtschaft & Statistik der Universität Zürich (Schweiz), der Universität Lausanne (Schweiz) und der NHH Bergen (Norwegen) sowie einen Abschluss in Informatik der ETH Zürich (Schweiz).
Mitunter kann es sich gerade für kleinere Finanzinstitute ohne umfassendes Data-Science-Team als unmöglich erweisen, bei KI-Systemen, die sie on-prem (in der eigenen IT-Umgebung) betreiben, für die gebotene Kontrolle zu sorgen. Wenn beispielsweise eine KI-Lösung mittels Natural Language Processing (NLP) kundenindividuell Markt- und Wirtschaftsnachrichten zusammenstellt, die für Anlageentscheidungen relevant sind und den Beratern Kommunikationsanlässe liefern, gibt es bei einem isolierten Betrieb vor Ort kaum eine Möglichkeit der Qualitätskontrolle. KI-Systeme mit tendenziell moderatem Risiko wie virtuelle Assistenten im SaaS-Modell zu beziehen, ist dann oft sinnvoller. Dagegen kann es sich bei KI-Systemen, die sehr nah am Kerngeschäft eines Finanzinstituts sind – wie etwa Recommendation Engines oder Kreditratings – lohnen, sie in eigener Regie zu entwickeln und sie selbst auf ihre Zuverlässigkeit und ethische Unbedenklichkeit hin zu monitoren.

4. Modelle mit individuell geeigneten KPIs überwachen

Schon in der Entwicklungsphase für das intelligente, KI-gestützte System stellt ein Finanzinstitut die Weichen in Sachen Vorurteilsfreiheit. Sinnvoll ist darum ein technisches Framework, das ein konsequentes Monitoring der Ergebnisse der KI ebenso vorsieht wie Alerts bei problematischen Entwicklungen. Der Data Scientist muss also bereits bei der Entwicklung des Modells die Key Performance Indicators (KPIs) festlegen. KPIs, anhand derer das Modell überwacht werden sollte, sind typischerweise ethisch sensitive Parameter des Kunden. Dazu zählen Variablen wie etwa Geschlecht, Sprache oder Nationalität. Auch auf Attribute, die eine hohe Korrelation zu den offensichtlich sensitiven Variablen aufweisen, sollten Finanzinstitute im Sinne einer ethischen KI verzichten.

Bereits während der Modellentwicklung ist zu definieren, welche Vorhersagegenauigkeit man von den KPIs der neuen KI erwartet. Bei einer Qualitätskennzahl wie dem Geschlecht des Kunden kann man beispielsweise von einer 50-50-Verteilung ausgehen und ein statistisches Konfidenzintervall von plus oder minus 15 Prozent zugrundelegen. Weicht das Modell mit der Zeit von der erwarteten Genauigkeit ab, muss das Data-Science-Team handeln. Unter Umständen liegt eine Drift, eine Veränderung in den zugrundeliegenden Daten vor. Mitunter ist es dann notwendig, das KI-Modell nicht nur anzupassen, sondern es völlig neu zu konzipieren.

5. Auch ML-Modelle brauchen manuelles Training

Bei einem Machine-Learning-Algorithmus unterscheidet man grundsätzlich zwei Phasen: Learning und Running. Momentan ist die erste, die Learning-Phase, ein noch manueller Prozess, bei dem das Design des Algorithmus und die Input-Parameter aufgrund eines „Training Set“ definiert werden. Anders gesagt: Der Mensch lernt den Algorithmus an. Dieser kann dadurch beispielsweise erkennen, dass erstens ein hohes Haushaltseinkommen ein tiefes Kreditrisiko darstellt und dass zweitens ein Sternzeichen keinen Einfluss auf die Kreditwürdigkeit hat. In der zweiten Phase, dem Running, wird der Algorithmus dann vollautomatisch eingesetzt.

Avaloq

Der ML-Algorithmus wird dabei zwar auf völlig neue Daten und Kunden angewendet, er behält aber sein ursprünglich antrainiertes Design. In unserem Beispiel würde der Algorithmus bei einem neuen Kunden mit einem Haushaltsjahreseinkommen von 18.000 Euro also in jedem Fall ein hohes Ausfallrisiko evaluieren. Selbst wenn dieser Kunde über ein Sparkapital von 2 Millionen Euro verfügte, hätte dies keinen Einfluss auf die Bewertung, weil wir den Algorithmus nur auf Einkommen und Sternzeichen trainiert haben.

Fälschlicherweise wird diese zweite Phase, das Running des ML-Algorithmus, oft als „Self-Learning“ bezeichnet. Hier bleibt ein kontinuierliches Monitoring der Resultate wichtig.”

Denn falls sich die definierten Modell-KPIs wie etwa Genauigkeit (Precision), Trefferquote (Recall) oder auch ethische KPIs – etwa die relative Anzahl abgelehnter Kreditentscheide für ein Geschlecht – deutlich verändern, ist es erforderlich, den ML-Algorithmus erneut manuell zu trainieren. Bei Kreditrisiko-Modellen kann man davon ausgehen, dass dies meist alle zwei bis drei Jahre geschehen sollte, bei ML-Modellen mit vielen Datenattributen und komplexen Algorithmen auch häufiger.

Fazit: Nicht die KI entscheidet, sondern Menschen

Für Finanzinstitute ist eine ethische KI aus drei Gründen unverzichtbar: um Reputationsrisiken vorzubeugen, um für kommende regulatorische Vorgaben gewappnet zu sein und um Umsatzpotenziale auszuschöpfen. Dazu muss das Institut kontinuierlich überwachen, ob sein KI-Modell noch so vorurteilsfrei ist, wie es bei seiner Entwicklung intendiert war. Zur Umsetzung des Transparenz- und Monitoring-Gebots sehen einige Anbieter von KI-Systemen bereits Dashboards und Alerts vor, mit denen die Data Scientists die ethisch relevanten KPIs stets im Blick behalten. Auch ein Freigabeprozess für neue KI-Modelle mit starkem Risiko kann sinnvoll sein.

Denn es ist ein Axiom der ethischen KI, dass eine KI selbst keine moralischen Urteile fällen kann. Am Ende haben immer Menschen darüber zu entscheiden, ob eine KI den ethischen Anforderungen noch genügt.”

Noch mehr Informationen über ethische KI in der Finanzbranche hält Avaloq in seinem aktuellen Report bereit.Gery Zollinger, Avaloq

 
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/143329
 
 

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.