Anzeige
STRATEGIE7. September 2021

Künstliche Intelligenz: ERGO entwickelt eine für die Versicherungsbranche re­vo­lu­tio­nä­re Plattform auf AWS

Wird Künstliche Intelligenz (KI) im Versicherungswesen richtig eingesetzt, kann sie die Entscheidungsfindung verbessern, die Effizienz der Abläufe steigern, und eine reibungslose Kundenbetreuung bieten. Allerdings setzen KI-Innovationen ein hohes Maß an Flexibilität bei der Datenintegration voraus. Das konnten die meisten der Legacy-Datenarchitekturen der ERGO Group nicht bieten. Die Anforderungen an interne Governance, Datenschutz und IT-Sicherheit erschwerten die Integration zusätzlich. Dieses Problem musste gelöst werden, um KI auf Unternehmensebene nutzen und auch sensible Daten in einer Cloud-Umgebung verwenden zu können.

von Piotr Klesta, Delivery Director und Mitglied des ERGO-Führungsteams &
Robert Meisner, Lead Product Owner der AI Factory bei ERGO &
Sid Singh, Amazon Web Services

Vor diesem Hintergrund entstand die Idee, ein zentrales System zu entwickeln, um in andere Kernanwendungen und damit auch in die Geschäftsprozesse von ERGO „Intelligenz“ zu implementieren. Die geplante Plattform sollte die Entwicklung, das Training und das Testen komplexer KI-Modelle unterstützen und die betriebliche Effizienz erhöhen. Letztlich ging es darum, den Daten-Teams durch die Plattform allgemein schwierige Aufgaben abzunehmen, sodass sie sich auf ihre Stärken konzentrieren können: das Analysieren von Daten und die Gewinnung neuer Erkenntnisse.

Aufbau der ERGO AI Factory zur Unterstützung von KI-Anwendungsfällen

So entstand die ERGO AI Factory auf Basis der AWS Cloud. Es handelt sich dabei um eine Compliance-konforme Plattform für das Ausführen produktionsreifer KI-Anwendungsfälle, die darüber hinaus eine flexible Umgebung für die Modellentwicklung und Modellprüfung bietet. Sie enthält folgende Funktionen und Dienste:

AI Factory-ImperativeAmazon Web Services
  • Compliance: Die Umsetzung von Sicherheitsmaßnahmen wie Authentifizierung, Verschlüsselung und das Least-Privilege-Prinzip zählte zu den obersten Prioritäten bei der Entwicklung der Plattform. Um die strengen bereichs- und geospezifischen Compliance-Anforderungen zu erfüllen, arbeiteten die Verantwortlichen eng mit den Sicherheitsteams zusammen.
  • Data Governance: Die Ermittlung der Datenherkunft und die tiefe Extraktion von Metadaten unterstützen die ordnungsgemäße Datenverwaltung und Nachvollziehbarkeit. Und die Anwender können sich dadurch besser in der komplexen Datenlandschaft zurechtfinden. Die entsprechenden Frameworks von ERGO enthalten sowohl Dienste von Drittanbietern als auch von AWS. Damit lassen sich technische sowie geschäftliche Metadaten erfassen und katalogisieren.
  • Datenspeicherung und -zugriff: AI Factory speichert Daten sicher und Compliance-konform im Amazon Simple Storage Service (S3). Zugriffsrechte werden nur Personen gewährt, die an den entsprechenden Projekten arbeiten. Die jeweiligen Rollen werden im Active Directory definiert.
  • Automatisierte Daten-Pipelines: Um eine flexible und robuste Datenintegrationslösung anbieten zu können, setzt ERGO auf eine ETL-Pipeline mit Apache Spark, Apache Airflow und Kubernetes-Pods. Diese lässt sich für die Entwicklung von KI-Modellen und die anschließende Datenaufbereitung für die Operationalisierung und Modellintegration nutzen.
  • Monitoring und Sicherheit: AI Factory stützt sich auf Open-Source-Cloud-Monitoring-Lösungen wie Grafana, um Sicherheitsbedrohungen und Anomalien zu erkennen. Diese Lösungen sammeln Service- und Anwendungsprotokolle, verfolgen Metriken und erzeugen Alarme.
  • Feedback-Schleife: Nach dem Speichern der Modelleingaben und -ausgaben werden das Verhalten und die Leistung produktiver KI-Modelle mithilfe von BI-Tools wie Amazon QuickSight verfolgt. Diese Informationen teilt ERGO mit Geschäftspartnern, um ihr Vertrauen in die KI zu stärken.
  • Entwicklerfreundliche Umgebung: Die Erstellung von KI-Modellen ist auf mobilen Endgeräten sowie in einer integrierten Entwicklungsumgebung möglich. Da die Daten-Teams eine Vielzahl von Frameworks und Bibliotheken für maschinelles Lernen (ML) verwenden, stellt AWS sicher, dass die Plattform erweiterbar und die Frameworks unabhängig bleiben. Unterstützt werden unter anderem Python/R, Apache Spark, PyTorch und TensorFlow. Prozesse im Rahmen von Continuous Integration (CI) und Continuous Development (CD) beschleunigen die Bereitstellung und senken die Fehlerrate.
  • Integration von Geschäftsprozessen: AI Factory bietet Dienste zur Integration von ML-Modellen in bestehende Geschäftsabläufe. Das ERGO-Team konzentriert sich vor allem auf die Standardisierung von Prozessen und die enge Zusammenarbeit mit geschäftlichen und technischen Stakeholdern. Das übergreifende Ziel besteht darin, das KI-Modell in kürzester Zeit zu operationalisieren und dabei hohe Qualitäts- und Sicherheitsstandards zu wahren.

Die Architektur der AI Factory

Die Architektur der Plattform basiert auf fünf Workflow-SchrittenAmazon Web Services
  1. Umgebung für die Datenerfassung: Hier werden die Informationen aus bekannten On-Premises-Datenquellen von ERGO übernommen. Ihre Batch- oder Delta-Übertragung an verschiedene Cloud-Ziele lässt sich mithilfe mehrerer mit Kubernetes gehosteten Microservices planen. Nach dem Einlesen werden die Daten als ERGO Data Lake auf Amazon S3 persistent gespeichert, katalogisiert und auf die Verarbeitung durch die Upstream-Umgebungen vorbereitet.
  2. Umgebung für die Modellentwicklung: Diese Umgebung wird hauptsächlich von Data Scientists und Data Engineers genutzt. Für die Datenaufbereitung, das Daten-Wrangling – also das Transformieren und Zuordnen in bestimmte Formate – das Experimentieren mit Vorhersagemodellen sowie für die Entwicklung auf Basis schneller Iterationen kommen Amazon EMR und Amazon SageMaker zum Einsatz.
  3. Umgebung für die Modell-Operationalisierung: In diesem Schritt werden die trainierten Modelle mit zufriedenstellenden KPIs, von der Modellentwicklung in die Operationalisierungsumgebung überführt und damit in bestehende Geschäftsprozesse integriert. Das Team konzentriert sich dabei auf die Einführung und Optimierung des Betriebs von Diensten und Algorithmen. Eine wesentliche Voraussetzung für die erfolgreiche Operationalisierung von Modellen ist die kontinuierliche Überwachung der Qualität der eingesetzten ML-Modelle mithilfe des „Feedback Loop Service“. Die Einbindung der KI-Modelle in Geschäftsabläufe wird mithilfe des von Kubernetes gehosteten „Model Service“ ermöglicht.
  4. Umgebung für Modelleinsichten: Hier werden die Informationen über Plattformleistung, Prozesse und Analysedaten angezeigt. Datenwissenschaftler prüfen anhand dieser Dienste, ob ein Modell unerwartete Verzerrungen oder Leistungsabweichungen aufweist. Rückmeldungen über den „Feedback Loop Service“ unterstützen sie dabei, Probleme schnell zu erkennen und das Modell neu zu trainieren.
  5. Shared-Services-Umgebung: Obwohl als fünfter Schritt des Workflows dargestellt, unterstützt die Shared-Services-Umgebung fast jeden Schritt des Prozesses. Sie bietet gemeinsame Komponenten für verschiedene Teile der Plattform, die CI/CD- und Orchestrierungsprozesse innerhalb der AI Factory verwalten. Zusätzliche Dienste wie Plattformprotokollierung und -überwachung, Authentifizierung und Metadaten-Management werden ebenfalls von der Shared-Services-Umgebung bereitgestellt.
Die Autoren: Piotr Klesta, Robert Meisner & Sid Singh
Piotr Klesta ist eine erfahrene Führungskraft mit umfassenden Managementkenntnissen, die er in großen Versicherungs-, Bank- und Technologieunternehmen erworben hat. Als Delivery Director und Mitglied des ERGO-Führungsteams entwickelt Piotr Klesta die Roadmap und leitet das Portfolio von Projekten und strategischen Initiativen im Bereich KI und Daten. Zuletzt leitete er den erfolgreichen Launch der AI Factory, führte neue Arbeitsweisen ein und baute Partnerschaften und leistungsstarke Teams auf.

Robert Meisner verfügt über mehr als 12 Jahre Erfahrung im Bereich InsurTech und ist Lead Product Owner der AI Factory bei ERGO. Robert Meisner bietet MLOps-Funktionen an, die die Zeit für die Datenintegration und -aufbereitung zugunsten der eigentlichen Data-Science-Arbeit reduzieren. Er ist davon überzeugt, dass zuverlässige KI schon bald zu einem geschäftlichen Muss werden wird, das Fairness, Verständlichkeit, Stabilität, Datenherkunft und Transparenz gewährleistet.

Experte für AWS: Sid SinghSid Singh ist Senior Solutions Architect bei Amazon Web Services (Webseite). Er arbeitet mit globalen Finanzdienstleistungskunden zusammen und verfügt über mehr als 10 Jahre Branchenerfahrung mit einer breiten Palette von Technologien. Außerhalb der Arbeit reist er gerne, ist ein begeisterter Feinschmecker und Liebhaber von bayerischem Bier.

Über die verschiedenen Subplattformen hinweg werden alle Bereitstellungs- und Implementierungsaktivitäten mithilfe von IaC-Verfahren (Infrastructure as Code) automatisiert. Dies reduziert das Potenzial für menschliche Fehler, erhöht die architektonische Flexibilität und beschleunigt die Softwareentwicklung sowie die infrastrukturbezogenen Abläufe erheblich.

Alle Komponenten der AI Factory werden in der AWS-Cloud ausgeführt und lassen sich nach Bedarf skalieren und anpassen. Die Verbindung zwischen Modellentwicklung und Operationalisierung erfolgt über klar definierte Schnittstellen, um eine unnötige Verknüpfung von Komponenten zu verhindern.

Lessons Learned

  1. Security first
  • Frühzeitige und häufige Abstimmung mit dem Sicherheitsteam;
  • Verstehen aller rechtlichen Verpflichtungen und Dokumentation als kritische, nicht-funktionale Anforderungen.
  1. Modularer Ansatz
  • Kombination moderner Data-Science-Technologie und professioneller IT mit einer funktionsübergreifenden, agilen Arbeitsweise;
  • Anwendung lose gekoppelter Dienste mit einem API-First-Ansatz.
  1. Data Governance
  • Nachverfolgung technischer Metadaten unter Berücksichtigung geschäftlicher Attribute;
  • Bestimmen der Dateneigentümerschaft in operativen Systemen, um vorgelagerte Data-Governance-Workflows abzubilden;
  • Erarbeiten von Lösungen für die Datenmaskierung, die erforderlich sind, wenn Informationen über Sub-Plattformen verschoben werden;
  • Definition von Zugriffsrechten und Berechtigungsgrenzen zwischen verschiedenen Personas.
  1. FinOps-Strategie
  • Sorgfältige Kontrolle der Plattformkosten;
  • Zuweisung von Verantwortlichkeiten für Überwachung und Kostenkontrolle;
  • Regelmäßiges Feedback an die Plattform-Stakeholder über Nutzungsmuster und damit verbundene Kosten.
  1. Zusammenarbeit mit dem AWS-Team

– Definition fester Zeiten für die Überprüfung der Architektur und die Aktualisierung neuer Funktionen;

– Planung von Cloud-Schulungen.

Die Zukunft der AI Factory

Die Entwicklung der AI Factory stellt einen wesentlichen Baustein der ERGO-Strategie dar und schafft die Voraussetzung zur Erstellung noch tiefer gehender Analysen. Dabei konzentriert sich das Team auf wichtige Anwendungsfälle, die einen besonders hohen Geschäftswert liefern.

Die Funktionen der AI Factory sollen erweitert und skaliert werden. Damit wird die Plattform auch für die internationalen ERGO-Tochtergesellschaften verfügbar.”

Geplant sind die Einrichtung einer „Drehscheibe für analytische Inhalte“, die auf automatischer Textextraktion basiert, eine verbesserte Umwandlung von Sprache in Text sowie die Entwicklung von Übersetzungsprozessen für alle unstrukturierten und semistrukturierten Daten mit Hilfe von AWS AI Services.Piotr Klesta (ERGO), Robert Meisner (ERGO) & Sid Singh (Amazon)

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert