STRATEGIE2. August 2023

Legacy-IT und heterogene IT-Landschaften: Entscheidend ist ein effektives Datenmanagement

Legacy-IT und heterogene IT-Landschaften: Entscheidend ist ein effektives Datenmanagement
Intersystems

Modernes Datenmanagement und eine erklärbare Künstliche Intelligenz (XAI) sind für Banken und Versicherer nicht mehr verhandelbar. Im Interview betont Tom Hartung (InterSystems) die Herausforderungen durch heterogene IT-Landschaften und Legacy-IT.

Herr Hartung, der Konkurrenz- und Modernisierungsdruck auf traditionelle Banken ist ja enorm. Liegt das an der gestiegenen Erwartungshaltung durch moderne Apps und GAFAs?

Meiner Meinung nach hängt der steigende Modernisierungsdruck vor allem mit den veralteten IT-Architekturen zusammen, die wir in vielen traditionellen Banken noch sehen.

Dadurch wird der Zugriff auf Daten in Echtzeit erschwert, und es entstehen Datensilos, die es verhindern, Informationen gezielt zu nutzen. Hinzu kommt der Fachkräftemangel:

IT-Experten, die sich mit den alten Systemen noch auskennen und die entsprechenden Programmiersprachen beherrschen, sind rar geworden.”

Viele von ihnen gehen in Rente. Aber natürlich kommt der Veränderungsdruck auf die etablierten Geldhäuser auch von Seiten der sogenannten Neobanken. Mit ihren kostengünstigen Angeboten und nutzerfreundlichen Apps können sie gerade bei jüngeren Zielgruppen punkten.

Es heißt, dass die Gesamtbanksteuerung für Finanzinstitute bei ihrer Modernisierung zentral zu sei. Aber wäre es nicht viel wichtiger, die Kunden-Frontends attraktiver zu gestalten?

Natürlich ist ein attraktives Kunden-Frontend wichtig, sowohl um Bestandskunden an sich zu binden als auch, um neue, jüngere Kunden zu gewinnen.

Die Gesamtbanksteuerung ist existenziell – nur damit kann ein Geldhaus auf Dauer überleben.”

Daher ist es entscheidend, dass sich zentrale Aspekte wie die finanzielle Situation, die Kundenabwanderungsrate oder die Risikogewichtung jederzeit schnell aus den Daten abrufen lassen. Damit die Bank die richtige Balance zwischen Gewinnchancen und Risiken halten kann, müssen die richtigen Daten unmittelbar verfügbar sein – etwa um zu erkennen, ob sie überlebensfähig bleibt, wenn ein bestimmter Anteil der Kunden abwandert.

Woran hapert es bei den Finanzinstituten mit Blick auf ihre IT aus Ihrer Sicht derzeit am meisten?

Das größte Problem sind meiner Meinung nach die vielerorts sehr heterogenen IT-Landschaften, die durch Zukäufe und organisches Wachstum sowie durch den Weiterbetrieb von Altsystemen entstanden sind. Sie begünstigen Inkompatibilitäten und die Entstehung von Datensilos.

In vielen Finanzunternehmen sind die Daten über verschiedene Abteilungen verstreut. Kurzfristig die jeweils relevanten Informationen zusammenzustellen, ist damit kaum möglich.”

Eine Risikobewertung beispielsweise kann unter Umständen mehrere Wochen dauern. Dann ist ein großer Teil der Ergebnisse wieder veraltet. Ein weiteres Hindernis besteht darin, dass vielerorts eine saubere Datenbasis fehlt. Dadurch sind Suchen, Identifizieren und Aufbereiten der Informationen extrem aufwändig.

Da hilft auch der Einsatz von KI nicht, denn selbst die besten Algorithmen können aus unvollständigen und unsauberen Daten keine brauchbaren Ergebnisse generieren.”

Was würde ein besseres Datenmanagement konkret bringen?

Mit einem effektiven Datenmanagement erhält die Bank eine umfassende und vollständige Übersicht über ihre wirtschaftliche Gesamtlage sowie über die Kundensituation. Außerdem verfügt sie damit über eine saubere und solide Datenbasis – eine wichtige Voraussetzung, um schnell belastbare Berichte und fundierte Analysen zu erstellen sowie KI erfolgreich zum Einsatz zu bringen.

Welche Risiken bietet eine moderne IT-Finanzarchitektur, die das Datenmanagement ins Zentrum stellt?

Auf dem Weg zu einem beziehungsweise bei einem datengetriebenen Unternehmen geht es ja darum, aus den vorhandenen Daten Mehrwerte zu schöpfen. Zum Beispiel durch Analysen dieser Daten.

Ein Risiko dieses Ansatzes besteht darin, dass Datenanalysen nicht korrekt sind, wenn sie auf fehlerhaften Modellen basieren.”

Zum Beispiel lassen sich mit einem falsch trainierten Vorhersagemodell keine genauen Prognosen aufstellen. Um solche Risiken zu reduzieren, ist die Wahl des richtigen Partners entscheidend. Der Lösungsanbieter sollte bereits eine Weile am Markt existieren, also über fundierte Erfahrung verfügen. Wichtig ist aber auch, dass der Partner qua Geschäftsmodell auf langfristige Kundenbeziehungen setzt. Denn smartes und besseres Datenmanagement ist ein Marathon, kein Sprint. Da kommt es auch auf einen guten Tempomacher an.

Und welche Vorteile bietet eine Gesamtbanksteuerung, zum Beispiel um das regulatorische Meldewesen leichter in den Griff zu bekommen?

Wenn die Gesamtbanksteuerung über eine solide Datenplattform funktioniert, lassen sich Daten mehrfach verwenden und sofort verfügbar machen. Die Bank kann also auf Vorgaben im Meldewesen schneller reagieren.

Für wesentlich wichtiger halte ich aber den Aspekt der Datenmonetarisierung.”

Zum Beispiel lassen sich mit einer KI-gestützten Gesamtbanksteuerung typische Muster der Kundenabwanderung aufzeigen und schnell geeignete Gegenmaßnahmen ergreifen.

Und womit sollten Finanzinstitute beginnen, um ihre Daten in Mehrwerte zu verwandeln?

Dazu fallen mir spontan zwei Dinge ein.

Zum einen sollten Finanzinstitute für eine entsprechende Datenkultur sorgen.”

Das bedeutet, dass jedem Mitarbeiter und jeder Mitarbeiterin klar ist, für welche Daten er oder sie verantwortlich ist, wie diese definiert sind, und wie und in welchem Rhythmus sie zu aktualisieren und zu pflegen sind. Das Verständnis für den Wert, den Daten heutzutage im Unternehmen darstellen, ist dabei sicher hilfreich.

Die zweite wichtige Grundlage ist eine saubere Datenbasis, auf der das Management und die Analyse von Daten aufsetzen können.”

Erschwert wird dies durch die immer noch häufig anzutreffenden „Spaghetti-Architekturen“ mit ihren heterogenen Formaten und Schnittstellen. Wer nicht die komplette IT-Landschaft austauschen will, sollte eine intelligente End-to-End-Entscheidungsplattform implementieren, die sich ohne Eingriff in die bestehende Infrastruktur quasi als Mantel über die verschiedenen Datentöpfe legt und diese miteinander verbindet. Damit lassen sich Daten unabhängig von deren Herkunft bedarfsgerecht extrahieren, normalisieren und an andere Lösungen weitergeben. Wenn diese Plattform dann noch Geschäftsprozesse orchestrieren kann und native Analysefunktionen mitbringt, sind die Voraussetzungen für eine smarte Datennutzung sehr gut.

Viele Finanzinstitute zögern, ihre Systeme und Daten in die Cloud zu verlagern, trotz offensichtlicher Vorteile. Ist ein Datenmanagement in der Cloud nicht sinnvoller?

Grundsätzlich ist Datenmanagement in der Cloud absolut zu empfehlen.”

Voraussetzung ist allerdings eine hybride Plattform, die alle relevanten Prozesse so integriert, dass kein weiterer Datentransfer erfolgen muss. Denn wenn eine Bank die Analysetools ihres Cloud-Anbieters nutzt, entstehen unter Umständen redundante Daten. Und vor allem die Übertragung der zu analysierenden Daten und der ausgewerteten Datensätze zwischen verschiedenen Systemen, die sogenannten ETL-Prozesse (Extract, Transfer, Load), verursachen hohe Zeitaufwände und Kosten. Das On-Premise-Modell ist dagegen für DSGVO-relevante Daten und Anwendungen wie Zahlungsverkehr und Kreditvergabe zu empfehlen.

Für Finanzinstitute bieten sich daher hybride Deployment-Modelle an, also der parallele Betrieb von On-Premise und Cloud.”

Wenn Sie die Entwicklung der Banksteuerung und des Datenmanagements in der Zukunft betrachten (besonders unter dem Gesichtspunkt AI und XAI): Wie wird die Technologie dazu in fünf Jahren aussehen?

Momentan redet fast jeder über künstliche Intelligenz. Aber die Vorstellungen, wie und wozu sie sich überhaupt sinnvoll verwenden lässt, sind vielerorts noch unklar. Zudem liegen Daten heute in wenigen Banken so strukturiert und konsolidiert vor, dass sie sich für aussagefähige Analysen nutzen lassen. Und für die meisten Häuser dürfte es noch mit einigem Aufwand verbunden sein, sie entsprechend aufzubereiten.

Meiner Meinung nach wird XAI, also Explainable Artificial Intelligence, Anwendern und Kunden die Sicherheit geben, ausreichend hinter das Analysemodell schauen zu können.”

Die Erklärung, auf welcher Basis die KI welche Entscheidung getroffen hat, kann hoffentlich auch das Misstrauen, das KI häufig noch entgegenschlägt, reduzieren oder vielleicht sogar beseitigen.

Herr Hartung, vielen Dank für das Interview.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert