Anzeige
STRATEGIE24. Februar 2022

Finanzunternehmen und Datenqualitätsstandards: Wie man bei einer Fusion Datenchaos vermeidet

Experte für Daten-Fusion: Axel Schmale
Axel Schmale, UniservUniserv

In den neuesten Nachrichten der Finanzbranche: das Berliner FinTech Fincompare wurde von vier Volksbanken, der DZ Bank und Atruvia übernommen. Vor einiger Zeit hat der US-Bezahldienst Paypal den japanischen Bezahlungsdienstleister Paidy gekauft und die Deutsche Bank hat den Berliner Bezahldienst Better Payment übernommen. Gerade in der Finanzwelt ist es nicht unüblich, dass Unternehmen fusionieren oder eine Fusion in Erwägung ziehen. Aktuell kann man von einer Konsolidierungsphase der Branche sprechen.

von Sebastian Krebs & Axel Schmale, Uniserv

Die Verschmelzung zweier (oder mehr) Firmen birgt jedoch einige Herausforderungen, etwa in Bezug auf vorhandene Prozesse, IT-Landschaften und Kundenbeziehungen. Es gilt, bestehende Infrastrukturen aller Seiten in eine gemeinsame Umgebung zu überführen. In Bezug auf die Kundschaft betrifft dies in erster Linie die Datenbanken, in denen Kunden- und Geschäftspartnerdaten, kurz Businesspartner-Daten, vorgehalten werden. Schnell muss beispielsweise mit doppelten oder mehrfach vorhandenen Datensätzen gerechnet werden, sofern nichts für die Konsolidierung der Daten getan wird. Unterschiedliche Datenqualitätsstandards sowie veraltete, unvollständige oder falsche Daten kommen hinzu.

Derart ungepflegte Bestände können nicht nur einen erheblichen finanziellen Schaden anrichten. Sie schädigen auch die Reputation und vermindern die Kundenloyalität.

Experte für Daten-Fusion: Sebastian Krebs
Sebastian Krebs, UniservUniserv

Können regulatorische und Compliance-Vorgaben nicht eingehalten werden, drohen empfindliche Bußgelder. Risikovorsorge, zum Beispiel nach BCBS 239, ist nur schwer oder gar nicht möglich. Ebenso wird die Marktansprache durch falsche Anschreiben und Rückläufer belastet. Werden Prozesse in Mitleidenschaft gezogen, beeinträchtigt das beispielsweise die Vertriebssteuerung. Aus diesen Konsequenzen heraus sind Unternehmen gut beraten, bei einer beschlossenen Fusion frühzeitig Spezialisten einzubeziehen und IT, Prozesse und Daten von Anfang an mitzudenken. Auch bereits vor einer Fusion kann ein genauer Blick hilfreich sein. Finanzinstitute können so besser abschätzen, ob die Zusammenführung überhaupt sinnvoll ist, etwa mit Blick auf die Anzahl potenzieller Neukunden.

Wie kommt es zum Datenchaos?

Über Uniserv
Uniserv (Webseite) ist Experte für Kundenstammdaten. Mit unseren Lösungen unterstützen wir Unternehmen, ihre Kunden zielgerichtet zu erreichen, zu analysieren und zu verstehen. So steigern unsere Kunden Wert und Nachhaltigkeit ihrer Kundenbeziehungen und optimieren ihre Business-Prozesse. Unser Portfolio umfasst vier Bausteine. Unsere Data-Quality-Lösungen sorgen für eine vollständige, valide, korrekte und erreichbare Datenbasis. Unsere Angebote rund um Identity Resolution sichern eindeutige, transparente und rechtskonforme Kundendaten. Mit dem Customer Data Hub entsteht die 360-Grad-Kundensicht als belastbare Grundlage für datengetriebene Prozesse und Anwendungen. Mit unserer Beratungskompetenz im Consulting realisieren wir Customer-Data Governance- Projekte und machen Unternehmen selbst zum Customer Data Expert. 

Karteileichen, Dubletten, alte oder fehlerhafte Informationen, Datenhaltung in Silos, Vorgaben für die Optimierung und Kontrolle der Daten – nicht selten bringt jedes Unternehmen bereits seine individuelle Altlast mit. Viele Fehler können bei der Eingabe und Aufnahme von Informationen und Kundendaten begangen werden. Tipp-, Hör- oder Lesefehler etwa haben einen negativen Einfluss auf die Datenqualität. Hinzu kommt, dass oft fragmentiert und in engen Grenzen anstatt abteilungs- oder spartenübergreifend agiert wird. Das bietet Raum für redundante Daten, die sich schnell anhäufen können. Ein professionelles Datenmanagement kann helfen, Fehlerquellen zu beseitigen, die Datenqualität zu optimieren und einen einheitlichen, konsolidierten Datenbestand zu schaffen und aufrecht zu erhalten. Aus diesem können Finanzunternehmen dann einen signifikanten Beitrag zur Unternehmenswertschöpfung realisieren.

Ohne fundierte Datenharmonisierungs- und Konsolidierungsstrategie und ohne Einsatz entsprechender Lösungen droht schnell ein Datenchaos.

Mit qualitativ hochwertigen Daten können Finanzunternehmen ihre Prozesse optimieren, etwa in der Geldwäschebekämpfung oder für den KYC-Prozess, beispielsweise bei der Identitätsprüfung bei Einrichtung eines neuen Girokontos.”

Unternehmensfusion als Neustart für Datenqualität

Autor Axel Schmale, Uniserv
Axel Schmale ist Senior Account Manager bei Uniserv und Branchenexperte für den Finanzsektor. Er hat über 20 Jahre Erfahrung in der IT-Branche. Für Uniserv begleitet Herr Schmale Banken, Versicherungen und FinTechs auf dem Weg in die digitale Welt mit besonderem Schwerpunkt auf dem Management von Kundendaten.

Kaum ein Unternehmen hat nicht mit inkorrekten und mehrfach vorhandenen Daten zu tun: Datenbestände in deutschen Unternehmen können bis zu 50 Prozent Dubletten enthalten. Selbst bei gut gepflegten Beständen sind im Schnitt noch 5 Prozent redundante Datensätze vorhanden. Das Ziel, nicht erst nach einer Fusion, ist aber häufig die Abbildung eine Customer Unique ID. Also eine eindeutige ID, die ein gesamtheitliches, glaubwürdiges, aktuelles und vollständiges Abbild auf einen Businesspartner darstellt. Die Realität könnte davon kaum weiter weg sein.

Daten können nur von Nutzen sein, wenn eine gewisse Qualität gewährleistet ist. Die Fusion oder geplante Zusammenführung von Finanzunternehmen bietet die ideale Gelegenheit, hier von vorne anzufangen. Alle Daten werden auf Aktualität, Korrektheit, Vollständigkeit und Eindeutigkeit überprüft. Auf diese Art und Weise können Finanzinstitute verhindern, Altlasten in das neue System zu übertragen.

Die Entwicklung einer Data-Governance-Struktur bietet in diesem Zusammenhang eine Langzeitlösung für die Optimierung und die Kontrolle der Qualität der Daten.

Die unternehmensweit einheitliche Verwaltung, Aufbereitung und Steuerung der Daten ermöglicht es, dauerhaft einen hohen Datenqualitätsstandard beizubehalten und für die Zukunft sicherzustellen.”

Der Weg zur gesteigerten Datenqualität

Autor Sebastian Krebs, Uniserv
Sebastian Krebs ist Head of Consulting bei Uniserv und verantwortet die Bereiche Product Consulting, Business Consulting und die Rechenzentrumsdienstleistungen rund um alle Data Quality- und Data Managementthemen. Er hat über 15 Jahre Erfahrung in der IT-Branche. Mit besonderem Fokus auf ganzheitliche Customer Data Governance entwickelt Herr Krebs individuelle Lösungen für Unternehmen, um aus Businesspartnerdaten end-to-end die maximale Wertschöpfung zu erzielen und selbst zum Data Expert zu werden. 

Im Zuge einer Fusion gelingt die Zusammenführung der Daten mit einem strukturierten Vorgehen, das auf diese langfristige Sicherstellung und Erhaltung der Datenqualität ausgerichtet ist. So sollte im ersten Schritt eine Analyse der in den Datenbanken enthaltenen Daten durchgeführt werden. Sie gibt Aufschluss über ihren Zustand, erste Hinweise auf mangelhafte Datenqualität und untersucht auch die Symptome. Es entsteht ein objektives und transparentes Bild der Daten als Grundlage für weitere Maßnahmen.

Im nächsten Schritt geht es darum, die Daten Zug um Zug aus den verschiedenen Datenbanken zusammenzuführen. Die Datensätze werden dafür auf ein zu definierendes Datenmodell hin ausgerichtet, damit sie den jeweiligen Anforderungen bestmöglich entsprechen. Regeln für das Matching und Merging, also Datenabgleich und -zusammenführung, sorgen dafür, dass Redundanzen erkannt und Dubletten eliminiert werden. Das kann etwa ein Customer Data Hub leisten, der die Businesspartner-Daten aus allen Quell-Datenbanken zur Bildung so genannter Golden Records zusammenführt, konsolidiert und über alle Systeme hinweg synchronisiert. Alternativ kann je nach individueller Situation und Herangehensweise mit bestimmten Lösungen wie etwa einer Adressvalidierung und einer Dublettenprüfung begonnen werden.

Damit die einmal erreichte Datenqualität dauerhaft erhalten bleibt, ist es empfehlenswert, im Sinne einer Data Governance einheitliche Datenqualitätsstandards zu implementieren. Dazu gehören auch Mechanismen zur Kontrolle der Datenqualität, die immer dann greifen, wenn bestimmte, vorab definierte Schwellwerte überschritten werden. Dies ist beispielsweise der Fall, wenn die Anzahl der Datensätze, in denen das Feld ‚Postleitzahl‘ leer ist, eine bestimmte Menge übersteigt. Datenqualität ist keine einmalige Aktion, sondern ein dauerhafter Prozess. Daten altern durch verschiedene Ursachen, wie Umzüge oder Straßen- sowie Ortsumbenennungen. Wird hier nicht permanent gegengesteuert, verliert ein Datenbestand früher oder später seine Qualität und damit sein Wertschöpfungspotenzial.

Um in der Zukunft Fusionen zu erleichtern, sollten Finanzinstitute also von Anfang an großen Wert auf eine hohe Datenqualität legen.”

Dafür muss die Datenpflege mit Sicherung und Instandhaltung der Datenqualität ein fester Bestandteil werden. Nur so können Finanzunternehmen den vollen Mehrwert der Daten ausschöpfen.Sebastian Krebs & Axel Schmale, Uniserv

 
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/135695
 
 

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert