Anzeige
STRATEGIE31. Januar 2022

Die Bedeutung von Datenqualität für die Finanzindustrie

Experte für Datenqualität: Paul Dietrich, Collibra
Paul Dietrich, CollibraCollibra

Der Wert von Compliance und Risikomanagement ist in der Finanzbranche besonders greifbar. Das Vertrauen in eine hohe Datenqualität ist hier Grundvoraussetzung für erfolgreiche Geschäftsergebnisse. Gleichzeitig wachsen die mit mangelnder Datenqualität verbundenen Kosten immer stärker. Abgesehen von Ineffizienzen im operativen Geschäft führt die Nichteinhaltung aufsichtsrechtlicher Vorschriften, auch aufgrund schlechter Datenqualität, zu Strafen. Logisch also, dass Finanzdienstleister Daten kontinuierlich überwachen, um sicherzustellen, dass sie ordnungsgemäß an die Regulierungsbehörden weitergeleitet werden.

von Paul Dietrich, Collibra

Das ist allerdings leichter gesagt als getan, denn die heute von Finanzorganisationen verarbeiteten Datenmengen sind gewaltig. Hier die Richtigkeit und Integrität der Daten in einem hohen Detailgrad zu gewährleisten ist komplex. Darüber hinaus sind Finanztransaktionen zeitkritisch, so dass sich ein einziger Datenfehler in den nachgelagerten Prozessen schnell multipliziert und nachträglich nicht leicht zu korrigieren ist.

Wie misst man Datenqualität als Finanzdienstleister?

Die Qualität von Daten wird anhand deren Vollständigkeit, Genauigkeit, Gültigkeit und Einhaltung verschiedener Vorschriften bestimmt. Für eine hohe Datenqualität müssen dabei all diese Dimensionen erfüllt sein. Eine Herausforderung dabei ist, dass diese Dimensionen, wie eben Daten auch, in der Praxis nicht immer stabil bleiben. Die Qualität einzelner Datensätze kann also schnell sinken. Kundendaten zum Beispiel können sich im Laufe der Zeit verändern:

Werden Änderungen von Adressen oder Telefonnummern nicht sofort aktualisiert, verlieren Daten damit ihre Integrität.”

Bei der Anbindung neuer Datenquellen und Anwendungen ist die Harmonisierung leider zu oft aufwändig und wird daher aufgeschoben. Im Ergebnis werden gleich mehrere Datenquellen zu Minenfeldern. Auch wenn diese kleinen Fehlfunktionen unbedeutend erscheinen, wirken sie sich direkt auf die Erfahrungen, Interaktionen und Transaktionen der Kunden aus und führen zu Mehrkosten und Umsatzeinbußen.

Wie können Finanzdienstleister also die Datenqualität verbessern?

Für die Verbesserung der Datenqualität ist grundsätzlich ein umfassendes Verbesserungsprogramm erforderlich: Dieses umfasst das Schaffen einer Daten-Kultur, ein tieferes Verständnis der eigenen Daten, kontinuierliche Metadaten-Pflege, ein Bewusstsein für die häufigsten Qualitätsprobleme, sowie den gezielten Einsatz von Technologie.

Compliance ist ein Bereich, in dem Datenqualität und Data Governance eng zusammenwirken. Kontinuierliches Datenqualitäts-Monitoring unterstützt hier beide Aspekte und ermöglicht Unternehmen einen tieferen Einblick und bessere Analysen auf Basis genauerer Daten.

Vorausschauende und kontinuierliche Datenqualität rationalisiert zeitkritische Prozesse und liefert zuverlässigere Ergebnisse in Echtzeit.”

Hier sind einige Beispiele, wie Finanzdienstleister Geschäftsnutzen aus vorausschauender Datenqualitätsmessung ziehen:

1. Ständige Überwachung der Wechselkurse

Auf der ganzen Welt werden Devisengeschäfte über mehr als 28 000 Währungspaare abgewickelt, die sich ständig ändern. Die meisten Banken arbeiten mit einer gezielten Liste von Notierungen, die sie mit anderen Finanzdaten kombinieren, um Analysen durchzuführen.

Die Qualitätskontrolle eines so umfangreichen Datensatzes kann mühsam sein und erfordert Hunderte von manuellen Regeln zur Erkennung von Duplikaten, Anomalien oder Korrelationen.

Die prädiktive Datenqualität kann stattdessen automatisch vor inkorrekten Wechselkursdaten warnen.”

Mit dem ML-basierten Ansatz werden Qualitätstests durchgeführt, um optimale und konsistente Kontrollen über alle Datensätze hinweg zu liefern. Diese vorausschauenden Analysen überprüfen außerdem kontinuierlich Histogramme und Segmentierungen sowie die Entwicklung von Mustern.

2. Intraday-Positionen vorausschauend verfolgen

Finanzorganisationen verarbeiten große Datenmengen an Intraday-Positionen nahezu in Echtzeit. Deren Verfolgung ist komplex, insbesondere um sicherzustellen, dass die Korrelation korrekt ist und es für jedes Unternehmen keine Duplikate gibt. Wenn ein Unternehmen seine Position im Laufe des Tages nicht handelt oder anpasst, dürfen diese fehlenden Register aber auch keinen Fehlalarm auslösen.

Vorrausschauende Datenqualität kann hier in Echtzeit Duplikate oder Ausreißer erkennen und hochqualifizierte Daten liefern.”

So kann sichergestellt werden, dass die aktuellen Daten vertrauenswürdig sind, und langfristig repräsentative Daten in analytische Modelle einfließen.

3. Erkennen von Anomalien und versteckten Mustern in Datensicherheitsreferenzen

Autor Paul Dietrich, Collibra
Paul Dietrich ist bereits seit 18 Jahren im Bereich Analytics tätig. Aktuell leitet er das Collibra-Team (Webseite) für die DACH- und Nordics-Region. Er kam Anfang 2019 zu Collibra, nachdem er acht Jahre bei Salesforce gearbeitet und zuvor Kunden bei Gartner (CEB) und BBDO Worldwide betreut hatte. Er hat einen Master of Science in International Business Economics von der City University of London. Seine größte Leidenschaft ist es, Kunden dabei zu helfen, Daten als gemeinsame Sprache zu nutzen, um Empathie, Verständnis und erfolgreiche Geschäftsergebnisse zu fördern. Dabei hat er einen besonders hohen Qualitäts- und vor allem Datenqualitätsanspruch.

Finanzinstitute jeglicher Art und Größe integrieren Referenzdaten von verschiedenen Anbietern wie Bloomberg, Thomson Reuters, ICE Data Services oder SIX Financial Information. Die Genauigkeit dieser Daten ist für jede Geschäftsentscheidung von zentraler Bedeutung, und die frühzeitige Erkennung falscher Werte im Prozess der Datensammlung reduziert die nachgelagerte Komplexität erheblich. Andererseits beeinträchtigen maskierte Muster auch die Qualität der von den Quell- und Berichtssystemen erzeugten Daten, und ihre frühzeitige Erkennung reduziert ebenfalls den Aufwand, der für ihre Korrektur betrieben wird.

In beiden Fällen hilft die vorausschauende Datenqualität dabei, Wertpapiere zu identifizieren, die gegen historische Muster verstoßen, reduziert falsch positive Meldungen, erweitert die Abdeckung und modelliert schnell eine komplexe Reihe von Kontrollen.

4. Kreditrisiko bei Bankkrediten kontrollieren

Eine der wichtigsten Finanzaktivitäten von Banken ist die Kreditvergabe, die mit eigenen Risiken verbunden ist. Daher müssen sie während des gesamten Prozesses der Kreditaufnahme und -genehmigung wachsam sein und die Daten in jeder Phase validieren, um das Kreditrisiko zu begrenzen.

Predictive-Analytics-Tools können so programmiert werden, dass sie in Echtzeit Kreditratings, SSN-Prüfungen, Beleihungswertermittlungen, Zinssätze, doppelte Kreditanträge usw. validieren.

5. Betrugsfälle und Cyber-Anomalien in Echtzeit verfolgen

Finanzdienstleister hantieren mit sensiblen Daten und machen sie anfällig für Cyberbedrohungen. Durch Online-Finanztransaktionen sind sie auch möglichen Sicherheitsverletzungen ausgesetzt.

Daher setzen Finanzorganisationen zunehmend auf Automatisierung, um Cyberangriffe zu erkennen und sich davor zu schützen.”

Die vorausschauende Datenqualität kann kontinuierlich verschiedene sicherheitsrelevante Datenströme laden und verarbeiten, um Anomalien in den Netzwerken zu erkennen. Dank Echtzeitwarnungen können Cybersicherheitsexperten schnell auf mögliche Bedrohungen reagieren.Paul Dietrich, Collibra

 
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/133904
 
 

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert