STRATEGIE7. Juni 2022

Warum Banken mit der dezentralen Data Fabric einen Mehrwert mit Daten erzielen

Viele Banken sind bisher bei dem Versuch gescheitert, ihre Daten in Erträge zu verwandeln. Die Ursache dafür liegt unter anderem in zentralistischen Ansätzen für Datenmanagement und -analyse. Höchste Zeit, in eine dezentrale Data Fabric zu investieren. Das ist nicht nur zielführender, sondern auch billiger, glaubt unser Gastautor Richard Price von TIBCO Software. Doch was steckt hinter der Idee der Data Fabric und wie können Banken das Potenzial heben?

Überall auf der Welt haben Banken große Summen investiert, um aus den riesigen und immer weiter wachsenden Informationsmengen, die ihnen zur Verfügung stehen, einen Mehrwert herauszuholen. Doch trotz der gewaltigen Summen, die Banken in der Vergangenheit in Automatisierungs- und Analyseplattformen investiert haben, waren die Resultate oftmals nicht mehr als mittelmäßig.

Eine kurze Geschichte des Scheiterns

Auf diesem Weg haben Banken eine Reihe von Technologiegenerationen durchlaufen. Die erste Generation – und gleichzeitig bei vielen Unternehmen immer noch der vorherrschende Ansatz – besteht im Transfer von Daten aus unterschiedlichsten Quellen wie ERP- oder CRM-Systemen und ihrer Speicherung an einem zentralen Ort. Damit einher geht die Transformation der Daten in ein einheitliches Datenmodell. Werden Daten hierbei verändert oder kommen neue hinzu, müssen diese Datensätze wieder transformiert und in das zentrale Data Warehouse überführt werden.

Man könnte diese Vorgehensweise als den klassischen Ansatz bezeichnen, der sich für Standard-Reportings eignet und sich dort auch bewährt hat. Doch er hat den Nachteil, sehr komplex zu sein. Denn mit der Größe und dem Umfang des Datenmodells und jeder angebundenen Datenquelle steigt die Zahl der Abhängigkeiten. Außerdem ist dieser Ansatz zu langsam und zu unflexibel.

Integrierte Lösungen sind vor allem dann interessant, wenn darüber Mehrwerte generiert werden. Das kann aber auch durch Software realisiert werden. Ich denke zum Beispiel an Terminals mit Android als Betriebssystem.

Unternehmen brauchen nämlich heute die Flexibilität, individuelle Auswertungen auch in kürzester Zeit zu erhalten und diese immer wieder zu verändern.”

Darüber hinaus kommt der klassische Data-Warehouse-Ansatz schnell an seine Grenzen, wenn es um große und sehr große Datenmengen geht – die aber immer häufiger auch in diesem Kontext zu verarbeiten sind. Die Unternehmen begrüßten und implementierten daher Big-Data-Lösungen und verbanden damit die Hoffnung, auch die Limitierungen des klassischen Data-Warehouse-Ansatzes zu überwinden. In der Tat hat sich Big Data als sehr mächtiges Instrument erwiesen, um riesige Datenmengen in kürzester Zeit zu analysieren.

Doch löst Big Data „nur“ das Mengen- und Leistungsproblem. Die Herausforderungen Flexibilität und Einfachheit lassen sich damit nicht meistern. Denn im Grunde fügen Big-Data-Lösungen und die zugehörigen Data Lakes, in die Rohdaten ohne Transformation der Datenstruktur eingespeist werden, dem klassischen Data-Warehouse-Ansatz nur eine weitere Datenquelle hinzu. Mit anderen Worten: Die heute entscheidende Frage, wie sich sämtliche Daten – Big Data und Non-Big Data – in Echtzeit integrieren und für Auswertungen zur Verfügung stellen lassen, blieb auch in der zweiten Generation dieser IT-Transformation unbeantwortet.

Verteilt und virtualisiert – ohne Datensilos

Immer mehr Banken wissen heute, dass es eine ganz neue Art gibt, mit Daten umzugehen – eine Methode, die weder zentralisiert noch monolithisch oder an unflexible und teure Altsysteme gebunden ist. In ihrem Zentrum steht ein verteilter Ansatz für Datenmanagement – die sogenannte Data Fabric. Dieser liegt die Architekturidee zugrunde, auf Daten zuzugreifen, wo auch immer sie sich befinden, anstatt sie an einem zentralen Ort zusammenzufassen.

Die Realität der modernen Unternehmenslandschaft ist geprägt von einem Mehr an Datenquellen und einer größeren Vielfalt an Anwendungsfällen und Datennutzern – in der Mehrheit der Fälle gepaart mit einer nur kurzen Halbwertszeit, was die gewinnbringende Verwertbarkeit der Daten betrifft.”

Verteilte Daten bedeuten, den richtigen Personen den Zugriff darauf zu ermöglichen, wann und wo auch immer sie möchten. Daten sind heutzutage ein Produkt und die Nutzer dessen Konsumenten.

Richard Price, UK&I Sales Director bei TIBCO Software
Tibco

Richard Price ist seit gut fünf Jahren bei Tibco tätig. Der Senior Director Sales ist seit über 20 Jahren im Direktvertrieb von Unternehmenssoftware und im Vertriebsmanagement tätig. und unterstützt erfolgreich Kunden bei der Bewältigung ihrer geschäftlichen Herausforderungen. Der UK&I Sales Director bei TIBCO Software befasst sich hier vor allem mit Themen der Unternehmensdigitalisierung und Aufbereitung von Daten.

Eine Data Fabric speichert Informationen dazu nicht als physische Kopie, sondern stellt sie virtuell zur Verfügung. Dafür benötigt sie Lösungen für die Datenvirtualisierung. Kernelement eines Datenvirtualisierungsservers ist die virtuelle Tabelle. Diese legt fest, welchen Transformationen (z. B. Aggregation, Filterung, Verkettung, Berechnung) die Quelldaten durchlaufen sollen, wenn sie der Benutzer abruft. Um den Zugriff auf die Daten zu beschleunigen, werden sie meist in einem Cache-Speicher vorgehalten. Die Integration der Daten, sprich das Laden aus den Zielsystemen und die Aufbereitung, erfolgt zum Zeitpunkt der Abfrage.

Datenvirtualisierung stellt Daten über Konnektoren aus unterschiedlichen Datenquellen in einem virtuellen Datenmodell bereit. Das kann über Datenbank-Protokolle (SQL, ODBC oder JDBC), WebServices wie (HTTP, REST, SOAP oder XML) sowie Messaging (JMS) erfolgen.”

Damit werden auch Daten verfügbar, die sich noch nicht in einem klassischen Data Warehouse oder einem Data Lake befinden. Dabei spielt es keine Rolle, um welche Art von Daten-Quelle und Daten-Format es sich handelt. Im Ergebnis arbeiten sowohl Fachanwender als auch Data Scientists in einer Data Fabric nur noch mit einer zentralen logischen Datenbank; Datensilos gehören auf dieser höheren Abstraktionsebene der Vergangenheit an.

Abstrahiert, automatisiert, optimiert

Eine Data Fabric hat aber noch weitere wichtige Eigenschaften: Denn ein Großteil der Schwierigkeiten beim Zugriff auf die Daten und dem Arbeiten damit ist die Folge unzureichender Datenqualität und mangelnder technischer Fachkenntnisse bei den Menschen, die mit Daten arbeiten und Erkenntnisse daraus gewinnen wollen.

Eine moderne Data Fabric verbirgt nicht nur die Komplexität und Technik, die nötig ist, um Daten aus verschiedenen Quellen abzurufen. Vielmehr können technisch versierte und nicht versierte Anwender über Self-Service-Benutzeroberflächen Daten mit Hilfe regelbasierter Automatisierung zusammenstellen, in das benötigte Format transformieren und bereitstellen.”

Damit sie wissen, welche Daten für sie überhaupt interessant sind, stellt eine moderne Data Fabric einen Datenkatalog bereit, der automatisiert mit Metadaten aus den verschiedenen Datenquellen befüllt wird. Damit stehen den Anwendern sämtliche Daten-Assets eines Unternehmens zusammen mit ihrer Bedeutung, Beispieldaten und Angaben zu ihrer Herkunft zur Verfügung. Zudem können die Anwender über grafische Editoren Zusammenhänge in Daten aufspüren und sie analysieren.

Schließlich enthält eine moderne Data Fabric Werkzeuge zur automatisierten Sicherung und Optimierung der Datenqualität. Mittels Algorithmen für künstliche Intelligenz und maschinelles Lernen lassen sich Qualitätsprobleme erkennen (das so genannte Profiling), die Qualität der Daten überwachen (Monitoring) und die qualitätsgesicherten Daten, bei denen die Fehler automatisch behoben wurden (Kuratierung), ebenfalls automatisch bereitstellen.

Eine moderne Data Fabric unterstützt damit sogar vollständig auditierte und auf Geschäftsanwender ausgerichtete Verarbeitungs- und Entscheidungsprozesse auf der Basis von Echtzeit- und Ruhedaten aus Quellen in On-Premises- und Cloud-Umgebungen.”

Der Stoff, aus dem die Bankenträume sind

Schon heute profitieren Banken von Data Fabrics in der Praxis. Ein Beispiel dafür ist die KBANK aus Asien, die Daten für ihre mobilen Banking-Apps schneller bereitstellen wollte. Traditionelle Data-Warehousing-Ansätze scheiterten an dieser Herausforderung, entweder weil sie nicht mit dem Volumen oder der Komplexität der zu verarbeitenden Daten zurechtkamen. Mit einer Data Fabric auf Basis der Any-Data-Hub-Platform von Tibco konnte die Bank jedoch diese Herausforderung meistern und ihr Ziel einer Banking-Erfahrung, die dem digitalen Lebensstil von heute entspricht, erreichen.

Data Fabrics weisen in eine Zukunft, in der es einfach ist, Daten zu nutzen und aus ihnen Erkenntnisse zu gewinnen. Am Ende dreht sich alles darum, Daten in beliebigem Umfang zur Verfügung zu stellen und dadurch Einblicke in das Geschäft zu ermöglichen.”

Mit Data Fabrics kommen Banken dem Ziel, weitestgehend automatisiert zu intelligenten Entscheidungen zu gelangen, einen großen Schritt näher.tw

 
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/141820
 
 

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.