Anzeige
STRATEGIE22. Juni 2016

Bank-IT: Mega-Probleme mit Metadaten? Lässt sich lösen …

Dominik Classen, Sales Engineering Team Lead EMEA & APAC bei PentahoPentaho
Dominik Classen, Sales Engineering Team Lead EMEA & APAC bei PentahoPentaho

Ambitionierte IT-Trans­for­ma­tions­projekte in einer Bank zu leiten, ist heutzutage ein wenig, wie Fußballmanager eines Erstligisten oder der Nationaltrainer zu sein: Man kann alles für den langfristigen Erfolg seines Teams richtig machen und wird es trotzdem schnell bereuen, sich jemals bei Twitter angemeldet zu haben. Bankmanager gleichen Fußballfans in ihrer Ungeduld für schnelle Ergebnisse und sofortige Siege. Wenn man aber tiefergehende, systematische Probleme lösen will, sind voreilige Lösungen nicht unbedingt die richtigen.

von Dominik Classen, Sales Engineering Team Lead EMEA & APAC bei Pentaho

Wer sich mit Bank-IT befasst, kennt die Probleme, die die Integration, Vorbereitung und Verarbeitung von Daten unter Einhaltung von Data Governance mit sich bringen. Besonders, wenn es sich um Insellösungen handelt und die Daten über verschiedene Standorte und auf verschiedenen Plattformen verteilt sind. In diesem Fall erscheint das Gerede über Big Data, Hadoop und den sogenannten Single Point of Truth so abwegig wie der Aufstieg vom Außenseiter zum deutschen Meister. Das muss nicht sein. Das Premier-League-Märchen des englischen Meisters Leicester City und Griechenlands Triumph bei der Europameisterschaft 2004 in Portugal zeigen, dass es durchaus geht. Und es muss.

Pentaho
Pentaho

Wir sind an einem Punkt angelangt, an dem Untätigkeit zur Abseitsfalle wird. Unzufriedene Kunden, härtere Strafen bei Nichteinhaltung von Compliance-Richtlinien und Sicherheitsverstöße führen schnell zu negativen Schlagzeilen und Shitstorms. FinTech Start-ups stehen in den Startlöchern. Und zwar ohne Altsysteme, mit neuesten Technologien und Angeboten, die eine neue Generation von Kunden ansprechen.

Dabei ist es ja nicht so, dass Banken absichtlich ihre Daten in Insellösungen halten, um sich selbst und den Kunden das Leben schwerer zu machen.

Es scheint beinahe ein unmögliches Unterfangen, Metadatenstrukturen bei hunderten oder tausenden Datenquellen und Formaten zu definieren. Das muss aber geschehen, damit die Bank alle Daten zusammenführen und voll nutzen kann.”

Bisher war der einzige Ausweg aus dieser Situation, während des Prozesses der Datenintegration die Metadatenstrukturen manuell mit Python oder anderen Programmiersprachen zu definieren. Skalieren lässt sich die manuelle Programmierung allerdings nur durch mehr Personal- und Zeitaufwand. Dabei gibt es auch für die Bank-IT längst so etwas wie den modernen Fußball.

Neue Ansätze und moderne Tools

Anbieter von Business Analytics- und Datenintegrationslösungen haben damit begonnen, neue Tools auf den Markt zu bringen, die den Umgang mit Metadaten vereinfachen. Ein neuer Ansatz ist hier das sogenannte Metadata Driven Data Onboarding, das durch Metadateninjektion realisiert wird. Beim Data Onboarding geht es um mehr als nur die Einspeisung einzelner weniger Datensätze während der Datenintegration. Es wird bei vielen, sich stetig ändernden Datenquellen als ein sich wiederholender, skalierbarer Prozess angewandt, bei dem die Kontrolle und Data Governance gewährleistet wird. Traditionelle ETL-Methoden stoßen in diesem Big Data-Szenario an ihre Grenzen, weil die ETL-Jobs für die Einspeisung jeder Datenquelle manuell definiert und ausgeführt werden müssen. Gerade im Bankumfeld, wo es viele verschiedene Systeme gibt, ist das nicht nur eine zeitaufwendige Arbeit, die Programmierkenntnisse verlangt, sondern sie ist auch fehleranfällig und nur mit viel Aufwand zu warten.

Petaho
Petaho

Beim Metadata Driven Data Onboarding hingegen wird lediglich eine Datenschablone definiert, die in groben Zügen die Datenintegration vorgibt und die zur Laufzeit automatisch mit Informationen sowie Anweisungen gefüllt und zur Ausführung gebracht wird.
Autor Dominik Claßen
DominikClassen_516Dominik Claßen ist Sales Engineering Team Lead EMEA & APAC bei Pentaho. Er ist ein Branchenkenner mit mehr als zehnjähriger Arbeitserfahrung im Bereich Business Analytics/Business Intelligence.

Vor seinem Einstieg bei Pentaho 2014 war Dominik Claßen in verschiedenen Positionen im Sales Engineering und im Technischen Support tätig, unter anderen für Unternehmen wie Microstrategy, IBM, Cognos und T-Systems. Der Diplom-Wirtschaftsinformatiker verfügt über Abschlüsse der Berufsakademie Mannheim und der Open University London.

Metadata Driven Data Onboarding macht sozusagen aus einer Transformation viele, indem die Quellmetadaten während der Laufzeit in die Schablone injiziert werden. Die typischen ETL-Anweisungen, die sich aus Datenfeldnamen, Datenart oder -länge ableiten, sowie andere Metadaten, können die aktuelle Transformation generieren. Die Metadaten können auch aus der Datenquelle heraus, aus anderen separaten Dateien oder aus der Eingabe des Anwenders via API-Call erkannt werden. Diese automatische Erkennung und die Einspeisung in die Datenschablone während der Laufzeit beschleunigen den Einspeiseprozess und lassen sich für Tausende von Datenquellen skalieren. Ideal für Umgebungen, wo Daten aus verschiedenen Systemen in einem Data Lake zusammengeführt werden.

Vorbereitung für Big Data und IoT

Wenn das Mega-Problem mit den Metadaten erst einmal gelöst ist, dann ist auch der Weg frei für zukunftsweisende Big Data- oder IoT-Anwendungsfälle. Wie wir durch unsere Arbeit wissen, arbeiten viele etablierte Banken nicht nur mit Tools für Metadata Driven Data Onboarding, sondern sind auch daran beteiligt, die Funktionalitäten zu definieren. Das ist sinnvoll, denn je gezielter die Metadateneinspeisung für spezifische Anwendungsfälle definiert wird, desto einfacher wird es hinterher, die Daten voll auszuschöpfen, und dann kann dem Hadoop-Sommermärchen in der Bank eigentlich nichts mehr entgegenstehen.aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert