BIG DATA SCHWERPUNKT15. Feb. 2016

Big Data & Analyse: Big Data für die Finanzwirtschaft? Das bringen analytische Datenbanken

Mathias Golombek, CTO ExasolExasol
Mathias Golombek, CTO Exasol Exasol

Im Fi­nanzbereich fal­len be­reits heu­te Unmen­gen von Da­ten an. Der direkte Dia­log mit dem Kun­den über soziale Netz­werke sowie Ver­gleichspor­tale oder Nutz­erforen brin­gt Banken, Sparkas­sen und Versi­cherun­gen zu­nehmend im Netz ins Ge­spräch. Dies stellt die Fi­nanzbran­che vor ganz neue Herausforde­run­gen, und der Wettbewerbsdruck steigt. Fi­nanz­in­sti­tu­te müs­sen flexibel auf Markt­entwicklun­gen und Kun­denanforde­run­gen rea­gie­ren. Die Lösung heißt: Big Data Analytics.

von Mathias Golombek, CTO Exasol

Kundenbeziehungen verändern sich durch die schnelle und direkte Kommunikation. Kunden zeigen eine deutlich stärkere Wechselwilligkeit im Bankenumfeld als früher. Neben der Vielzahl an Informationsplattformen steigen die regulatorischen Anforderungen und Compliance-Richtlinien werden verschärft. Um das volle Potenzial von Big Data ausschöpfen zu können, in Echtzeit zu reagieren, Risiken frühzeitig zu erkennen und dabei immer den Kunden im Blickfeld zu behalten, müssen Finanzunternehmen eine datengetriebene Strategie innerhalb ihrer Abteilungen, speziell der IT- und Organisationsabteilung, aufsetzen. Banken, Sparkassen und Versicherungen stehen hier vor einer großen Herausforderung.

Autor Mathias Golombek
Mathias Golombek leitet als Chief Technology Officer (CTO) den Bereich Technologie bei der EXASOL AG und ist zudem Vorstandsmitglied. Der studierte Informatiker gehört bereits seit über zehn Jahren zum EXASOL Team und treibt die Entwicklung und das Wachstum des Unternehmens maßgeblich mit voran.

Technische und personelle Voraussetzungen

Um Big-Data-Analysen für den eigenen Geschäftserfolg nutzbar machen zu können, müssen unterschiedliche Voraussetzungen innerhalb des Unternehmens erfüllt sein. Die Datenanalyse ist fest in die übergeordnete Unternehmensstrategie zu verankern. Gleichzeitig kommt es auf folgende essenzielle technische Faktoren an:

1. Leistungsfähige und effiziente Systeme
2. Eine frei skalierbare, analytische Datenbank, die große Datenmengen verarbeitet
3. BI-Frontend oder Visualisierungssoftware zur Aussteuerung der Analysen

Zudem müssen einige personelle Gegebenheiten in den Fachabteilungen berücksichtigt werden. So sind Spezialisten wie der sogenannte Data Scientist notwendig. Sie verfügen über ein breites und vor allem tiefgreifendes Big Data und Analyse Know-how. Darüberhinaus sollte ein Proof of Concept personell wie auch monetär eingeplant werden. Dabei handelt es sich um eine ausführliche Evaluierung der Bestandslage im Vorfeld des Projekts Big-Data-Analyse.

Notwendige Investitionen

Eine genaue Aussage zum Investitionsvolumen bei dieser Art von Projekten ist ohne Evaluierung vorab praktisch nicht zu beziffern. Grundsätzlich lässt sich jedoch festhalten: Big-Data-Analysen können auch bei begrenzten Budgets erfolgreich umgesetzt werden. Der Investitionsumfang hängt im Wesentlichen von der bestehenden Infrastruktur sowie von der Datenmenge und der Datenbanktechnologie ab. Dabei können die Kosten für die Analysesysteme variieren.

Setzt ein Finanzunternehmen eine intelligente In-Memory-Datenbank ein, so reduzieren sich die Lizenzkosten auf den tatsächlich genutzten Arbeitsspeicher.”

Dies ist speziell vor dem Hintergrund sinnvoll, dass die RAM-Preise im Verhältnis zu Festplattenspeichern zunehmend fallen. Hinzu kommen intelligente Kompressionsalgorithmen, die die Investitionskosten einer In-Memory-Datenbank im Gegensatz zu konventionellen Datenbanken mehr als halbieren können. Selbst bei einem extrem knappen Budget lassen sich mit flexibel skalierbaren Software-as-a-Service(SaaS)-Lösungen erfolgreich Big-Data-Projekte umsetzen.

Was die Gesamtkosten eines Big-Data-Projekts anbelangt, so lässt sich dazu keine Pauschalaussage treffen. Generell gilt: Die Investitionen für eine erfolgreiche Implementierung von Big-Data-Analysen sind von Fall zu Fall unterschiedlich und von verschiedensten Faktoren abhängig. Während große Finanzinstitute in der Regel auch entsprechend große IT-Budgets zur Verfügung haben, müssen kleinere oder mittlere Unternehmen den Euro häufig zweimal umdrehen. Dies gilt für Start-ups gleichermaßen.

Allerdings: Abhängig vom Geschäftsmodell können auch Finanzfirmen mit kleineren Budgets auf Big-Data-Analysen setzen und diese gewinnbringend für ihre Geschäftsentwicklung einsetzen. Gerade für Start-ups empfiehlt es sich sogar, auf zukunftssichere analytische Datenbanken zu setzen, um von den gespeicherten und analysierten Daten profitieren zu können. Denn je weiter das Datengedächtnis zurückgeht, umso besser.

Vorteil von In-Memory-Datenbanken

Exasol
Exasol

In-Memory bedeutet, dass Daten im Hauptspeicher gehalten und verarbeitet werden. Grundsätzlich ist das nicht neu – das Besondere und Neue daran ist, dass auch riesige Datenmengen dort verarbeitet werden können. Die Verwendung von In-Memory-Datenbanken bei der Big-Data-Analyse bewährt sich in vielerlei Hinsicht – nicht nur in punkto Kosteneffizienz. Ein weiterer Vorteil liegt in der Schnelligkeit. Der Zugriff auf Daten, die im Hauptspeicher liegen, ist um den Faktor 1000 schneller als der Zugriff auf Daten, die auf der Festplatte liegen. Häufig müssen zum Beispiel Kreditentscheidungen innerhalb von Sekundenbruchteilen getroffen werden – dabei ist es wichtig, dass die Datenverarbeitung mithalten kann. Dies ist nur mit Hilfe von In-Memory-Datenbanken umsetzbar.

Systemanforderungen: Hohe Leistung und Geschwindigkeit

Entscheidet sich ein Finanzinstitut für Big-Data-Analysen, so ist das A&O der IT Abteilung, im Vorfeld die bestehende IT-Infrastruktur genauestens unter die Lupe zu nehmen. Denn prinzipiell erfordern Big-Data-Analysen keinen kompletten Austausch von Systemen. In den meisten Fällen reicht es, vorhandene Systeme gezielt durch neue zu ergänzen. Das Hauptkriterium bei der Analyse der bestehenden Infrastruktur ist das Prüfen der Voraussetzungen, mit den anfallenden Datenmengen entsprechend den Anforderungen umzugehen. Die größte Rolle in diesem Zusammenhang spielt die Leistungsfähigkeit beziehungsweise die Geschwindigkeit der implementierten Systeme. In der Regel sind klassische IT-Systeme mit riesigen Datenmengen komplett überlastet, reagieren zu langsam und weisen schleppende Lade- und Analysezeiten auf. Zudem kommt es darauf an, Daten aus verschiedenen nicht homogenen Quellen zusammenführen, einzelne Datensätze in Echtzeit zu verarbeiten sowie die aus dem Echtzeitprozess entstehenden Daten analysieren zu können. Flexibilität ist dabei ein ebenso essenzielles Kriterium. Weiterhin sollte die Lösung wartungsarm sein und kein ständiges Tuning erfordern.

Daher besteht die Hauptaufgabe eines IT-Leiters darin, die bestehenden Systeme auf Vordermann zu bringen und Lösungen zu wählen, die mit der neuen Aufgabenstellung mitwachsen können. So ist eine langfristige Investitionssicherheit gegeben.

Einsatz von Algorithmen

Exasol
Exasol ist Hersteller von analytischen Datenbanksystemen. Das Kernprodukt von Exasol ist eine auf In-Memory-Technologie basierende Software für “professionelle, parallele und schnelle Datenanalysen”, die in sämtlichen Branchen von Finanzunternehmen über Industrie 4.0 bis hin zu Retail und Energie & Versorgung zum Einsatz kommen soll.
Der intelligente Ein­satz von effizien­ten Algorithmen erweist sich bei Big-Data-Analysen als erfolgs­ent­schei­dend. Dabei kommen die un­ter­schiedlichs­ten Algorithmen zum Zug. So facetten­reich wie Big-Data-Analysen sind, so differen­ziert sind die Algorithmen. Zudem erweist sich jede Anwendung als so individuell und un­ter­schiedlich, dass sie sich nicht einfach auf ein an­de­res Ein­satzsze­nario pro­jizie­ren lässt. Grundsätzlich sind die Algorithmen ent­schei­dend, die direkt auf die Rohda­ten zu­grei­fen. Die Daten­analys­ten soll­ten mit Hilfe der Algorithmen aus den ge­sammel­ten Da­ten verlustfrei die In­formationen herausfiltern können, die für die jeweiligen Aus­wer­tun­gen notwendig sind.

Was eine analytische Datenbank können sollte

Für einen perfekten Einsatz im Finanzumfeld sollte eine analytische Datenbank diese Kriterien bieten:

1. Vielschichtige Ad-hoc-Abfragen
2. Komplexe Auswertungen und Analysen in Höchstgeschwindigkeit
3. Kurze Reaktionszeiten
4. Tiefenanalysen zur Erfolgsmessung

Daraus ergeben sich Vorteile,wie:
1. Schnellere Betrugs-Prävention
2. Erfolgreiche Handlungsstrategien in Echtzeit
3. Deutliche Zeitersparnis bei typischen Standardauswertungen.

Einsatzgebiet der analytischen Datenbanklösung

Haupteinsatzgebiet einer analytischen Datenbanklösung im Banken-, Sparkassen- und Versicherungsumfeld ist die Auswertung von Kundendaten, wobei sich neben strukturierten auch unstrukturierte Daten sowie Geodaten in die Analyse einbeziehen lassen müssen.

Im Banken- und Sparkassenumfeld lassen sich über eine professionelle Datenbanklösung:

1. Daten in Echtzeit über Fachabteilungen hinweg auswerten
2. Ein mehrkanaliges Kampagnen- und Angebotsmanagement realisieren
3. Interne Prozesse effizienter gestalten
4. Ein intelligentes Framework für Compliance und Risikomanagement sowie Performance-Kennzahlen etablieren.

Bei Versicherungsunternehmen sind zudem diese Faktoren relevant:

1. Schadensprognosen für einzelne Kunden als Grundlage einer individuellen Tarifkalkulation bestimmen
2. Neukunden leichter durch individuelle Tarifangebote akquirieren, die auf die Lebenssituation des Interessenten zugeschnitten sind
3. Kunden mit hohem Kündigungsrisiko einfacher identifizieren
4. Gesetzliche Vorgaben zeitnah und zuverlässig einhalten sowie umsetzen.

Die Analysen können für Reportings und Auswertungen genutzt sowie in Echtzeit abgerufen werden. So erhalten Kundenbetreuer Analyseergebnisse ihrer Kennzahlen auf Knopfdruck. Sie können allgemeine Branchentrends und Entwicklungen sofort erkennen, Angebote individuell für den Kunden entwickeln sowie ausgesprochen schnell und flexibel auf Kundenwünsche reagieren. Dies wiederum führt zu mehr Abschlüssen und mehr Umsatz.

Blick in die Zukunft

Big Data ist ein wichtiges Thema, mit dem sich jedes Finanzinstitut auseinandersetzen sollte. Je früher das verborgene Potenzial der Datenberge erkannt wird, desto schneller lassen sich die Analysen für eine effiziente Geschäftsentwicklung einsetzen. Wer in dem stark umkämpften Bankenumfeld wettbewerbsfähig bleiben möchte, kommt um eine individuelle Kundenansprache nicht herum. Hierfür lohnt es sich, neue Wege zu gehen und mit einer umfassenden Big-Data-Strategie das volle Potenzial der Datenanalyse auszuschöpfen. Dabei werden verstärkt schnelle, intuitive und leicht zu implementierende Analyse-Lösungen zum Einsatz kommen, die idealerweise allen Mitarbeitern für die eigenständigen Auswertung zur Verfügung stehen. Dementsprechend stammen künftig Analyse-Vorgaben auch weniger aus der IT- und CIO-Ebene, sondern direkt aus den jeweiligen Fachabteilungen und werden nach deren individuellen Bedürfnissen festgelegt. So werden Schnelligkeit und Anpassungsfähigkeit zu kritischen Erfolgsfaktoren, um fundierte Werte aus den Daten zu gewinnen.

Sie finden diesen Artikel im Internet auf der Website:
http://www.it-finanzmagazin.de/?p=26668
1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (Noch keine Bewertungen)
Loading...

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Karl F. G. MatlEURO Kartensysteme
EURO Kartensysteme: Karl F. G. Matl wird neuer Geschäftsführer

Karl F. G. Matl übernimmt zum 1. Januar 2015 die Geschäftsführungsposition bei der EURO Kartensysteme GmbH mit Sitz in Frankfurt am Main. Der bisherige...

Schließen