Anzeige
STRATEGIE3. Mai 2016

Digitale Devise für Versicherungsunternehmen: “Big Data Analytics-Projekte erfordern Mut und Offenheit”

Heiko Harders, Diplom Mathematiker und Mitglied der Geschäftsleitung bei der viadicoviadico
Heiko Harders, Diplom-Mathematiker und Mitglied der Geschäftsleitung bei der viadicoviadico

Die Projektinitialisierung für Big Data Analytics setzt einen wichtigen Teil der Digitalisierungs-Strategie eines Versicherungsunternehmens um. Nur ein zeitnaher und konsequent nüchterner Einstieg in die Welt der Big Data Analytics schafft genug Vorsprung angesichts der wachsenden globalen Wettkampflage von FinTechs, InsTechs, Online-Portalen, Apps und mittlerweile auch branchenfremden digitalen Playern. Die Anleitung für den erfolgreichen Big-Data-Einstieg.

von Heiko Harders,
Mitglied der Geschäftsleitung viadico 

Unter dem Oberbegriff Big Data Analytics verbirgt sich eine ganze Reihe von individuellen Herausforderungen. Naturgemäß muss das neugierige, mit den besten Werkzeugen ausgestattete Spezial-Team individuell und zum Teil experimentell beginnen. Mit wachsender Erfahrung werden die Konturen der Datenräume und Datenanalysen und deren Nutzen immer deutlicher. Das einzuschlagende Vorgehen ist vergleichbar mit dem Aufwachen in einem fast 100% abgedunkelten Raum, durch den man vorsichtig, aber zunehmend selbstsicher laviert, da sich die Augen mit laufender Zeit und Übung an die Dunkelheit gewöhnen. Große Offenheit und Mut sind beim Aufsetzen eines Big Data Analytics-Projektes nötig. Denn eine neue Kultur des „Trial and Error“ ist auf Management-Ebene zunächst nicht schmerzlos zu etablieren und gleichwohl bei diesem Thema mit Einschränkungen alternativlos.

Für ein Big Data Analytics-Explorationsteam sind Ausrüstung, Spezialkenntnisse und Schlüsselqualifikationen unerlässlich. Was genau braucht es und wer tut was?”

Fünf relevante Schlüsselaktivitäten für alle Big Data Analytics-Projekte

1. Sammeln, Speichern und Pre-Filtern von relevanten strukturierten und unstrukturierten Datenquellen/Datenströmen inner-/außerhalb des Unternehmens (z. B. aus CRM, Agentur, Partner, Antrag, Vertrag, Bestand, Briefen, E-Mail, Call-Center, Social-Media, LinkedIn, XING, SCHUFA, …)
2. Entwickeln von genaueren und fortschrittlicheren Analysemodellen, die auf fachspezifischen Indikatoren beruhen (z. B. Kundendaten/-wissen/-loyalität/-verhalten/-emotionen/-meinungen, Weiterempfehlung, Beruf, Hobbies, …)
3. Ableiten und Generieren von neuem Wissen durch Identifizieren von (Verhaltens-) Mustern, Abhängigkeiten und Trends basierend auf effizienteren Analyse- und Korrelationsmodellen und weiteren innovativen Ansätzen und Algorithmen
4. Aufzeigen von Geschäftspotenzial in digitalen Vertriebs- und Bestands-Use Cases auf Basis der neuen Erkenntnisse durch Anreicherung, Filterung und Optimierung
5. Systemintegration, Datenintegration und Betrieb z. B. nach dem Konzept der „IT der zwei Geschwindigkeiten“.

Autor Heiko Harders
Heiko-Harders-Viadico-516Heiko Harders ist Diplom-Ma­the­matiker und Mit­glied der Ge­schäftslei­tung bei der viadico GmbH, Herzogenrath. Die viadico GmbH ist ei­ne Un­ternehmensbe­ra­tung für Versi­cherungs­un­ternehmen und arbeitet beim The­ma Big Data Analytics mit Hewlett Pa­ckard En­terprise zu­sammen.

Big Data Analytics-Ausrüstung

Bei der Planung des Big Data Analytics-Projektes hat man mit den üblichen Einwänden der Skeptiker zu tun: „Man kann doch auch mit unseren bereits vorhandenen SQL-basierenden Reporting- und Business-Intelligence Tools arbeiten, ohne große Investitionen zu tätigen.“

Ja – aber nur auf den produktiven und dispositiven Datenbeständen des Versicherungs-unternehmens. Sofern man den Fokus nur auf die internen strukturierten Daten setzt, ist das schon lange möglich und mittlerweile Status Quo. Will man aber zu wirklich neuen Erkenntnissen kommen und den gesamten Data Lake der internen und explizit ausgewählten externen Quellen und Datenströme erforschen, so ist der Einsatz einer modernen Big Data Analytics-Plattform und eines ausgereiften Analysebaukastens unerlässlich.

Auf der einen Seite sind semi-strukturierte (E-Mail etc.) und unstrukturierte Daten (Briefe, Call Center etc.) zu erforschen, die im Versicherungsunternehmen bereits vorgehalten werden. Auf der anderen Seite befinden sich außerhalb des Versicherungsunternehmens mannigfaltige und mächtige Datenströme (Social Media etc.), die jetzt durch moderne Technologien in Echtzeit exploriert werden können. Letztendlich entsteht erst durch die Analyse und gezielte Verknüpfung dieser beiden Seiten der wünschenswerte Mehrwert von Big Data Analytics.

Übersicht großer Hersteller im Analytics-Markt (Ende 2015):

 Data Analytics Platform Hersteller
 Haven (Vertica, IDOL) Hewlett Packard Enterprise
 EMC Pivotal Greenplum
 Netezza IBM Puredata
 Oracle Exadata and Oracle Exalytics Oracle Exadata
 Actian Matrix, ParAccel Actian
 Teradata Aster Big Analytics Appliance Teradata Aster
 Amazon Redshift (powered by ParAccel) Amazon Redshift, amazon webservices
 Cloudera Impala Real-Time Query Cloudera impala
 MySQL, Cassandra, MongoDB, etc. Open source
 SAP HANA SAP
 Analytics Tool Hersteller
 R Open Source, R GNU-Project
 SAS SAS Institute
 SPSS IBM
 Matlab The MathWorks

Big Data Analytics braucht Spezialkenntnisse

Ist die Entscheidung für die Ausrüstung gefallen, fehlt noch das adäquate Projektteam für Big Data Analytics. Bei der Zusammenstellung der Mitarbeiter sollte auf möglichst komplementäre Skills aus unterschiedlichen Herkunftsdomänen geachtet werden.

Den größten Erfolg verspricht ein Projektteam aus internen und externen Mitarbeitern, das:
Fachverständnis der Lebensversicherungsdomäne im Vertrieb, Betrieb, Aktuariat und Produktentwicklung besitzt
den Zugriff auf die relevanten Daten durch IT- und Programmier-Know-how ermöglichen kann
wertschöpfende Einblicke und neue Erkenntnisse mittels mathematischer Modellierung, Operations Research und Anwendung beschreibender Statistik gewinnen kann
die Datenintegration für die Produktivsetzung und Systemintegration der Big Data Use Cases realisiert.

Erfolgskritische Schlüsselqualifikationen

Versicherungsmitarbeiter mit Basic-Skills können durch Learning by Doing und/oder gezielt abgestimmtem Training die für den erfolgreichen Big Data Analytics-Einsatz notwendigen Schlüsselqualifikationen erwerben. Parallel wird es Koordinatoren, Moderatoren, Big Data Technologie-Experten und aktuarielle Data Scientisten in der Initialphase brauchen.

Folgende Analytics-Schlüsselqualifikationen sind erfolgskritisch:

 IT- und Programmierung Ausprägungen
 Management von strukturierten
Daten(formaten)

·        Structured Query Language (SQL)
·        JavaScript Object Notation (JSON)
·        Extensible Markup Language (XML)

 Management von unstrukturierten
Daten(formaten) / Echtzeitdatenströmen
·        No-SQL Key-Value Datenbanken
 Natural Language Processing (NLP) und
Textmining

·        Audio – Sprach(muster)erkennung
·        Bild
·        Video
·        Entdeckung von Bedeutungsstrukturen

 Maschinelles un-/überwachtes Lernen

·        Random Forest, Entscheidungsbäume
·        Mustererkennung via neuronaler Netze
·        Mustererkennung via Support Vector Machine
·        Clustering-Verfahren

 Big Data Konzepte / Architekturen

·        Hadoop (Open-source)
·        Map/Reduce Konzept

 

 Math. Modelle / OR / Statistik Ausprägungen
 Optimierung

·        lineare, ganzzahlige, konvexe Optimierung
·        nicht lineare, lokale, globale Optimierung

 Mathematikbasis

·        lineare Algebra
·        Infinitesimalrechnung

 Graphentheorie, graphische Modelle ·        soziale Netzwerke – Social Media Analytics
 Simulation

·        diskrete Simulation
·        agentenbasierte Simulation
·        kontinuierliche Simulation

 Stochastische Prozesse

·        Markov-Ketten
·        Monte-Carlo Methoden

 Data Mining und Visualisierungstools

·        R
·        SAS
·        RapidMiner
·        Python
·        Excel
·        SQL
·        Spark
·        Tableau

 Statistische Modellierung

·        allgemeine lineare Modelle
·        univariate Varianzanalyse
·        multivariate Varianzanalyse
·        Raum- und Zeit-Analysen
·        Geo-Daten-Analyse, Geoinformationssysteme

So entschied sich viadico
viadico hat sich für die Plattform Haven von Hewlett Packard Enterprise (HPE) und die statistische Analyse- und Programmiersprache R (R für Dummies, Andrie de Vries, Joris Meys, 1. Auflage 2015, WILEY-VCH Verlag) in der Entwicklungsumgebung RStudio inklusive Datenvisualisierung entschieden. Die Plattform Haven unterstützt die versicherungsfachliche Expertise von viadico optimal und ermöglicht die effiziente Datenanalyse von Versicherungsunternehmen.

Daten regelkonform analysieren und vernünftig auswerten

Big Data Analytics birgt viele Details, die Thematik ist sehr komplex. Trotzdem gilt: Bange machen gilt nicht. Wer, wenn nicht die Versicherungswirtschaft, verkauft virtuelle Produkte und Lösungen seit Jahrhunderten par Excellence.

Das Versicherungsunternehmen erfindet sich in Teilen gerade neu – im Sinne eines bald 100 Prozent datengetriebenen Unternehmens. „Big Data anzapfen und nutzen“ lautet die digitale Devise für mutige Versicherungsunternehmen.

Nicht zuletzt Googles Geschäftsmodell, gigantische Mengen an Informationen zu strukturieren, zu sortieren und zu verschlagworten, hat auch andere Unternehmen wie Amazon und Facebook auf den Geschmack gebracht, immer mehr Daten zu sammeln und zu analysieren.

Nur eines darf man nicht vergessen: man muss sich den Daten mit vernünftigen Hypothesen nähern und sie dann mit modernen intelligenten Werkzeugen interpretieren, sonst sind sie nutzlos. Das heißt, die beiden wichtigen Leitplanken Datenschutz und gesunder Menschenverstand haben weiterhin Gültigkeit.aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert