Anzeige
STRATEGIE25. Oktober 2019

Daten in den Griff bekommen – oder scheitern

"Historisch gewachsene Infrastrukturen führen häufig zu vielen Daten-Kopien in diversen Silos" sagt Manfred Buchmann, Field CTO EMEA, Cohesity
Manfred Buchmann, Field CTO EMEA, CohesityCohesity

Mainframes, Server-Client-Systeme, mobile Apps, Multi-Cloud: Historisch gewachsene Infrastrukturen führen häufig zu vielen Daten-Kopien in diversen Silos – und damit zu Mehrfach-Aufwand und hohen Kosten. Daher benötigen Banken ein Software-definiertes, Plattform-übergreifendes Datenmanagement der nächsten Generation.

von Manfred Buchmann, Field CTO EMEA, Cohesity

Keine Frage: Mainframes sind nach wie vor eine äußerst stabile und zuverlässige Lösung. Daher spielen sie für das Kerngeschäft von Finanzinstituten nach wie vor eine wichtige Rolle, von der Transaktionsverarbeitung bis zur Gehaltsabrechnung. Aber sie sind enorm teuer und haben nicht die Flexibilität moderner Systeme. So möchten die meisten Banken ihre Abhängigkeit vom Mainframe vermindern, fürchten jedoch die Risiken der Migration.

Gleichzeitig fehlen oft die nötigen Fähigkeiten, um Anwendungen und Daten aus diesen Altsystemen zu extrahieren. So bremsen sie viele Versuche zur Modernisierung der IT-Infrastruktur aus.”

Ein Großteil der Mainframe-Daten kann in eine unstrukturierte NoSQL-Datenbank extrahiert werden. Darauf lässt sich dann eine Google-artige Suche, etwa auf Basis von Elasticsearch, oder auch ein geeignetes Analyse-Werkzeug anwenden. Der Vorteil ist, dass gängige Programmiersprachen wie Java genutzt werden. Der Nachteil besteht darin, dass gewisses Know-how erforderlich ist und die Lösungen noch nicht wirklich für den Einsatz im Finanzwesen ausgereift sind. So gibt es noch keine Standard-Lösungen für Backup und Disaster Recovery oder für die Analyse von PDF-Dateien und Mainframe-Daten. Gerade im strengen Compliance-Umfeld der Banken stellt dies ein großes Hindernis dar.

Ähnliches gilt für alte Speichersysteme, Netzwerkgeräte, Server, Betriebssysteme und Anwendungen. Im Laufe der Jahre wurden auch mehrere Schichten von Datenbanken, Middleware und ERP-Lösungen aufgebaut, die zu komplexen Abhängigkeiten führten. Diese Entwicklung einfach weiterlaufen zu lassen, ist aber keine Lösung. Denn die Komplexität steigt und die IT-Probleme werden immer größer, zumal angesichts des Fachkräftemangels insbesondere für ältere Systeme.

Nichts tun – geht nicht

Die unvermeidliche Transformation hinauszuzögern, ist auch wirtschaftlich nicht sinnvoll. Der Finanzsektor ist heute sehr wettbewerbsintensiv und Unternehmen brauchen hohe Agilität und Daten-Transparenz, um mithalten zu können.

Autor Buchmann, Cohesity
Manfred Buchmann ist seit 2018 als Field CTO EMEA für Cohesity tätig. Vorher arbeitete er fast 15 Jahre in verschiedenen Positionen für NetApp, zuletzt als VP System Engineering EMEA.
Hinzu kommen die steigenden Anforderungen der Corporate Governance. Historisch gewachsene Rechenzentren sind ein gutes Versteck für Daten. Das kann bedeuten, dass Banken nicht angemessen auf die Forderungen einer Regulierungsbehörde reagieren können, die etwa eine E-Mail-Nachricht oder Details eines Geschäfts sehen möchte. Gerade im Zuge der DSGVO ist die Bedeutung eines umfassenden Datenmanagements gestiegen, bei dem zum Beispiel alle personenbezogenen Daten eines Kunden quasi per Knopfdruck gelöscht werden können.

Speziell bei Banken kommen zahlreiche weitere Compliance-Anforderungen hinzu, die in Deutschland, Europa oder international gelten und sich teilweise widersprechen. Zudem sind regelmäßige Audits oder Zertifizierungen durchzuführen. Daher müssen Banken heute wissen, wo welche Daten liegen und welcher Mitarbeiter was damit anstellt.

Dabei reicht es nicht mehr aus, nur die Namen der Dateien zu kennen. Noch wichtiger sind die Inhalte, also was in diesen verschiedenen Dateien steht.”

Hier sind nicht nur Text-Dokumente zu berücksichtigen, sondern auch Audio-Mitschnitte von Beratungsgesprächen, Video-Dateien, Bilder, eingescannte Dokumente oder Antworten von Chat-Bots. Diese Informationen können herkömmliche Datenmanagement-Systeme nicht liefern.

Führungskräfte von Finanzinstituten kennen zwar diese Probleme, wissen aber häufig nicht, wie sie diese lösen können. Sie versuchen dies meist durch eine Einführung immer neuer Systeme, die jedoch wiederum zu einer Verschärfung des Problems führen. Denn in der Folge liegen sekundäre Daten in mehrfachen Kopien auf isolierten Inseln wie Backups, File Shares, Archiven, Analyseprogrammen und anderen Orten. Wenn die gleichen Daten x-mal in verschiedenen Speicherorten liegen, nennt man dies Mass Data Fragmentation.

Cloud-Kosten – eine Beispielrechnung

Viele CIOs haben die Lösung in der Cloud gesucht. Aber die Situation wurde damit aufgrund steigender Kosten häufig noch verschlimmert, wie folgendes Rechenbeispiel zeigt:

Speichert eine Bank 1 PB Daten, kostet diese Menge laut dem durchschnittlichen Cloud-Speicher-Preis monatlich etwa 24.000 Euro. Wird jeweils eine Sicherheitskopie erstellt und gespeichert, erhöhen sich die Kosten um weitere 24.000 Euro. Dies gilt entsprechend für Archivkopien und Dev/Test-Umgebungen, so dass der Gesamtpreis schnell auf 96.000 Euro im Monat steigt. Bei einer Reduzierung der Anzahl von Datenkopien von vier auf zwei lassen sich die Speicherplatz-Kosten halbieren, was einer jährlichen Ersparnis von 576.000 Euro entspricht.

Mit der Kluft zwischen dem erwarteten und dem tatsächlich erreichten Nutzen von Migrationen in die Public Cloud hat sich kürzlich eine Umfrage unter 900 IT-Entscheidungsträgern beschäftigt. Bei 91 Prozent der Befragten sind die gleichen Daten in Kopien über verschiedene Clouds hinweg verteilt, so dass die Fragmentierung steigt. Neben den Kosten erhöhen sich dadurch auch der Aufwand für Administration und Management, die Gefahren für Compliance und Security sowie die Zeit für Datensuche und -analyse. Zudem verschärfen sich diese Probleme im Zuge der anhaltenden Datenflut quasi exponentiell.

Modernes Datenmanagement

Die Antwort liegt in einem modernen Ansatz für das Datenmanagement.

Mit Hilfe Software-definierter, Plattform-übergreifender Lösungen lässt sich die Anzahl der Datenkopien reduzieren sowie Data Governance und Mining der wertvollen historischen Daten verbessern.”

Denn Banken konsolidieren damit alle Daten auf eine einheitliche Plattform, vermeiden unnötige Kopien und Silos und erhalten durch integrierte Backup-, Mass-Restore- und IT-Security-Maßnahmen bestmögliche Sicherheit.

Gleichzeitig werden automatische Analysen von Daten über Cloud- und On-Premises-Systeme hinweg immer wichtiger. So basiert das Next Generation Data Management nicht mehr auf dem Speicherort, sondern auf den Datei-Inhalten. Damit ist zum Beispiel eine Vorselektion der Daten anhand einer Mustererkennung möglich. So werden etwa Namen, Personalausweis-Nummern oder Konto-Zugangsdaten automatisch erkannt und deren Hochladen oder Auslesen nur in bestimmten, speziell abgesicherten Umgebungen erlaubt.

Dies vermeidet auch das bisherige „Cattle Management“, bei dem es relativ egal war, ob eine Datei aus der Herde verloren ging. Dies kann sich kein Finanzinstitut mehr erlauben. Heute ist jede Datei wichtig und so wie ein spezielles Haustier zu hegen und zu pflegen – oder zumindest nicht zu vernachlässigen.

Fazit

Vor allem in Bezug auf Compliance haben viele Banken erkannt, dass sie vor enormen Herausforderungen beim Datenmanagement stehen. Die Fragmentierung und mangelnde Transparenz führen aber häufig noch nicht zu konkreten Schritten. Denn viele Banken reagieren nur auf die Probleme und Anforderungen, statt sie aktiv zu lösen – etwa durch ein Next Generation Data Management mit systemübergreifender Suche und einer Festlegung per Knopfdruck, welche Daten wo gesichert werden und wer auf welche Weise darauf zugreifen kann. So handelt es sich nicht nur um ein Problem des IT-Managements, sondern auch der Unternehmenskultur, den Umgang mit Daten zu modernisieren und zu verbessern.Manfred Buchmann, Cohesity

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert