Anzeige
STRATEGIE19. Mai 2017

Geschwindigkeit versus Stabilität: Umsetzung der bi‑modalen IT in Finanzunternehmen

Cassian Ewert, IT-Infrastrukturen Solutions Architect DACH, Actifio<q>Actifio
Cassian Ewert, Solutions Architect DACH, ActifioActifio

Der Finanzsektor ist sehr ri­si­ko­be­wusst, was Entscheidungen bezüglich der IT-Infrastruktur betrifft. Systeme müssen einem „Hardening“ unterzogen werden, hochverfügbar sein und die Daten effektiv geschützt werden. Dies ist sowohl für die Einhaltung gesetzlicher Vorschriften als auch – oft noch wichtiger – erforderlich, um den anspruchsvollen Anforderungen der internen Stakeholder gerecht zu werden. Wie Finanzdienstleistungsunternehmen die Softwareentwicklung beschleunigen und die Ausfallsicherheit verbessern können – bei reduzierten Kosten.

von Cassian Ewert, IT-Infrastrukturen Solutions Architect DACH, Actifio

Traditionell haben Finanzgesellschaften stets alles an Technik angeschafft, was erforderlich war, um einen reibungslosen IT-Betrieb aufrechtzuerhalten. Sie haben dabei in eine Reihe von sich überschneidenden Produkten, Tools und Services investiert, um die Geschäftskontinuität zu gewährleisten.

Das Ergebnis sind große, stabile, teure und unflexible Legacy-Systeme.”

Auf der Applikationsseite werden jedoch auch die größten Finanzunternehmen von einem wachsenden Angebot flinker FinTech-SaaS-Startups herausgefordert. Diese haben es verstanden, neue attraktive Funktionen schnell umzusetzen – und sie haben das Innovationstempo im Finanzmarkt verändert.

„Schnell“ ist das neue „Groß“

Angesichts aufstrebender Konkurrenten: Wenn es darum geht, mit neuen Anwendungen die eigenen Kunden zu binden, gilt heute: ‘Schneller’ ist besser als ‘Groß’. Zukunftsorientierte CIOs in der Finanzbranche müssen daran arbeiten, Software-Releases schneller und kontinuierlicher zu liefern, um im Wettbewerbsumfeld Schritt zu halten.

Das Konzept der bi-modalen IT

Gartner hat die Herausforderung, Innovationen zu beschleunigen und gleichzeitig eine Basis für eine robuste und sichere Kerninfrastruktur vorzuhalten, als „bi-modale IT“ beschrieben.”

Das ist ein Konzept, das von Unternehmen eine entscheidende digitale „Transformation“ einfordert. Die Bereitstellung begrenzter IT-Ressourcen unterliegt widersprüchlichen Anforderungen: einerseits die Geschäftskontinuität und den Kern-IT-Betrieb zu gewährleisten („Modus 1“) und andererseits neue Fähigkeiten einzuführen, die Innovationen ermöglichen und die Geschäftsagilität verbessern („Modus 2“). Dies erfordert oftmals knallharte Entscheidungen.

Autor Cassian Ewert, Actifio
Cassian Ewert ist IT-Experte mit langjähriger Erfahrung in der Beratung und der Implementierung von IT-Infrastrukturen und seit 2015 Solutions Architect DACH bei Actifio. Dort konzeptioniert er Lösungen bzw. Systeme entsprechend den Anforderungen der Kunden. Zuvor war er TAM Manager PSO DACH bei VMware.

Viele Finanzunternehmen, die Modus-2-Bemühungen zur Verbesserung der Agilität verfolgten, stellten fest, dass bestehende Infrastrukturen und manuelle Prozesse ihre Fähigkeit, sich schneller und flexibler zu bewegen, behinderten. Dies lag daran, dass in herkömmlichen Datenumgebungen kritische Anwendungsdaten in separaten Silos – etwa für Produktionslasten, Backups, Disaster Recovery oder Archivierung – „eingesperrt“ sind. Für den Datenzugriff musste entweder zusätzliche Speicherhardware für Datenkopien bereitgestellt werden oder es bestand die Gefahr von Auswirkungen auf die Produktionslasten, wenn größere Datenmengen für Entwicklung und Tests angefordert werden. Diese Aktivitäten mussten auf teurem Produktionsspeicher betrieben werden, was die Hardware- und Betriebskosten erhöhte.

Teure, schwerfällige Infrastruktur

Ein verbesserter Zugang zu Daten ist aber Voraussetzung für kontinuierliche, frühzeitige, parallele und höherwertige Softwaretests zur Unterstützung von DevOps-, CI/CD- (Continuous Integration/Development) oder sogar „Agile“-Entwicklungsansätzen. Genau diese Ansätze wurden aber bislang sowohl durch bestehende Prozesse als auch durch teure, schwerfällige Infrastruktur ausgebremst.

Schneller Datenzugriff ohne hohe Kosten – durch Datenvirtualisierung

Für die beiden zentralen Herausforderungen, auf der einen Seite „Resilienz“, also Fehlerimmunität und Verfügbarkeit stabiler Geschäftsanwendungen, und auf der anderen Seite die Entwicklung und Prüfung neuer Geschäftsanwendungen, sind Daten entscheidend. Genauer gesagt, benötigen große Finanzunternehmen sofortigen Zugriff auf Datenkopien für Backup, Wiederherstellung, Tests, Archivierung und Analysen, um schneller zu agieren und geschäftskritische Dienste aufrechtzuerhalten. Eine wachsende Anzahl von Finanzunternehmen setzt hierfür neue Plattformen zur Datenvirtualisierung ein.

Ziel ist es, vormals separate Datenmanagement-Tools zu konsolidieren sowie Entwicklungs- und Testaktivitäten zu beschleunigen, um einen Wettbewerbsvorteil im Markt zu gewinnen.”

Um die Herausforderungen in Sachen Agilität und Resilienz kostengünstiger zu bewältigen, ist ein grundlegend neuer Ansatz zur Verwaltung von Daten erforderlich, der infrastrukturunabhängig und anwendungsorientiert ist. Dies erfordert:

1. Die Entkopplung von Daten von der zugrundeliegenden Infrastruktur und die Vereinfachung des Zugriffs auf Storage, Hypervisor und Cloud. Dies wird durch Datenvirtualisierung ermöglicht.
2. Die Automatisierung der Datenaktualisierung aus der Produktion, so dass Tests mit realen, zuverlässigen Daten durchgeführt werden können.
3. Inkrementelle Aktualisierungen mit einem minimalen Sicherungsfenster, um die Auswirkungen auf Produktionsanwendungen zu minimieren. „Incremental forever“-Backups haben weniger Auswirkungen auf die Anwendungen.
4. Die Fähigkeit, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen, unabhängig von der Größe des Datensatzes.
5. Die Verringerung des Speicherbedarfs durch Bereitstellung virtueller Kopien anstelle von physischen Kopien von Produktionsanwendungsdaten.
6. Die Unterstützung von unternehmensweiten IT-Systemen wie Fibre-Channel-Netzwerken, Oracle-Datenbanken und -Funktionen (RAC, ASM, RMAN usw.) sowie Microsoft SQL Server.
7. Die Integration mit API-gesteuerten Automatisierungsworkflows, DevOps-Toolchains oder CI/CD-Pipelines.
8. Rollenbasierte Zugriffskontrollen, um festzulegen, wer auf welche Testdaten auf welchen Testmaschinen zugreifen kann; und Workflows für die Automatisierung der Datenmaskierung mit beliebigen Tools und Skripts von Drittanbietern.

Actifio, Copy Data Management
Actifio biete mit seiner gleichnamigen Plattform für Copy Data Management eine Lösung, die die Anforderungen moderner Finanzinstitute abdecke – und damit die geschäftliche Agilität erhöhe und die Resilienz verbessere. Nach Aussage von Actifio würden bereits über 50 Finanzinstitute weltweit die Lösung einsetzen, um ihre geschäftskritischen Daten besser zu schützen und Entwicklungszyklen zu beschleunigen.
Ein Beispiel ist ein Dienstleister für Inves­titi­ons­management und Anla­genverwal­tung. Das Wachs­tum und die Ge­schwindigkeit sei­ner Agile-Anwendungs­entwicklung wurde durch die Ge­schwindigkeit der Datenbereit­stellung aus­gebremst. So dau­er­te es drei bis fünf Tage, um Infra­struktur und Da­ten für die Test/Dev-Teams zur Verfügung zu stel­len. Das Un­ternehmen hatte auch ho­he Soft­ware- und Hard­ware-Kos­ten für Back­up und Wiederher­stellung in den ei­genen Re­chen­zentren. Nach der Implementierung zur Be­reit­stellung und Verwal­tung von Da­ten für die DevOps-Teams, konn­ten die glei­chen Testdatenmen­gen in nur 30 Minu­ten für 100 Ent­wicklungs- und Testumgebun­gen be­reitge­stellt wer­den. Hinzu kamen inte­grier­te Back­up- und Replikati­ons­funktionen zur Un­ter­stützung der neuen Disas­ter-Recovery-Ressourcen in der Cloud.

Das Ergebnis

Ei­ne bis zu 240-fa­che (30 Minu­ten statt 5 Tage) schnelle­re Be­reit­stellung von Testda­ten. Die Anwendungs-Release-Zyklen konnten um 25 Prozent verkürzt werden. Die Anzahl der Testumgebungen wurde verdoppelt, ohne den Speicherbedarf zu erhöhen. Der zur Unterstützung von DevOps erforderliche Administrationsaufwand seitens IT-Betriebs- und Datenbankteams konnte um 50 Prozent reduziert werden. Zudem konnten die Supportkosten verringert werden, da mehr Fehler bereits in einem früheren Stadium, also vor den Benutzerakzeptanztests und insbesondere vor dem produktiven Einsatz gefunden werden.

Leichter von der Theorie zur Praxis

Datenvirtualisierungsplattformen wie Actifio ermöglichen es Finanzdienstleistern und anderen großen Unternehmen, sowohl Anwendungsdaten effizienter zu sichern, als auch mehr Entwicklungsprojekte mit weniger Fehlern, besserer Kontrolle über die Daten und niedrigeren Kosten abzuwickeln. Auf diese Weise werden die Interessen der „Dev“- und „Ops“-Teams, also Softwareentwicklung und IT-Betrieb, besser aufeinander abgestimmt, was die vollständige Umsetzung des DevOps-Modells ermöglicht. Den Entwicklern wird der sofortige Self-Service-Zugriff auf umfassende Testdaten ermöglicht, während gleichzeitig gewährleistet ist, dass der IT-Betrieb unter Kontrolle ist: durch engmaschige SLAs für den Datenschutz, rollenbasierte Zugriffssteuerung und integrierte Datenmaskierung. Bi-modale IT und DevOps bleiben auf diese Weise nicht nur wünschenswerte theoretische Ansätze, sondern können in der Praxis ohne Kompromisse umgesetzt werden.aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert