Geschwindigkeit versus Stabilität: Umsetzung der bi‑modalen IT in Finanzunternehmen
Der Finanzsektor ist sehr risikobewusst, was Entscheidungen bezüglich der IT-Infrastruktur betrifft. Systeme müssen einem „Hardening“ unterzogen werden, hochverfügbar sein und die Daten effektiv geschützt werden. Dies ist sowohl für die Einhaltung gesetzlicher Vorschriften als auch – oft noch wichtiger – erforderlich, um den anspruchsvollen Anforderungen der internen Stakeholder gerecht zu werden. Wie Finanzdienstleistungsunternehmen die Softwareentwicklung beschleunigen und die Ausfallsicherheit verbessern können – bei reduzierten Kosten.
von Cassian Ewert, IT-Infrastrukturen Solutions Architect DACH, Actifio
Traditionell haben Finanzgesellschaften stets alles an Technik angeschafft, was erforderlich war, um einen reibungslosen IT-Betrieb aufrechtzuerhalten. Sie haben dabei in eine Reihe von sich überschneidenden Produkten, Tools und Services investiert, um die Geschäftskontinuität zu gewährleisten.Das Ergebnis sind große, stabile, teure und unflexible Legacy-Systeme.”
Auf der Applikationsseite werden jedoch auch die größten Finanzunternehmen von einem wachsenden Angebot flinker FinTech-SaaS-Startups herausgefordert. Diese haben es verstanden, neue attraktive Funktionen schnell umzusetzen – und sie haben das Innovationstempo im Finanzmarkt verändert.
„Schnell“ ist das neue „Groß“
Angesichts aufstrebender Konkurrenten: Wenn es darum geht, mit neuen Anwendungen die eigenen Kunden zu binden, gilt heute: ‘Schneller’ ist besser als ‘Groß’. Zukunftsorientierte CIOs in der Finanzbranche müssen daran arbeiten, Software-Releases schneller und kontinuierlicher zu liefern, um im Wettbewerbsumfeld Schritt zu halten.
Das Konzept der bi-modalen IT
Gartner hat die Herausforderung, Innovationen zu beschleunigen und gleichzeitig eine Basis für eine robuste und sichere Kerninfrastruktur vorzuhalten, als „bi-modale IT“ beschrieben.”
Gartner hat die Herausforderung, Innovationen zu beschleunigen und gleichzeitig eine Basis für eine robuste und sichere Kerninfrastruktur vorzuhalten, als „bi-modale IT“ beschrieben.”
Das ist ein Konzept, das von Unternehmen eine entscheidende digitale „Transformation“ einfordert. Die Bereitstellung begrenzter IT-Ressourcen unterliegt widersprüchlichen Anforderungen: einerseits die Geschäftskontinuität und den Kern-IT-Betrieb zu gewährleisten („Modus 1“) und andererseits neue Fähigkeiten einzuführen, die Innovationen ermöglichen und die Geschäftsagilität verbessern („Modus 2“). Dies erfordert oftmals knallharte Entscheidungen.
Viele Finanzunternehmen, die Modus-2-Bemühungen zur Verbesserung der Agilität verfolgten, stellten fest, dass bestehende Infrastrukturen und manuelle Prozesse ihre Fähigkeit, sich schneller und flexibler zu bewegen, behinderten. Dies lag daran, dass in herkömmlichen Datenumgebungen kritische Anwendungsdaten in separaten Silos – etwa für Produktionslasten, Backups, Disaster Recovery oder Archivierung – „eingesperrt“ sind. Für den Datenzugriff musste entweder zusätzliche Speicherhardware für Datenkopien bereitgestellt werden oder es bestand die Gefahr von Auswirkungen auf die Produktionslasten, wenn größere Datenmengen für Entwicklung und Tests angefordert werden. Diese Aktivitäten mussten auf teurem Produktionsspeicher betrieben werden, was die Hardware- und Betriebskosten erhöhte.
Teure, schwerfällige Infrastruktur
Ein verbesserter Zugang zu Daten ist aber Voraussetzung für kontinuierliche, frühzeitige, parallele und höherwertige Softwaretests zur Unterstützung von DevOps-, CI/CD- (Continuous Integration/Development) oder sogar „Agile“-Entwicklungsansätzen. Genau diese Ansätze wurden aber bislang sowohl durch bestehende Prozesse als auch durch teure, schwerfällige Infrastruktur ausgebremst.
Schneller Datenzugriff ohne hohe Kosten – durch Datenvirtualisierung
Für die beiden zentralen Herausforderungen, auf der einen Seite „Resilienz“, also Fehlerimmunität und Verfügbarkeit stabiler Geschäftsanwendungen, und auf der anderen Seite die Entwicklung und Prüfung neuer Geschäftsanwendungen, sind Daten entscheidend. Genauer gesagt, benötigen große Finanzunternehmen sofortigen Zugriff auf Datenkopien für Backup, Wiederherstellung, Tests, Archivierung und Analysen, um schneller zu agieren und geschäftskritische Dienste aufrechtzuerhalten. Eine wachsende Anzahl von Finanzunternehmen setzt hierfür neue Plattformen zur Datenvirtualisierung ein.
Ziel ist es, vormals separate Datenmanagement-Tools zu konsolidieren sowie Entwicklungs- und Testaktivitäten zu beschleunigen, um einen Wettbewerbsvorteil im Markt zu gewinnen.”
Um die Herausforderungen in Sachen Agilität und Resilienz kostengünstiger zu bewältigen, ist ein grundlegend neuer Ansatz zur Verwaltung von Daten erforderlich, der infrastrukturunabhängig und anwendungsorientiert ist. Dies erfordert:
1. Die Entkopplung von Daten von der zugrundeliegenden Infrastruktur und die Vereinfachung des Zugriffs auf Storage, Hypervisor und Cloud. Dies wird durch Datenvirtualisierung ermöglicht.2. Die Automatisierung der Datenaktualisierung aus der Produktion, so dass Tests mit realen, zuverlässigen Daten durchgeführt werden können.
3. Inkrementelle Aktualisierungen mit einem minimalen Sicherungsfenster, um die Auswirkungen auf Produktionsanwendungen zu minimieren. „Incremental forever“-Backups haben weniger Auswirkungen auf die Anwendungen.
4. Die Fähigkeit, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen, unabhängig von der Größe des Datensatzes.
5. Die Verringerung des Speicherbedarfs durch Bereitstellung virtueller Kopien anstelle von physischen Kopien von Produktionsanwendungsdaten.
6. Die Unterstützung von unternehmensweiten IT-Systemen wie Fibre-Channel-Netzwerken, Oracle-Datenbanken und -Funktionen (RAC, ASM, RMAN usw.) sowie Microsoft SQL Server.
7. Die Integration mit API-gesteuerten Automatisierungsworkflows, DevOps-Toolchains oder CI/CD-Pipelines.
8. Rollenbasierte Zugriffskontrollen, um festzulegen, wer auf welche Testdaten auf welchen Testmaschinen zugreifen kann; und Workflows für die Automatisierung der Datenmaskierung mit beliebigen Tools und Skripts von Drittanbietern.
Das Ergebnis
Eine bis zu 240-fache (30 Minuten statt 5 Tage) schnellere Bereitstellung von Testdaten. Die Anwendungs-Release-Zyklen konnten um 25 Prozent verkürzt werden. Die Anzahl der Testumgebungen wurde verdoppelt, ohne den Speicherbedarf zu erhöhen. Der zur Unterstützung von DevOps erforderliche Administrationsaufwand seitens IT-Betriebs- und Datenbankteams konnte um 50 Prozent reduziert werden. Zudem konnten die Supportkosten verringert werden, da mehr Fehler bereits in einem früheren Stadium, also vor den Benutzerakzeptanztests und insbesondere vor dem produktiven Einsatz gefunden werden.
Leichter von der Theorie zur Praxis
Datenvirtualisierungsplattformen wie Actifio ermöglichen es Finanzdienstleistern und anderen großen Unternehmen, sowohl Anwendungsdaten effizienter zu sichern, als auch mehr Entwicklungsprojekte mit weniger Fehlern, besserer Kontrolle über die Daten und niedrigeren Kosten abzuwickeln. Auf diese Weise werden die Interessen der „Dev“- und „Ops“-Teams, also Softwareentwicklung und IT-Betrieb, besser aufeinander abgestimmt, was die vollständige Umsetzung des DevOps-Modells ermöglicht. Den Entwicklern wird der sofortige Self-Service-Zugriff auf umfassende Testdaten ermöglicht, während gleichzeitig gewährleistet ist, dass der IT-Betrieb unter Kontrolle ist: durch engmaschige SLAs für den Datenschutz, rollenbasierte Zugriffssteuerung und integrierte Datenmaskierung. Bi-modale IT und DevOps bleiben auf diese Weise nicht nur wünschenswerte theoretische Ansätze, sondern können in der Praxis ohne Kompromisse umgesetzt werden.aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/50387
Schreiben Sie einen Kommentar