BANK-IT24. August 2018

Mit hyperkonvergenter Infrastruktur aus dem Legacy-Lock-In; via SD(N/S) zum Software-Defined-Datacenter

Die Digitalisierung hat den Banken neue Kundenanforderungen und neue Mitbewerber beschert. Aspekte wie Echtzeit, ständige Verfügbarkeit und Sicherheit sind zentrale Aufgaben geworden, an denen sich die Banken-IT künftig ausrichten muss. Eine hyperkonvergente, virtualisierte Infrastruktur bietet hier die nötige Leistung. Wie ein Software-Defined-Datacenter gegen Engpässe helfen kann.

Mittlerweile sind Legacy-Systeme auch in den Rechenzentren der Banken auf dem Rückzug; und werden durch x86-Architekturen und moderne Infrastruktur ersetzt
Mittlerweile sind Legacy-Systeme auch in den Rechenzentren der Banken auf dem Rückzug und werden durch x86-Architekturen ersetzt.Dell

von Dinko Eror, Senior Vice President und Managing Director von Dell EMC Deutschland

Die Herausforderungen (Strukturwandel, Online, Internet, Sofortness, Finanzkrise, …) haben natürlich massive Auswirkungen auf die IT-Infrastruktur der Banken. War es bis zur Finanzkrise durchaus üblich, die großen Legacy-Systeme der 80er-Jahre mit gewissen Anpassungen fortzuschreiben, so sind diese Systeme nun endgültig ausgereizt – sie bieten nicht die nötige Flexibilität und Offenheit, um die digitalen Prozesse abzubilden.

Damit sind veraltete IT-Systeme mittlerweile über die IT hinaus zu einem Risiko geworden.”

Das wird besonders bei den mobilen Systemen deutlich. Für die Kunden sind Smartphones und Tablets sowie die entsprechenden Apps mittlerweile wichtiger als die herkömmlichen Web-Plattformen. Wer hier nicht präsent ist, ist für die Kunden nicht mehr wahrnehmbar. Einige Institute sind in ihrer IT-Strategie daher bereits vom Konzept des “Mobile First” zum “Mobile Only” weiter gegangen, wollen den Kundenkontakt künftig also nur noch über die mobile Schiene laufen lassen. Wie auch immer – gerade Mobility bedeutet eine enorme Herausforderung für die Banken-IT, denn damit werden drei Forderungen der digitalen Welt weiter zugespitzt: sofort, immer und sicher.

Es gilt “Echtzeit” – alles andere ist zu langsam

In der vor-digitalen Ära war der Aspekt “Echtzeit” auf wenige Bereiche des Bankgeschäfts beschränkt; Wertpapiere mussten in Echtzeit gehandelt werden. Aber Kontoabfragen spiegelten den Stand von gestern wider und Überweisungen dauerten sowieso: bis die Belege erfasst und über die Landesbanken ausgetauscht waren, konnten schon eine paar Tage verstreichen; von den so entstehenden Wertstellungsdifferenzen lebten die Banken ja auch nicht schlecht. Für Geschäfte im E-Commerce ist das kein guter Ansatz – die Kunden wollen sofort zahlen, weil sie die Ware sofort erhalten wollen; und das soll natürlich auch um Mitternacht am Wochenende funktionieren und selbstverständlich per Smartphone. Man könnte solche Wünsche vielleicht ignorieren, aber Paypal und Amazon Payment bieten solche Leistungen an; und wer verhindern will, dass seine Kunden abwandern, muss eben “Echtzeit” in seinen Leistungskatalog aufnehmen.

Dinko Eror, Senior Vice President und Managing Director von Dell EMC DeutschlandDell EMC Deutschland

Generell verlagern sich herkömmliche Bankverfahren mehr und mehr in die IT-Prozesse. So funktioniert das bewährte Vier-Augen-Prinzip nicht mehr, wenn die betreffenden Vorgänge rund um die Uhr laufen; es wird dann beispielsweise durch Verfahren der Künstlichen Intelligenz (KI) ergänzt oder ersetzt. Voraussetzung ist auch hier, dass diese in Echtzeit und jederzeit zur Verfügung stehen. Auch Sicherheit, in einer digitalen Bankenwelt ein ganz zentrales Kriterium, wird weniger durch bewaffnetes Wachpersonal als durch eine hochverfügbare IT gewährleistet.

Ein anderes Szenario, in dem Echtzeit für Finanzdienstleister eine zentrale Rolle spielt, ist “Fraud Detection“, mit der Kreditkartenabwickler missbräuchliche oder betrügerische Transaktionen zu unterbinden suchen – wobei natürlich zulässige Transaktionen nicht abgelehnt werden dürfen. Die Unterscheidung trifft KI. Fraud Detection muss extrem schnell erfolgen, weil der Kunde eventuell bereits am Terminal einer Kasse steht und zahlen möchte. Die IT muss genügend Rechenleistung vorhalten, damit die Plausibilitätsprüfung mit der nötigen Geschwin­digkeit auf historische Daten des jeweiligen Kunden zugreifen kann.

Echtzeit und ständige Verfügbarkeit heißt für die IT wiederum, dass die traditionellen Wartungsfenster nicht mehr zur Verfügung stehen.”

Die Systeme müssen daher in der Lage sein, sich automatisiert ständig auf aktuellem Stand zu halten.

Wenn, um ein weiteres Beispiel aus dem Bereich Sicherheit zu nennen, die Authentifizierung von Neukunden nicht mehr durch das umständliche Post-Ident-Verfahren, sondern per Video-Ident erfolgt – die “digitalen Kunden” wollen und sollen sofort an Bord geholt werden, auch nachts um halb drei –, so setzt das voraus, dass die entsprechenden Systeme bereitstehen. Die Meldung: “Wegen Wartung außer Betrieb, versuchen Sie es morgen wieder” wäre wohl nicht zielführend.

Hyperkonvergente Infrastruktur gegen Engpässe

Die gute Nachricht: Mit modernen x86-Architekturen lassen sich höchste Anforderungen, auch unter Berücksichtigung von Echtzeit und ständiger Verfügbarkeit, ohne weiteres erfüllen.

Mehrkern-Systeme sind heute so leistungsfähig, dass Standard-Server für alle Aufgaben ausreichen. Die Zeiten, da man für hohe Performance Spezialsysteme benötigte, die nicht nur teuer, sondern auch aufwändig zu warten waren, sind jedenfalls vorbei.

Rechenzentren mit virtualisierter Infrastruktur lassen sich mit Standard-Servern sehr gut skalieren, so dass künftige Anforderungen ebenfalls abgedeckt sind. Serverseitig ist Performance für Rechenzentren kein aktuelles Problem mehr.”

Für die klassischen “Wartungsfenster” ist in der digitalen Welt keine Zeit mehr; die Systeme müssen daher Wartung im laufenden Betrieb ermöglichen.Dell

Das gilt im We­sent­li­chen auch für Mas­sen­spei­cher: Mit dem ver­brei­te­ten Ein­satz von SS­Ds ge­hö­ren Eng­päs­se bei Sto­r­a­ge-Sys­te­men der Ver­gan­gen­heit an. Muss­te man sich bei dre­hen­den Plat­ten mit Zu­griffs­zei­ten von 8 Mil­li­se­kun­den zu­frie­den ge­ben, so er­reicht man mit SS­Ds im le­sen­den Zu­griff be­reits 0,1 Mil­li­se­kun­den; mit dem NVMe-Pro­to­koll lässt sich die Per­for­mance wei­ter stei­gern, weil hier par­al­le­le IO-Ka­nä­le zur Ver­fü­gung ste­hen. Auf die­se Wei­se er­reicht man Zu­griffs­zei­ten, die schon im Be­reich des Haupt­spei­chers lie­gen. Und auch bei Mas­sen­spei­chern setzt sich die Stan­dar­di­sie­rung durch: Das Kon­zept des “Soft­ware-de­fi­nier­ten Re­chen­zen­trums” er­laubt den Ein­satz von Stan­dard-Kom­po­nen­ten für un­ter­schied­li­che Auf­ga­ben, so dass ho­he Ska­lier­bar­keit bei gleich­zei­tig ho­her Per­for­mance hier eben­falls si­cher­ge­stellt ist.

Verbleibende Engpässe liegen daher weder bei den CPUs noch bei den Storage-Systemen, sondern eher bei den Leitungskapazitäten. Damit sind noch nicht mal die externen Verbindungen gemeint, die für eine ausreichende Performance zwischen Finanzdienstleistern und Telekommunikationsprovidern auf eine sichere Glasfaser-Infrastruktur angewiesen sind – was regional noch immer unterschiedlich realisiert ist. Auch innerhalb eines Rechenzentrums müssen die Leitungen mit der enorm gestiegenen Leistung von Rechnern und Storage Schritt halten.

Dafür bietet sich eine hyperkonvergente Infrastruktur an, deren Software-basierte, virtualisierte Architektur Prozessoren, Storage und Netzkomponenten direkt zu einem einheitlichen, konsistenten System zusammenschließt, so dass die interne Kommunikation gar nicht mehr über ein klassisches Netz erfolgt.

Der Flaschenhals Leitungskapazitäten wird also nicht durch neue Komponenten gedehnt, sondern komplett umgangen; vereinfacht: Auf Leitungen wird verzichtet.”

Dinko Eror, Dell EMC Deutschland
Dinko Eror ist seit Januar 2016 Senior Vice President und Geschäftsführer der EMC Deutschland und leitet seit Februar 2017 zudem den Bereich Enterprise Sales von Dell EMC in Deutschland. Zu seinen Aufgaben gehört es, das Unternehmen im Kontext der digitalen Transformation strategisch als Anbieter von Lösungen und Dienstleistungen auszurichten und den Wachstumskurs von Dell EMC in Deutschland fortzuführen.
Der Gewinn sind hohe Ausfallsicherheit, natürlich Performance und sehr gute Skalierbarkeit; wird mehr Leistung benötigt, erhöht man während des Betriebs einfach die Anzahl der Knoten. Insofern entsprechen hyperkonvergente Infrastrukturen genau dem Anforderungsprofil, mit dem Banken in der Digitalisierung konfrontiert sind – was aber insofern keine ganz große Überraschung ist, als diese Strukturen ja vor dem Hintergrund eben solcher Anforderungen entwickelt wurden.

Was meist noch nicht so recht zur Flexibilität der hyperkonvergenten Infrastruktur passt, ist die zyklische Beschaffungsweise vieler Banken.

In der Regel wird zum Jahresanfang ein Budget aufgestellt, in dessen Rahmen dann Systeme beschafft werden können. Allerdings ist ein Jahr im digitalen Zeitalter ein recht langer Zeitraum, wer also auf der sicheren Seite sein will, verschafft sich Puffer und beschafft auf Vorrat. Das ist nicht effizient, passt vor allem aber nicht zu den flexiblen Skalierungsmöglichkeiten moderner Architekturen. “Digitale Unternehmen” gehen hier anders vor: Sie beschaffen Systeme entsprechend aktueller Geschäftserfordernisse; kann durch ein neues Geschäftsmodell mehr verdient werden, so kann auch mehr investiert werden. Hier besteht bei vielen Banken noch Spielraum zur Optimierung: Sie könnten auf diese Weise noch flexibler und effizienter werden. Und damit schon wieder ein Stück digitaler.aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert