PRODUKTE3. März 2021

FS-Demo: CVA-Risiko­mana­gement über 300 Container-Instanzen auf der Google-Cloud

bigstock.com

Hazelcast (Anbieter Cloud-Anwendungsplattform) veröffentlicht heute eine Referenzimplementierung für Finanzdienstleister. Finanzielle Risikoberechnungen in der Cloud würden damit einfacher werden und künftig auch die Skalierung mit Echtzeit-Performance umfassen.

Das finanzielle Maß für das Risiko einer Geschäftsserie im Falle, dass die Gegenpartei ihren Verpflichtungen nicht nachkommt, ist Credit Value Adjustment (CVA). Deren Berechnungen sind typischerweise umfangreiche Rechenaufgaben. Durch die Möglichkeit der Skalierung auf Anforderung sollen Finanzdienstleister ihre Berechnungskosten über die Hazelcast-Lösung (Website) nun besser kontrollieren können, indem sie nur für die genutzten Ressourcen zahlen. Mit der jetzt vorgestellten Referenzarchitektur könne die In-Memory-Computing-Plattform die Vorteile von Cloud-Umgebungen nutzen, vor allem wenn es um Elastizität und Agilität ginge. Für Anwendungsfälle, in denen Latenz, Vorhersagbarkeit und Skalierbarkeit entscheidend sind, kann die Finanzdienstleistungsbranche jetzt unternehmenskritische Anwendungen in die Cloud migrieren und durch die Nutzung ultraschneller In-Memory-Technologien einen Wettbewerbsvorteil generieren.

Weg von der Stapelverarbeitung – hin zum Stream

Sobald In-Memory-Technologien implementiert sind, lassen sich die Daten eines oder mehrerer Geschäfte aus einer Datenbank laden und über eine Caching-Schicht mit mehreren Knoten verteilen.

Hazelcast

Diese dienen dann als Eingabewerte für ein Netzwerk von Berechnungsinstanzen, welche die zugeteilten Berechnungsblöcke parallel ausführen. Die Ergebnisse wandern wieder zurück in die Caching-Schicht. In diesem Szenario ist oft eine große Rechner-Farm mit etwa 40.000 CPU-Kernen nötig, um die massive Anzahl an Berechnungen in minimaler Zeit abzuschließen.

John DesJardins, Chief Technology Officer (CTO) bei Hazelcast
Hazelcast

Die wirt­schaft­li­chen Vor­tei­le der Cloud sind be­kannt, vor al­lem die Mög­lich­keit, da­bei nur für die in An­spruch ge­nom­me­nen Res­sour­cen zu zah­len. Im­ple­men­tie­run­gen im ei­ge­nen Re­chen­zen­trum, die nur für be­stimm­te Workloads be­stimmt sind, nut­zen die ver­füg­ba­ren Res­sour­cen nicht zu 100%. Die In­ves­ti­ti­on in die In­fra­struk­tur zahlt sich da­mit nicht voll aus. Für An­wen­dungs­fäl­le, in de­nen La­tenz, Vor­her­sag­bar­keit und Ska­lier­bar­keit ent­schei­dend sind, wie in die­sem Sze­na­rio des Ri­si­ko­ma­nage­ments, bie­tet Ha­zel­cast der Fi­nanz­dienst­leis­tungs­bran­che ei­ne Blau­pau­se für die Mi­gra­ti­on un­ter­neh­mens­kri­ti­scher An­wen­dun­gen in die Cloud und die Nut­zung ul­tra­schnel­ler In-Me­mo­ry-Tech­no­lo­gi­en, um ei­nen Wett­be­werbs­vor­teil zu erzielen.”

John DesJardins, Chief Technology Officer Hazelcast

Hazelcast

Der verteilte Hazelcast-Datenspeicher mit datengesteuerter Stream-Verarbeitung ersetzt in diesem Modell die Stapelverarbeitung durch eine Art Pipelinesystem. Es schiebt die Eingabedaten in die Berechnungsfarm, orchestriert effizient die Berechnungen und sammelt dann die Ergebnisse ein, sobald sie vorliegen. Dieser sogenannte “Straight-Through”-Verarbeitungsansatz eliminiert das Zwischenspeichern von Daten in jeder Berechnungsphase und beschleunigt den Gesamtprozess.

Hazelcast
Dieser viel schnellere Ablauf ermöglicht es, von täglichen oder vielleicht stündlichen Kalkulationen auf Ad-hoc-Berechnungen überzugehen. Das erlaubt auch die Berücksichtigung aktueller Ereignisse, welche die Marktdynamik verändern könnten. So können Finanzinstitute schneller auf veränderte Marktbedingungen reagieren. Dabei ist es egal, ob diese durch Wirtschaftsnachrichten, eine nationale Katastrophe, geopolitische Ereignisse oder andere Faktoren ausgelöst sind.

300 Container-Instanzen auf der Google-Cloud

Mit dieser Implementierung in der Cloud, so wie es bei dieser Demonstration in der Google Cloud Platform (GCP) der Fall war, können Unternehmen die Infrastruktur leicht skalieren. So lässt sich das Volumen der Berechnungen oder die erforderliche Laufzeit anpassen. Zur Demonstration dieses Cloud-nativen Ansatzes skalierte Hazelcast seine Nutzung von GCP auf einen Cache mit 300 Container-Instanzen als Teil eines Kubernetes-Clusters. Dieses bestand aus 110 virtuellen Maschinen, die auf Intel Cascade Lake-Hardware basierten. Bei einem herkömmlichen On-Premises-Ansatz müsste der Anwender eine große Anzahl von Maschinen anschaffen. Der wirtschaftliche Kompromiss zwingt zu einer Maschinenanzahl, die irgendwo zwischen Spitzenlast und geringer Last liegt und somit für keine der beiden ideal ist.aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert