STRATEGIE6. Oktober 2023

Speicherinfrastruktur: Die Auswirkungen von KI, ML und Deep Learning auf Data Storage im Finanzwesen

Die Finanzwirtschaft muss ihre Speicherinfrastruktur ändern, meint Plamen Minev, Technischer Direktor Quantum
Plamen Minev, Technischer Direktor QuantumQuantum

Traditionelle Speicherinfrastrukturen können mit den Anforderungen moderner AI-Technologie nicht mithalten. Die Finanzbranche muss sich mit den Möglichkeiten von Speicherarchitekturen der neuesten Generation basierend auf NVMe und RDMA auseinandersetzen.

von Plamen Minev, Technischer Direktor Quantum

Artificial Intelligence (AI) und Maschinelles Lernen (ML) sind im Finanzwesen schon seit langem ein heiß diskutiertes Thema. Die Auswirkungen auf die Branche und wirklich nutzbare Anwendungen waren bisher jedoch noch überschaubar.

Seitdem jedoch OpenAI mit ChatGPT für Furore sorgt, klingen die enthusiastischen AI-Prognosen aus den letzten Jahren kaum noch futuristisch.”

Es steht nicht mehr zur Debatte, dass AI und andere Formen des Maschinellen Lernens das Leben allgemein als auch die Wirtschaft und das Banking im Speziellen nachhaltig verändern werden. Banken und Versicherungen stehen hier aufgrund ihres sehr hohen Grades an Digitalisierung an vorderster Front. Die Finanzbranche sieht hier sehr hohes Potenzial für Verbesserungen, da so gut wie alle Unternehmensentscheidungen auf der Auswertung von Daten beruhen.

Chatbots bieten beispielsweise einen sehr hohen ROI, was sie zu einer der am häufigsten genutzten Anwendungen von KI in verschiedenen Branchen macht. In der Finanazbranche können die Bots die am häufigsten gestellten Aufgaben wie Kontostandsabfragen, Abrufen von Minikontoauszügen oder Überweisungen effektiv bewältigen. Dies entlastet andere Kanäle für Kundenkontakte wie Filialen, Callcenter oder Internetbanking.

Über diesen einfachen Service hinaus könnten Robo-Advisor in der Zukunft sogar geeignete Anlageempfehlungen in einer bestimmten Produktklasse geben, sogar so spezifisch wie ein bestimmtes Produkt oder eine Aktie. Eine solch automatisierte Beratung ist im Bereich der Finanzdienstleistungen jedoch noch hoch umstritten.”

KI kann auch dazu genutzt werden, die Kreditwürdigkeit von Kunden zu bestimmen, indem sie Daten aus einer Vielzahl traditioneller und nicht-traditioneller Datenquellen analysiert. Dies hilft den Kreditgebern bei der Entwicklung innovativer Kreditsysteme, die sich auf ein robustes Kreditbewertungsmodell stützen, selbst für Personen oder Unternehmen mit begrenzter Kredithistorie.

Auch in den Bereichen IT-Security, Cybersecurity und Betrugserkennung hat AI viel Potenzial. Biometrische Authentisierungssysteme gibt es bereits genauso wie Betrugserkennung aufbauend auf AI-Anwendungen.”

Neue Ära für Datenspeicherung

Die Grundlage solcher neuer AI- oder Deep-Learning-Anwendungen sind riesige Datenmengen und die Entwicklung der Tools erfolgt dabei im Allgemeinen in drei Schritten: Datenaufbereitung, Modelltraining und Schlussfolgerung. Man muss kein Spezialist sein, um zu sehen, dass Daten die Basis für AI sind. Entsprechend kann erwartet werden, dass mit mehr AI-Anwendungen im Banking ein massives Datenwachstum einhergeht.

Branchenanalysten gehen davon aus, dass sich die Kapazität unstrukturierter Daten – also Dateien und Objekte – in den nächsten Jahren verdoppeln oder sogar verdreifachen wird. Im Bereich Banking wird dieses Wachstum wohl noch höher sein.”

Diese neue Ära für Daten stellt die Verantwortlichen für die IT-Infrastruktur vor eine besondere Herausforderung: Die Datensätze haben einen Umfang und ein Volumen, die exponentiell größer sind als alles andere je zuvor.

Anforderungen an die Speicherinfrastruktur

Autor Plamen Minev, Technischer Direktor Quantum
Plamen Minev ist seit November 2020 Technischer Direktor bei Quantum (Website) und leitet dort AI- und Cloud-Projekte. Mit über 25 Jahren Erfahrung hat er Technologien und Teams bei Startups und globalen Unternehmen aufgebaut. Vor Quantum war er bei EY-Parthenon und als CTO bei NYNJA tätig. Er hat auch leitende Positionen bei Cisco Systems, Nortel Networks und anderen innegehabt. Plamen hat einen Master in Informatik von der Technischen Universität Sofia.
Über die einfache Speicherung dieser enormen Datenmengen hinaus stellen solche Deep-Learning-Anwendungen enorme Anforderungen an die Leistung der Speicherinfrastruktur. Denn die Verarbeitung dieser riesigen unstrukturierten Datensätze erfordert extrem niedrige Latenzzeiten und auch in diesem Maßstab konsistente Performance. Festplattenbasierte Speichersysteme, die auf seriellen Festplatten basieren, können diese Anforderungen einfach nicht mehr erfüllen. Um die nötigen niedrigen Latenzzeiten und höhere Performance zu garantieren, setzen Unternehmen auf neue verteilte Architekturen basierend auf NVMe und RDMA. Die Nutzung dieser auf Flash basierten Speicher werden aufgrund der sinkenden Preise für Flashspeicher auch immer häufiger eingesetzt.

Deutliche Leistungssteigerung von Speichersystemen notwendig

Der Ort der Speicherung dieser neuen Daten ist ein weiterer Faktor, den es zu beachten gilt. Denn die Daten befinden sich in den seltensten Fällen bequem auf dem Primärspeicher im Hauptrechenzentrum. In den meisten Fällen werden die Daten irgendwo außerhalb des Rechenzentrums erzeugt und anschließend zur Verarbeitung an einen anderen Ort transferiert. Dies kann in der Public Cloud oder in einem Rechenzentrum geschehen, oder – was wahrscheinlicher ist – finden Teile der Datenverarbeitung an beiden Orten statt. Datentransport und -verwaltung über den gesamten Lebenszyklus der Daten hinweg sind also wichtige Aspekte für die Verantwortlichen der IT-Infrastruktur. Insbesondere, da diese Datenmengen und ihre Modelle über Jahrzehnte aufbewahrt werden, falls die Programme neu trainiert werden müssen.

All diese Faktoren haben bereits Druck auf alte Speicherarchitekturen ausgeübt.

Der größte Teil der unstrukturierten Daten wird auf Systemen gespeichert, die vor über 20 Jahren entwickelt wurden, als man sich noch nicht vorstellen konnte, dass zukünftig Billionen von Daten und Objekten jahrzehntelang gespeichert werden und die meisten Dateien von Maschinen und nicht von Menschen erstellt werden.”

Fazit: Storage neuester Generation mit NVMe und RDMA ist notwendig

Unternehmen im Finanzsektor, die Anwendungen auf Basis von AI, ML und Deep Learning nutzen wollen, können ihre Ziele auf Dauer nicht mit einer traditionellen Speicherinfrastruktur erreichen. Denn diese beeinträchtigt die Produktivität der Datenwissenschaftler, Inhaltsersteller und Analysten, die täglich auf diese Daten angewiesen sind. Schlussendlich müssen diese Unternehmen sich mit den Möglichkeiten von Speicherarchitekturen der neuesten Generation auseinandersetzen. NVMe und RDMA werden hier zwangsläufig Teil der Planung sein.Plamen Minev, Technischer Direktor Quantum

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert