STUDIEN & UMFRAGEN7. Mai 2025

Studie: Vertrauen verspielen mit KI – Fehler in der Dateninfrastruktur gefährden Projekte im BFSI-Sektor

In der Finanzbranche ist Vertrauen das höchste Gut. Doch viele KI-Projekte scheitern nicht an mangelnder Technologie, sondern am schlampigen Umgang mit Daten. Die aktuelle Studie “The State of BFSI Data Infrastructure in 2024: AI’s Hidden Cost of Poor Data Quality” (Download) von Hitachi Vantara zeigt: Über 70% der IT-Leiter im BFSI-Sektor unterschätzen die Bedeutung einer robusten Dateninfrastruktur.

Das Bild zeigt eine Grafik, die die Priorität der Datenakkuratheit in verschiedenen Branchen darstellt. Die Branche „Banking, Financial Services, and Insurance“ (BFSI) wird mit 34 % als die niedrigste Priorität hervorgehoben, während der Einzelhandel und Großhandel mit 57 % an der Spitze stehen.
Datenakkuratheit in verschiedenen BranchenHitachi Vantara
In kaum einer Branche ist Vertrauen so entscheidend wie im Bankwesen, bei Finanzdienstleistern sowie Versicherern (BFSI). Das stellt besondere Anforderungen an KI-Projekte. Ein großer Teil der Initiativen scheitert – aber nicht an unzureichender Technik, sondern am nachlässigen Umgang mit Daten, sagt die aktuelle Studie von Hitachi Vantara „The State of BFSI Data Infrastructure in 2024”. So haben 73% der befragten BFSI-IT-Leiter erklärt, sie hätten für vergangene KI-Projekte keine „robuste Infrastruktur“ benötigt. Das ist ein Fehler. Wer seinen GPU-Cluster in die Cloud schiebt, ohne ein durchdachtes Backup- oder Rollback-Konzept zu haben, kann bereits mit einer einzigen falsch eingepflegten Datenspalte schnell Millionen verbrennen.

Das Bild zeigt eine grafische Darstellung mit geometrischen Formen in verschiedenen Farben. Im Vordergrund befindet sich ein roter Kreis mit der Zahl „32%“, die hervorgehoben ist. Darunter steht der Text, der besagt, dass 32% der Befragten angeben, ein KI-gestützter Angriff könnte zu einer Datenschutzverletzung führen. Diese Erkenntnisse sind besonders relevant für den BFSI-Sektor, der zunehmend von solchen Bedrohungen betroffen ist.
Hitachi Vantara

Noch schlimmer: 84% der Befragten sagen, ein Datenverlust hätte für sie „katastrophale Folgen“. Wurde das System einmal kompromittiert oder liefert Halluzinationen, ist das Vertrauen der Kunden dahin. Verbraucher stellen sich zu Recht die Frage, ob KI ihre Kontodaten versehentlich preisgeben oder ob ein KI-basierter Beratungsservice falsche Finanzentscheidungen anstoßen könnte. Trotzdem setzen viele BFSI-Entscheider vor allem auf traditionelle Maßnahmen wie Firewalls und das Prinzip Hoffnung. Motto “Es wird schon gutgehen”. Dabei gefährdet nur ein einziger Fehler in der Dateninfrastruktur KI-Projekte – und damit das Vertrauen der Kundschaft.

Die wichtigsten technischen Schwachstellen

Welche Setup-Fehler sind typisch? Und wie kann eine durchdachte Architektur – inklusive Data-Governance, Hybrid-Cloud-Strategie und Recovery-Plan – der Branche helfen, KI sicher und effektiv zu nutzen?

Die Studie gibt an, dass 48% der BFSI-IT-Verantwortlichen „Security“ als höchste Priorität nennen, während „Data Quality“ trotz ihrer zentralen Bedeutung deutlich dahinter rangiert (34%). Hier liegt laut Studie ein Hebel. Scheinbar kleine Unstimmigkeiten in den Daten können sich fatal auswirken. Fehlende oder fehlerhafte Börsenkurse, unvollständige Kundenprofile oder fehlende Compliance-Felder – kann zu falschen KI-Vorhersagen führen.

Das Bild zeigt ein Diagramm, das die Prioritäten von Organisationen für die erfolgreiche Implementierung von Künstlicher Intelligenz (KI) darstellt. Die wichtigsten Aspekte sind Datensicherheit (48 %), Kosten (45 %) und Geschwindigkeit (42 %). Weitere Prioritäten umfassen ROI, Nachhaltigkeit und Datenakkuratheit, wobei letzteres 34 % erreicht. Diese Erkenntnisse sind besonders relevant für den BFSI-Sektor., da sie die Notwendigkeit einer robusten Dateninfrastruktur unterstreichen.
Die Prioritäten von Organisationen für die erfolgreiche Implementierung von Künstlicher Intelligenz.Hitachi Vantara

Gleichzeitig prüfen laut Studie 27% der befragten BFSI-Organisationen ihre Daten überhaupt nicht auf Qualität oder Accuracy. Das illustriert den Widerspruch aus Wunsch und Wirklichkeit: Man investiert in GPUs und zieht hohe Sicherheitsmauern ein, doch die eigentliche Basis – saubere, verlässliche Daten – bleibt vernachlässigt.

Technische Problemzonen im BFSI: Wo es konkret scheitert

Selbst modernste KI-Setups können fragil sein:

  1. Hybrid-Cloud-Probleme: Viele BFSI-Organisationen verteilen ihre Daten zwischen On-Prem, Public Clouds und Edge-Standorten. APIs, Firewalls und Netzwerk-Policies sind oft nicht sauber aufeinander abgestimmt. Ergebnis: Silo-Bildung und Engpässe, beispielsweise wenn ein Trainings-Cluster plötzlich nicht mehr auf Echtzeitdaten zugreifen kann.
  2. Rollback-Desaster: Mehr als 73% der IT-Leader vertrauen darauf, dass Infrastruktur für KI-Projekte keine große Rolle spielt. Entsprechend fehlen Konzepte wie eine „Data-Time-Machine“ oder eine stringente Archivstrategie. Werden Datenbestände korrumpiert, ist dann oft kein „Zurückspulen” mehr möglich. Das bedeutet teure Ausfälle und Probleme mit Aufsichtsbehörden.
  3. Fehlende Data Governance: Wer verantwortet eigentlich die Daten? Wer hat Zugriffsrechte, und wie wird die Korrektheit sichergestellt? 40% der BFSI-Organisationen führen zwar regelmäßige KI-Audits durch, doch ein Viertel hat keine Strategie, um z. B. Modelloutputs nachvollziehbar zu erklären oder IP-Leaks zu verhindern.
  4. Security vs. Performance: Sicherheit ist zwar laut Studie die höchste Priorität, aber jede zusätzliche Sicherheitsschicht erhöht Latenzen. Ein KI-Cluster, der nonstop auf Security-Overhead wartet, bringt keinen geschäftlichen Nutzen. Hinzu kommt, dass 32% der Befragten eine KI-basierte Attacke als ernsthafte Gefahr für Datenlecks sehen, was Bedarf an weiteren Sicherheitstools auslöst und die Performance weiter drosselt.

Konkrete Konsequenzen für die Infrastruktur

Die Stolpersteine zwingen BFSI-IT-Leiter dazu, ihre Infrastruktur neu zu denken.

  1. Strukturiertes Datenmanagement: KI-Modelle können nur so gut sein wie ihre Datenbasis. Da 27% der Befragten ihre Datenqualität kaum oder gar nicht überprüfen, ist klar, warum Modelle auf Grund laufen. Eine „Data-Time-Machine“ (Versionierung von Modellen und Daten) ermöglicht jederzeit Rollbacks und verhindert, dass ein Bugfix zum Totalschaden führt.
  2. Hybrid-Cloud ohne Chaos: Statt blindem „Cloud-Hopping“ braucht es gut definierte APIs, Netzwerk-Policies und Kubernetes-Orchestrierungen, damit Latenzen kalkulierbar bleiben. Failover-Konzepte sind Pflicht, damit ein regionales Problem nicht das gesamte System abschießt.
  3. Performante Infrastruktur: Wer GPU-Cluster betreibt, sollte Flaschenhälse bei Storage und Netzwerk verhindern – etwa durch NVMe-Flash, GPUDirect Storage oder High-Speed-Backbones. So werden CPU-Engpässe reduziert und Trainingsdaten effizient bewegt.
  4. Klare Governance und Security-Strategien: Encryption-at-Rest, Zugriffsmanagement, Logging und automatisches Tiering (z. B. für Archivdaten) sind laut Studie gerade im BFSI essenziell. 84% der BFSI-Entscheider erachten Datenverluste als „katastrophal“ – entsprechend müssen Verschlüsselung und Wiederherstellungsprozesse schon in der Architektur eingeplant sein.

„AI kills trust“ – wirklich?

Laut der Studie arbeiten 69 % der Befragten bereits an konkreten KI-Anwendungsfällen. Damit diese erfolgreich umgesetzt werden können, müssen sie genau wissen, welche Daten dafür genutzt werden dürfen – und in welchem Umfang. Ein erster Schritt ist die systematische Erfassung sämtlicher Datensätze, inklusive Eigentümer, Sensibilität und Zugriffsrechten. Eine revisionierbare Speicherung von KI-Modellen, Datenversionen und Trainingsläufen ist hier ein Muss, denn nur so lassen sich bei Datenausfällen oder Modellfehlern schnell stabile Zustände wiederherstellen und die Datengrundlage der KI-Modelle nachweisen.

Die Grafik zeigt die wichtigsten Sicherheitsbedenken von IT-Führungskräften im BFSI-Sektor. An erster Stelle steht die Unfähigkeit, Daten nach einem Ransomware-Angriff wiederherzustellen (38 %). Es folgen Datenverletzungen durch Fehler interner KI (36 %) und durch menschliche Fehler (33 %).
Sicherheitsbedenken von IT-Führungskräften im BFSI-SektorHitachi Vantara

Die Gefahr eines Vertrauensverlustes: 32% sorgen sich, dass KI-gestützte Angriffe zu Datenlecks führen. Falsche Kreditentscheidungen oder manipulierte Börsendaten können Institutionen ruinieren, deren Hauptkapital das Vertrauen der Kunden ist.

Doch es wäre zu kurz gegriffen, zu sagen, KI zerstöre pauschal Vertrauen. Im Gegenteil: 40% der BFSI-Organisationen auditieren ihre Modelle bereits regelmäßig, um Outputs erklärbar zu machen und Regulierungsvorgaben einzuhalten. Richtig eingesetzt, bietet KI unschlagbare Vorteile – von schneller Betrugserkennung bis hin zu personalisierten Angeboten. Wer hingegen versucht, KI „quick & dirty“ einzuführen, wird mit Reputations- und Compliance-Schäden zahlen.

Studie „AI’s Hidden Cost of Poor Data Quality“ von Hitachi Vantara. Für weitere Informationen und den Download der Studie klicken Sie bitte auf die Grafik.
Ein Klick auf den Studientitel bringt Sie zur Download-Seite.Hitachi Vantara

Die Vorteile von KI in der BFSI überwiegen

Die gute Nachricht ist: Die Regulatorik gibt einen Rahmen vor, um KI sauber und sicher zu betreiben. Wichtig ist, dass BFSI-Unternehmen nicht nur auf Security, sondern auch auf Datenqualität, Infrastruktur-Redundanz und branchenspezifische Vorgaben achten.

Wichtig ist, dass die Hybrid-Cloud nicht zum Datengrab verkommt. Dazu ist es sinnvoll, die wichtigsten Deployments und Audits zu automatisieren und regelmäßig die Belastungsgrenzen der Sicherheitsarchitektur zu testen. 67% der befragten BFSI-Unternehmen nutzen dabei externe Partner, um Lücken in Skalierbarkeit und Security zu schließen.

Die Hitachi-Vantara-Studie “” können sie hier gegen Abgabe Ihrer Kontaktdaten heruterladen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert