KI scheitert nicht am Code, sondern an der Architektur – Warum das reine Use-Case-Denken Banken in die Sackgasse führt

ServiceSopra Financial Technology
von Carsten Fritz, Sopra Financial Technology
Viele Institute starten blindlings mit einzelnen Anwendungsfällen. Klingt agil, ist aber naiv. Sobald mehrere Modelle parallel laufen sollen, bricht das Kartenhaus zusammen: Ressourcen werden geteilt, Workloads beeinflussen sich gegenseitig, Lastspitzen sind nicht reproduzierbar. Die Lösung liegt in einer Architektur, die Isolation nicht nur verspricht, sondern technisch durchsetzt. Kubernetes-Namespaces, getrennte Token-Caches, dedizierte Routing-Segmente sind unverzichtbar. Alles andere ist Flickwerk.Compliance by Design – oder gar nicht
Der EU AI Act ist kein Papiertiger. Verstöße können mit bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Umsatzes geahndet werden. Wer glaubt, ein paar PDFs mit Richtlinien würden schützen, täuscht sich. Compliance entsteht nicht durch Dokumente, sondern durch die Architektur: Audit-Trails bis auf Prompt-Ebene, deterministische Deployments und versionierte Modelle sind notwendig. Ohne diese Mechanismen bleibt jede KI-Entscheidung eine Blackbox – und das wird Regulatoren nicht überzeugen.
Sicherheit: Browser-TLS allein reicht nicht aus
Carsten Fritz ist Product Owner für Managed Application Services bei Sopra Financial Technology (Website). Seit über 20 Jahren arbeitet er in der Finanz-IT und hat sich vom klassischen Softwareentwickler zum Brückenbauer zwischen Technik, Regulatorik und Kundenbedürfnissen entwickelt. Dort gestaltet er sichere, KI-gestützte IT-Services, die Banken und Finanzdienstleister in die Lage versetzen, ihre Prozesse stabil, compliant und effizient zu betreibenDatenzugriff: der unterschätzte Albtraum
Die größte Lüge in KI-Projekten? „Wir haben die Daten im Griff.“ Tatsächlich liegen sie fragmentiert in Kernbanksystemen, CRM und Dokumentenmanagement.
Ohne einen zentralen Datenlayer scheitert jedes Projekt.”
Für unstrukturierte Informationen ist RAG unverzichtbar. Dabei müssen die Daten verschlüsselt, versioniert und kontextbezogen eingebunden sein. Andernfalls produziert das Modell Halluzinationen, die nicht nur peinlich, sondern gefährlich sind.
Drift: das schleichende Risiko
Der Betrieb ist kein Selbstläufer. Modelle driften – Daten ändern sich, Nutzerverhalten ebenfalls. Wer glaubt, eine einmalige Validierung reicht, spielt russisches Roulette. Notwendig sind kontinuierliches Monitoring, Baseline-Vergleiche und automatisierte Tests. Für kritische Szenarien empfiehlt sich Human-in-the-Loop. Ohne diese Mechanismen wird KI zur tickenden Zeitbombe.
Fazit: Wer die Architektur ignoriert, zahlt den Preis
Banken investieren Millionen in Use Cases, aber nur geringe Beträge in die Plattform. Das ist nicht nur kurzsichtig, sondern auch gefährlich. Wer KI sicher und skalierbar betreiben möchte, braucht eine Architektur, die Isolation, Sicherheit, Datenkonsistenz und Compliance erzwingt. Alles andere ist eine Spielerei – mit hohem Risiko für Kosten, Reputation und Regulierung.Carsten Fritz, Sopra Financial Technology
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/237792


Schreiben Sie einen Kommentar