STRATEGIE14. Januar 2026

Blindflug im Rechenzentrum: Weshalb fast alle Finanzinstitute die Kontrolle über ihre KI-Modelle verlieren

Schwerpunkt: Agentic, explainable & poisoned AI
Dr. Scott Zoldi, Chief Analytics Officer bei Fico, präsentiert sich in einem professionellen Umfeld. Die Herausforderungen der Überwachung von KI-Modellen in Finanzinstituten stehen im Fokus, da viele Institute die Kontrolle über diese Systeme verlieren.
Dr. Scott Zoldi, Chief Analytics Officer FicoFico

Finanzinstitute setzen KI-Systeme mittlerweile im laufenden Betrieb ein, doch ohne diese verlässlich zu überwachen. Dabei handelt es sich keineswegs um ein abstraktes Risiko der Zukunft, sondern um ein akutes Problem der Gegenwart. Die direkten Folgen sind unkontrollierte Systeme, offene Flanken für Regulierungsbehörden und eine IT-Architektur, die ein weiteres Wachstum faktisch verhindert.

 von Dr. Scott Zoldi, Chief Analytics Officer Fico 

Die gemeinsame Studie von Corinium und Fico zeichnet ein Bild, das in einem streng regulierten Sektor kaum vorstellbar scheint. Lediglich sieben Prozent der IT-Verantwortlichen geben an, ihre KI-Modelle vollständig zu überwachen. Das bedeutet im Umkehrschluss, dass in über neunzig Prozent der Institute KI-Anwendungen nach der Inbetriebnahme ohne systematische Kontrolle laufen.

Es fehlen Warnsysteme für schleichende Datenabweichungen, stabile Leistungskennzahlen und definierte Metriken mit Schwellenwerten, um ein KI-Modell bei Bedarf abzuschalten.“

Außerdem gibt es meist keine automatisierte Nachvollziehbarkeit für die interne Revision oder Bankenaufsicht, die belegt, dass KI verantwortungsvoll und wie beabsichtigt eingesetzt wird.

Hier offenbart sich eine gefährliche Schieflage der Prioritäten. Zwar sind Sicherheitsstandards in immerhin 16 Prozent der Häuser vollständig umgesetzt, für die Modellüberwachung gilt dies aber nur in besagten sieben Prozent. Viele Banken installieren also Alarmanlagen für ihre Gebäude, lassen KI-Software darin jedoch unbeobachtet laufen. Wer aber nicht prüft, wie KI-Modelle Daten verarbeiten, schätzt das Risikoprofil grundlegend falsch ein.

Die Grafik veranschaulicht den Integrationsgrad zentraler KI-Standards in operative KI-Modelle. Verschiedene Kriterien wie Sicherheit, Qualität der Kundenerfahrung und Datenverarbeitung werden bewertet, wobei die Mehrheit der Befragten eine unzureichende Integration feststellt.
Fico

KI-Modelle, die über Kreditrahmen entscheiden, Transaktionen klassifizieren oder Betrug erkennen sollen, sollten ohne operative Unsicherheit betrieben werden. Ein solches Unsicherheitsniveau wäre in einem Kernbankensystem nicht akzeptabel. Doch die KI-Modelle bleiben fragmentiert, manuell gepflegt und damit ineffizient. Zudem wissen die meisten Organisationen nicht, wie KI-Systeme angemessen überwacht werden sollen. Sie verfügen weder über KI-Blockchains noch über andere Mechanismen, um die Überwachung und Kontrolle von KI im produktiven Einsatz zu definieren.

Autor Dr. Scott Zoldi, Chief Analytics Officer Fico
Dr. Scott Zoldi ist Chief Analytics Officer bei Fico (Website), wo er seit über 24 Jahren tätig ist und die Entwicklung von Advanced Analytics und KI-Technologien verantwortet. Zuvor kam er über HNC Software zu FICO und leitete dort Teams in den Bereichen Betrugserkennung, Kreditrisiko, Cybersicherheit und Echtzeit-Entscheidungssysteme. Er promovierte in theoretischer und computergestützter Physik an der Duke University.
Dieses Missverhältnis ist kein reines Managementthema, sondern eine Frage der Architektur. Wer die Überwachung von KI-Modellen als bloße Fleißaufgabe für Datenanalysten statt als fundamentale Infrastrukturaufgabe begreift, verletzt das Konzept von ‚Responsible AI by Design‘, wodurch diese Systeme schwer weiterzuentwickeln und im produktiven Einsatz nicht prüfbar sind. Für Unternehmen, die strengen Regularien unterliegen, stellt dies ein handfestes Betriebsrisiko dar. Ohne technische Kontrollmechanismen lässt sich das Verhalten der Modelle nicht beweisbar dokumentieren, und wer nicht dokumentieren kann, gerät gegenüber der Aufsicht in Erklärungsnot.

KI-Infrastruktur scheitert an der Realität

Der zweite Befund ist ebenfalls alarmierend:

Fast zwei Drittel der Chief Technology Officers (CTOs) nennen die Unvorhersehbarkeit der Systemleistung als größte Hürde für Wachstum.“

Hauptprobleme sind dabei weder Kosten noch Speicherplatz oder Rechenkapazität, sondern schlicht die Unsicherheit über die Softwarestabilität und die vorhersehbare Operationalisierung von KI. Über die Hälfte der Befragten kämpft mit begrenzten Ressourcen bei der Verarbeitung, und rund ein Drittel ist technisch nicht in der Lage, eine Überwachung in Echtzeit zu etablieren.

So entsteht eine Diskrepanz zwischen der Euphorie über Künstliche Intelligenz und der technischen Wirklichkeit. Viele Institute modernisieren zwar ihre Anwendungslandschaft, doch das Fundament ist für die neuen Lasten nicht ausgelegt. KI-Modelle haben spezialisierte Anforderungen an Daten, Daten-Orchestrierung, Latenz, Durchsatz und Observability (technische Beobachtbarkeit), um die operative Stabilität zu gewährleisten.

Ohne eine laufende Kontrolle fliegt eine Bank im Blindflug, sobald sich die Realität verändert – und die Systeme ausfallen.“

Die Grafik illustriert die infrastrukturellen Barrieren, die den Übergang von KI-Piloten in den produktiven Masseneinsatz behindern. Wichtige Herausforderungen sind unvorhersehbare Systemleistung, begrenzte Speicherkapazitäten und unzureichende Modellüberwachung
Fico

Erschwerend kommt hinzu, dass die meisten Häuser ihre Modelle isoliert einsetzen, mit unterschiedlichen KI-Tools arbeiten und ohne gemeinsame technische Basis betreiben. Das erhöht die Komplexität, um konsistente Zuverlässigkeit und die Operationalisierung von KI sicherzustellen. Zwar löst jede Abteilung ihr eigenen Probleme, verlangsamt damit aber die Fähigkeit, den Einsatz von KI effektiv zu skalieren. Für die IT bedeutet das, dass das Gesamtsystem unbeherrschbar bleibt, selbst wenn einzelne Teams gute Arbeit leisten.

Wenn KI-Teams isoliert arbeiten

Diese technische Fragmentierung hat oft organisatorische Ursachen. Der Bericht deckt auf, dass lediglich rund fünf Prozent der Finanzinstitute eine hohe Übereinstimmung zwischen den Zielen des Geschäftsbetriebs und der KI-Strategie erreichen. Für die IT hat das zur Folge, dass Modelle häufig gebaut werden, ohne vorab zu prüfen, ob die Infrastruktur diese langfristig tragen kann. Gleichzeitig wird die Technik modernisiert, ohne zu verstehen, welche KI-Anwendungen in Zukunft darauf laufen sollen. Oft werden dabei die operativen Anforderungen für die Ausführung dieser KI-Modelle und -Anwendungen weder verstanden noch festgelegt.

Verschärft wird das Problem durch die fehlende KI-Kompetenz in den Fachbereichen, was 65 Prozent der Befragten als zentrale Wachstumsbremse nennen. Was zunächst nach einem weichen Faktor klingt, ist ein hartes technisches Problem.

Ohne ein gemeinsames Verständnis entstehen inkompatible Messgrößen, widersprüchliche Prüfpfade und Risikobewertungen, die sich nicht vergleichen lassen. Das ist nicht nur operativ ineffizient, sondern auch regulatorisch nicht darstellbar.“

Der Weg aus dem Chaos: Standards durch integrative Plattformtechnologie statt manueller Prozesse

Die Studie liefert zugleich die Lösung für dieses Dilemma. Mehr als die Hälfte der Führungskräfte geht davon aus, dass eine gemeinsame KI-Plattform die Rentabilität um mindestens fünfzig Prozent erhöhen würde, während ein Viertel sogar eine Verdoppelung erwartet. Diese Erwartung ist technisch begründet, da eine gemeinsame Plattform einheitliche Verarbeitungswege schafft, die automatische Kontrollpunkte sowie die Anforderungen an eine konsistente System-Observability und KI-Modellüberwachung ermöglichen.

Sobald die Messung von Abweichungen, die Analyse von Verzerrungen, Versionierung, Prüfpfade, Software-System-Observability und Leistungsmessung technisch integriert sind, entsteht erstmals ein durchgehender Lebenszyklus, der auch den regulatorischen Anforderungen standhält. Standards werden in diesem Szenario nicht mehr nur definiert, sondern fest implementiert, was die einzig wirksame Form der Standardisierung darstellt.

Diese konsolidierte technische Basis ermöglicht standardisierte und eingebettete Überwachungsfunktionen für alle Modelle sowie gleiche Qualitätsmaßstäbe. Sie stellt ein sauberes Software-Design und die Observability der Systemausführung sicher. Sie sorgt für sofortige Reproduzierbarkeit, einheitliche Risikoindikatoren und eine Governance, die maschinenlesbar ist. Banken und Versicherer gewinnen dadurch nicht nur an Stabilität, sondern auch an Geschwindigkeit. Modelle können schneller in Betrieb gehen, da alle Freigaben, Prüfpfade und Überwachungsmechanismen bereits existieren. Damit entsteht jene Skalierbarkeit, die bisher oft nur diskutiert wurde.

Das Ende der KI-Experimente

Banken und Versicherer betreiben heute KI-Modelle, die einen strategischen Einfluss auf Betrugserkennung, Risiken, Erträge sowie Innovation und Wachstum haben. Die Infrastruktur dahinter gleicht jedoch viel zu oft noch einer Versuchsanordnung.“

Diese Diskrepanz führt direkt zu unvorhersehbarer Software-Systemleistung, fehlender Kontrolle und Entscheidungen, die sich weder erklären noch verantworten lassen.

Der technische Auftrag ist daher eindeutig:

KI gehört fest in die IT-Architektur integriert und ist keine Experimentierwerkstatt.“

Die Modell-Überwachung muss automatisch stattfinden statt manuell, und Standards müssen im Programmcode verankert sein statt in PDF-Dokumenten. Nur ein guter Plattform-Ansatz führt KI-Modelle hierfür zusammen, statt sie zu trennen, und beinhaltet ein vollständig kohärentes Set an Anforderungen zur KI-Operationalisierung- einschließlich Observability und Überwachung der KI-Software-Ausführung. Solange dieser Wandel nicht vollzogen wird, verharrt die Branche im Blindflug. Leider ist dieser Blindflug kein theoretisches Risiko, sondern tägliche Realität.Dr. Scott Zoldi, Fico /aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert