Explainable AI reicht nicht: Ohne Agentenlogik bleibt KI in Banken ein Blindflug

ABBY
von Dr. Marlene Wolfgruber, Strategische Verantwortung KI, ABBYY
Die Finanzbranche bewegt sich vorsichtig bei neuen Technologien. Bei generativer KI verläuft die Einführung jedoch ungewöhnlich schnell. Die Studie „State of Intelligent Automation 2025“ des Technologieanbieters ABBYY zeigt, dass mehr als 80 Prozent der Banken und 85 Prozent der Versicherer generative KI bereits in internen Abläufen einsetzen. Rund sechs von zehn Unternehmen nutzen agentenbasierte Systeme, die Verarbeitungsschritte steuern und Ergebnisse modellgestützter Verfahren nachvollziehbar machen. Der hohe Anteil zeigt, wie eng Innovation und Governance miteinander verbunden sind.Banken nennen vor allem höhere Produktivität als Grund für den Einsatz (54 Prozent). Versicherer heben Verbesserungen im Kundenservice hervor (51 Prozent). Gleichzeitig spüren 40 Prozent der Finanzdienstleister klaren Wettbewerbs- und Regulierungsdruck.
Die Herausforderungen sind spürbar. Rund 39% der Befragten berichten, dass das Training der Modelle komplexer war als erwartet.“
29 Prozent sehen Qualifikationslücken in ihren Teams. Für 32 Prozent gestaltet sich die Integration in bestehende Prozesse schwierig. Diese Hindernisse rücken die technische Architektur in den Mittelpunkt, die den Einsatz generativer Modelle überhaupt erst möglich macht.
Agentic AI schafft Ordnung in komplexen Abläufen
Agentic AI entfaltet ihre Wirkung dort, wo unstrukturierte Inhalte in strukturierte Prozessdaten überführt werden müssen. KI-Agenten analysieren Dokumente, extrahieren relevante Inhalte, prüfen Plausibilitäten und übergeben Ergebnisse an nachgelagerte Systeme. Jeder Schritt folgt definierten technischen und regulatorischen Vorgaben und bleibt vollständig nachvollziehbar. Das sorgt für stabile Abläufe in Prozessen, die stark von unterschiedlichen Dokumentarten abhängen.
Kontoeröffnungen, Kreditanträge oder Schadenmeldungen bestehen aus Informationen, die in Formularen, Schriftverkehr oder Nachweisen vorliegen. KI-Agenten führen diese Quellen zusammen und erzeugen daraus konsistente Daten, die sich weiterverarbeiten lassen. Dadurch werden Verarbeitungsschritte reproduzierbar und damit prüfbar. Genau das ist im regulierten Umfeld entscheidend.
Dr. Marlene Wolfgruber ist strategisch verantwortlich für KI-Lösungen bei ABBYY (Webseite). Sie verfügt über fundierte Kenntnisse in einer Vielzahl von Themen der intelligenten Automatisierung und gibt ihr Fachwissen als Expertin für KI und Sprachtechnologien regelmäßig weiter. In ihren früheren Positionen leitete Wolfgruber Programme zur Entwicklung des KI-gestützten Prozessmanagements und half Unternehmen, ihr KI-gestütztes Portfolio strategisch zu erweitern. Wolfsgruber hat einen Doktortitel in Computerlinguistik von der Ludwig-Maximilians-Universität München.Wie solche Lösungen in der Praxis wirken können, zeigt der Einsatz bei der Ecclesia Gruppe, einem großen Versicherungsmakler. Diese sah sich mit steigenden Mengen an eingehender Korrespondenz konfrontiert. Viele Schritte wie Prüfung, Zuordnung und Weiterleitung erforderten manuellen Aufwand. Mit intelligenter Dokumentenverarbeitung werden eingehende Unterlagen heute digitalisiert, analysiert und automatisch den passenden Fällen zugeordnet. So hat sich die manuelle Belastung spürbar verringert und die Bearbeitung ist schneller und präziser geworden.
Transparenz durch Explainable AI
Explainable AI ergänzt die agentische Struktur durch Nachvollziehbarkeit. Sie zeigt, welche Eingaben zu welchen Ergebnissen geführt haben und welche Unsicherheiten bestehen. Das entspricht den hohen Anforderungen des Modellrisikomanagements im Finanzsektor. Die Studie zeigt, dass 55 Prozent der Institute eine höhere Qualität der KI-Ergebnisse beobachten und 59 Prozent mehr Vertrauen entwickeln. Dennoch prüfen 39 Prozent die Resultate weiterhin manuell. Transparenz ist damit keine Option, sondern ein integraler Teil des KI-Betriebs.
Wie wichtig nachvollziehbare Verarbeitungsschritte sind, zeigt die Erste Group, ein zentraleuropäischer Finanzdienstleister. Dort wurden Rechnungen, Belege und Energieausweise lange manuell geprüft. Das kostete Zeit und führte zu Fehlern. Mit KI-basierter Klassifikation und strukturierter Datenerfassung laufen diese Schritte heute einheitlich ab. Fachbereiche können dabei genau sehen, wie Dokumente eingeordnet und welche Informationen extrahiert wurden. Die Entscheidungen der Modelle bleiben damit prüfbar. Die Effizienz stieg um 40 Prozent, die Kosten sanken um 35 Prozent. Zudem hat sich die Fehlerquote spürbar reduziert.
Wo Einsatz und Grenzen sichtbar werden
Trotz der Fortschritte bleibt der Einsatz generativer KI auf bestimmte Bereiche konzentriert. Viele Kernsysteme sind historisch gewachsen und erschweren eine tiefgehende Integration.“
Hochrisikorelevante Abläufe wie Kreditentscheidungen oder Fraud Detection erfordern zusätzliche Kontrollen. Auch fachliche Kompetenzen sind nicht überall ausreichend vorhanden. Zudem wird der Wunsch nach fairen und transparenten Modellen deutlicher. Ein Viertel der Institute möchte Systeme, die frei von menschlicher Voreingenommenheit arbeiten. Dafür braucht es nachvollziehbare Modelle und eine klare Governance.
Eine Architektur für Vertrauen
Die Branche investiert weiter in transparente KI-Strukturen. 45 Prozent der Unternehmen planen steigende Ausgaben für generative KI. Entscheidend ist jedoch nicht die Größe der Modelle, sondern eine Architektur, die Entscheidungen nachvollziehbar macht und sicher in Prozesse einbettet. Agentic AI und Explainable AI bilden das Fundament dieser Entwicklung. Sie verbinden Tempo mit Kontrolle und schaffen eine KI, die in komplexen Finanzprozessen verlässlich arbeitet. Damit entsteht eine Infrastruktur, die technologische Entwicklungen mit klarer Verantwortung verbindet. Sie bietet Banken und Versicherern einen verlässlichen Rahmen für den weiteren KI-Einsatz.Dr. Marlene Wolfsgruber, ABBY/dk
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/237873


Schreiben Sie einen Kommentar