KI-Agenten ohne Kontext sind gefährlich! Worauf es beim Einsatz im Finanzsektor ankommt

Knime
von Michael Berthold, Knime
Datenmüll rein – Datenmüll raus‘. Das ist das Grundproblem vieler Datenprojekte. Für IT-Leiter ist das ein Risiko mit Ansage. Sie riskieren nicht nur die Häufung von Fehlinterpretationen, den sogenannten KI-Halluzinationen, sondern auch Verstöße gegen die Anforderungen des EU AI Act, der verlangt, dass Trainingsdaten vollständig, fehlerfrei und unverzerrt sein müssen. Bei der gemeinsamen Überprüfung von KINME und dem Datenexperten einer Bank zeigte sich beispielsweise, dass die Bank über Jahre hinweg fehlerhafte Berichte an die Schweizer Nationalbank übermittelt hatte. Solche Fehler könnten bei KI-Agenten fatale Folgen haben, da sie diese in Sekundenschnelle skalieren und Entscheidungen auf Basis dieser fehlerhaften Daten treffen.Damit KI-Agenten einen echten Mehrwert liefern, sollte daher folgendes beachtet werden:
Schritt 1: Datenvorbereitung für KI
Gerade Banken und Versicherungen kämpfen mit komplexen IT-Strukturen: Legacy-Systeme, Inhouse-Lösungen, Cloud-Dienste – alles koexistiert. Die Folge: wichtige Informationen liegen in Silos, sind unvollständig oder widersprüchlich. Für KI bedeutet das: Kein verlässliches Gesamtbild, keine fundierte Entscheidung.
Michael Berthold ist ein deutscher Informatiker, Unternehmer, Akademiker und Autor. Er ist Mitbegründer von Knime (Website) und seit 2017 als CEO tätig. Berthold ist Autor von über 250 Publikationen und konzentriert sich in seiner Forschung auf den Einsatz von Methoden des maschinellen Lernens für die interaktive Analyse großer Informationsspeicher. Er ist Herausgeber und Mitautor zahlreicher Lehrbücher, Fellow des Institute of Electrical and Electronics Engineers (IEEE), ehemaliger Präsident der North American Fuzzy Information Processing Society und ehemaliger Präsident der IEEE Systems, Man, and Cybernetics Society.
Viele Softwareanbieter versprechen mittlerweile einfache Lösungen. Sowohl auf der Datenplattform- als auch auf der BI-Seite wird häufig damit geworben, dass KI-Agenten aggregierte Datensichten vollautomatisch erzeugen können. Problematisch ist dabei jedoch die mangelnde Transparenz, denn der zugrundeliegende Code – sofern die KI überhaupt in der Lage ist, den Code zu zeigen – ist meist eine wüste Kombination aus SQL-Datenbankabfragen sowie Python und anderen Code-Schnipseln, sodass eine wirklich nachvollziehbare Einsicht kaum möglich ist.
Unterstützung bieten hier Datenintegrations- und Analytics-Plattformen. Sie helfen dabei, Daten zu konsolidieren sowie regulatorische Vorgaben effizient umzusetzen und zu kontrollieren. Sie ermöglichen außerdem den Datenzugriff und die Speicherung transparent und selbst Jahre später noch nachvollziehbar zu verwalten. Gerade diese Nachvollziehbarkeit ist bei vielen Code-Umgebungen jedoch faktisch unmöglich. Python-Pakete etwa ändern sich so schnell, dass man Jahre später froh sein kann, wenn das Programm überhaupt noch funktioniert.
Statt Daten mühsam per Programm zu verarbeiten, genügt es bei professionellen visuellen Umgebungen, wie z.B. Knime, einen Workflow zu erstellen, der die für jedes Quartal sauber aggregierten Daten zuverlässig und nachvollziehbar liefert.”
Das garantiert nicht nur die Datenqualität, sondern ermöglicht zudem zukünftige Compliance-Prüfungen. Eine KI dazu zu bringen, dass sie nicht einen Zoo von Code-Schnipseln erzeugt, sondern einen solchen integrativen Workflow, ist der erste Schritt hin zu zuverlässigen, KI-gestützten Analysen.
Schritt 2: Kontext ist die Voraussetzung für sinnvolle Entscheidungen
Ein Agent, der Marktanalysen durchführt, braucht mehr als Transaktionslisten. Er muss verstehen: Was ist relevant? Was ist risikobehaftet? Welche Ziele verfolgt der Kunde? Nur durch die Verknüpfung verschiedenster Datenquellen – CRM, ERP, Kernbanksysteme, Marktdaten, externe Informationen – entsteht ein ganzheitlicher Kontext. Erst dieser Kontext macht aus einem Rechenmodell ein intelligentes System.
Hier setzt der MCP-Standard an („Model Context Protocol“). Dieser soll Agenten nicht nur allerlei Werkzeuge liefern, sondern auch Zugriffe auf diverse Datenquellen bereitstellen. Anthropic hat den Standard MCP Ende 2024 vorgestellt und in der Zwischenzeit haben sich die meisten KI-Player angeschlossen, unter anderem OpenAI, Microsoft und KNIME. Doch dieser reine Interface Ansatz allein greift deutlich zu kurz – denn am Ende fluten sie den Agenten mit einer wahllosen Sammlung von Tools und Zugriffsinformationen auf allerlei Datenquellen samt deren rein technischer Beschreibung des REST Interfaces. Intelligente Systeme entstehen jedoch erst, wenn die Agenten verstehen, was die Daten bedeuten und wofür sie eingesetzt werden. Ähnlich wie ein Mensch wenig anfangen kann mit der bloßen Interface-Definition eines CRM-System, kann auch ein Agent viel besser arbeiten, wenn er ein Werkzeug an die Hand bekommt, das ihm Zugriff auf fertig aufbereitete Kundeninformationen bietet.
Auch hier liefern transparente Datenintegrationsplattformen erheblichen Mehrwert. Sie erlauben von der technischen Schnittstellendefinition zu abstrahieren und Werkzeuge zu bauen, die den KI-Agenten Zugriff auf sauber aggregierte und annotierte Informationen zur Verfügung stellen.
Visuelle Workflowsysteme erlauben es zusätzlich, die Integrationen zu dokumentieren und selbst Jahre später noch revisionssicher zu machen.”
Schritt 3: Intelligente Datenintegration statt Datensilos
Viele Finanzinstitute setzen auf Cloud-Anbieter, um Datenmanagement zu vereinfachen. Doch das erinnert stark an frühere Versprechen von Data Warehouses: „wenn alle Daten zusammenführt werden, dann wird alles gut“ – aber das ist nie eingetreten. Anforderungen ändern sich schnell, ständig kommen neue Datenquellen dazu und viele Daten verbleiben weiterhin in unterschiedlichen Systemen. Auch hier müssen regulatorische Anforderungen, wie sie in der Finanzbranche durch die DSGVO und andere Compliance-Vorgaben bestehen, stets berücksichtigt werden, um sicherzustellen, dass alle Daten korrekt und rechtskonform verarbeitet und gespeichert werden. Statt auf eine zentrale, starre Datenplattform zu setzen, will man also ein flexibles Datenmodell verwenden, in dem Datenquellen vernetzt bleiben, aber dennoch effizient abgerufen werden können. So wird sichergestellt, dass Agenten stets mit den besten und aktuellen Daten arbeiten. Diese dynamische Daten-Architektur wird oft auch als Data Mesh oder virtuelles Data Warehouse bezeichnet.
Es gibt zahlreiche Datenintegrationswerkzeuge, die es erlauben aus den verschiedensten Quellen einheitliche Sichten zusammenzuführen. Im Kontext von zuverlässigen KI-Agenten ist es allerdings auch hier besonders wichtig, dass diese Integrationen nachvollziehbar und dokumentiert sind.
Idealerweise sind die Integrationen so flexibel, dass man die Agentenwerkzeuge einfach anpassen kann, etwa wenn sich die IT-Abteilung entscheidet, den Cloud Provider zu wechseln.”
Das funktioniert dann am besten, wenn die Datenintegrationsplattform unabhängig vom Datenplattformbetreiber ist – letztere haben selten ein Interesse daran, Integrationen mit Wettbewerbern zu unterstützen. Aber genau diese Offenheit brauche ich, wenn ich eine wirklich flexible, zukunftssichere Datenintegrationsschicht aufbauen will.
Schritt 4: Spezialisierte Tools helfen
Ein KI-Agent, der sich durch Datenbanken, CRM-Systeme und APIs kämpfen muss, wird ineffizient – und anfällig für Fehlinterpretationen. Besser ist es, ihm gezielt sauber integrierte und aufbereitete Daten zur Verfügung zu stellen. Dafür braucht es spezialisierte Werkzeuge. Diese Tools liefern dem Agenten dann eben nicht nur Zugang zu den unnötig komplexen Rohdaten, sondern bereiten diese auf, führen notwendige Berechnungen durch und fassen Informationen aus verschiedenen Quellen zusammen. Dabei sind wieder Datenintegrations- und Analyseplattformen wichtig, die es ermöglichen die verschiedenen Tools zu erweitern und jederzeit anzupassen, wenn sich z.B. eine Softwarelösung im Hintergrund ändert. Ein Unternehmen profitiert enorm von der Entwicklung und Implementierung solcher maßgeschneiderten Tools. So muss ein Kundenservice-Agent beispielsweise nicht mehr direkt auf das CRM, das Ticket-System, und die Marketing-Automatisierungsplattform zugreifen. Stattdessen wird ihm eine aggregierte Sicht auf Bestellhistorie, Supportanfragen und Verträge geliefert – kompakt, übersichtlich und sofort nutzbar. Und – siehe oben – leicht anpassbar, wenn sich eine der zugrunde liegenden Datenquellen ändert.
Je weniger mühsame Vorarbeit ein KI-Agent leisten muss, desto mehr kann er sich auf seine eigentliche Aufgabe konzentrieren – genau wie ein Finanzanalyst, dessen Zeit besser investiert ist, fundierte Entscheidungen zu treffen, anstatt erst einmal mühsam Rohdaten zusammenzutragen.”
Gerade in der Finanzbranche, wo es um schnelle Risikobewertungen, Betrugserkennung oder regulatorische Prüfungen geht, ist eine effiziente, zuverlässige, und nachvollziehbare Datenintegration entscheidend. Und genau wie zuvor schützt die Entkopplung der Datenintegration von den Datenplattformen auch die Investition in Agenten. Auf diese Weise müssen beim Austausch eines der Systeme nur die mittlere Schicht der Integrationstools angepasst werden. Das Data Mesh lebt – gute Daten machen nicht nur Menschen effektiver, sondern helfen nun auch Agenten, ihre Arbeit besser zu erledigen.Michael Berthold, Knime
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/227037

Schreiben Sie einen Kommentar