KI im Prozess-Management - Download
STRATEGIE21. Mai 2025

KI-Agenten ohne Kontext sind gefährlich! Worauf es beim Einsatz im Finanzsektor ankommt

Michael Berthold, CEO von Knime, präsentiert Konzepte zu KI-Agenten im Finanzsektor. Der Fokus liegt auf der Automatisierung von Prozessen, der Risikoerkennung und der Erfüllung regulatorischer Anforderungen.
Michael Berthold, CEO von Knime Knime

KI-Agen­ten gel­ten als nächs­ter Ent­wick­lungs­schritt im Fi­nanz­sek­tor: Sie sol­len Pro­zes­se au­to­ma­ti­sie­ren, Ri­si­ken er­ken­nen, re­gu­la­to­ri­sche An­for­de­run­gen er­fül­len – und das schnel­ler und prä­zi­ser als je zu­vor. Ein ent­schei­den­der Punkt wird je­doch häu­fig über­se­hen: Oh­ne sau­be­re, kon­textrei­che Da­ten ist ein Agent nicht in­tel­li­gent, son­dern kann so­gar ge­fähr­lich sein. Ban­ken und Ver­si­che­rer, die KI-Agen­ten oh­ne durch­dach­te Da­ten­stra­te­gie ein­füh­ren, ris­kie­ren fal­sche Ent­schei­dun­gen, re­gu­la­to­ri­sche Ver­stö­ße und letzt­lich den Ver­trau­ens­ver­lust bei Kun­den und Auf­sichts­be­hör­den. Doch wie kön­nen KI-Agen­ten er­folg­reich und oh­ne Si­cher­heits­ri­si­ken in der Fi­nanz­bran­che ein­ge­setzt wer­den?

von Michael Berthold, Knime 

Daten­müll rein – Da­ten­müll raus‘. Das ist das Grund­pro­blem vie­ler Da­ten­pro­jek­te. Für IT-Lei­ter ist das ein Ri­si­ko mit An­sa­ge. Sie ris­kie­ren nicht nur die Häu­fung von Fehl­in­ter­pre­ta­tio­nen, den so­ge­nann­ten KI-Hal­lu­zi­na­tio­nen, son­dern auch Ver­stö­ße ge­gen die An­for­de­run­gen des EU AI Act, der ver­langt, dass Trai­nings­da­ten voll­stän­dig, feh­ler­frei und un­ver­zerrt sein müs­sen. Bei der ge­mein­sa­men Über­prü­fung von KIN­ME und dem Da­ten­ex­per­ten ei­ner Bank zeig­te sich bei­spiels­wei­se, dass die Bank über Jah­re hin­weg feh­ler­haf­te Be­rich­te an die Schwei­zer Na­tio­nal­bank über­mit­telt hat­te. Sol­che Feh­ler könn­ten bei KI-Agen­ten fa­ta­le Fol­gen ha­ben, da sie die­se in Se­kun­den­schnel­le ska­lie­ren und Ent­schei­dun­gen auf Ba­sis die­ser feh­ler­haf­ten Da­ten tref­fen.

Da­mit KI-Agen­ten ei­nen ech­ten Mehr­wert lie­fern, soll­te da­her fol­gen­des be­ach­tet wer­den:

Schritt 1: Datenvorbereitung für KI

Ge­ra­de Ban­ken und Ver­si­che­run­gen kämp­fen mit kom­ple­xen IT-Struk­tu­ren: Le­ga­cy-Sys­te­me, In­hou­se-Lö­sun­gen, Cloud-Diens­te – al­les ko­exis­tiert. Die Fol­ge: wich­ti­ge In­for­ma­tio­nen lie­gen in Si­los, sind un­voll­stän­dig oder wi­der­sprüch­lich. Für KI be­deu­tet das: Kein ver­läss­li­ches Ge­samt­bild, kei­ne fun­dier­te Ent­schei­dung.

Michael Berthold, Knime

Michael Berthold, CEO von KNIME, präsentiert relevante Aspekte zu KI-Agenten im Finanzsektor. Seine Expertise in Informatik und Unternehmensführung unterstreicht die Bedeutung eines kontextualisierten Einsatzes von KI zur Vermeidung potenzieller Risiken.

Michael Berthold ist ein deutscher Informatiker, Unternehmer, Akademiker und Autor. Er ist Mitbegründer von Knime (Website) und seit 2017 als CEO tätig. Berthold ist Autor von über 250 Publikationen und konzentriert sich in seiner Forschung auf den Einsatz von Methoden des maschinellen Lernens für die interaktive Analyse großer Informationsspeicher. Er ist Herausgeber und Mitautor zahlreicher Lehrbücher, Fellow des Institute of Electrical and Electronics Engineers (IEEE), ehemaliger Präsident der North American Fuzzy Information Processing Society und ehemaliger Präsident der IEEE Systems, Man, and Cybernetics Society. 

Vie­le Soft­ware­an­bie­ter ver­spre­chen mitt­ler­wei­le ein­fa­che Lö­sun­gen. So­wohl auf der Da­ten­platt­form- als auch auf der BI-Sei­te wird häu­fig da­mit ge­wor­ben, dass KI-Agen­ten ag­gre­gier­te Da­ten­sich­ten voll­au­to­ma­tisch er­zeu­gen kön­nen. Pro­ble­ma­tisch ist da­bei je­doch die man­geln­de Trans­pa­renz, denn der zu­grun­de­lie­gen­de Code – so­fern die KI über­haupt in der La­ge ist, den Code zu zei­gen – ist meist ei­ne wüs­te Kom­bi­na­ti­on aus SQL-Da­ten­bank­ab­fra­gen so­wie Py­thon und an­de­ren Code-Schnip­seln, so­dass ei­ne wirk­lich nach­voll­zieh­ba­re Ein­sicht kaum mög­lich ist.

Un­ter­stüt­zung bie­ten hier Da­ten­in­te­gra­ti­ons- und Ana­ly­tics-Platt­for­men. Sie hel­fen da­bei, Da­ten zu kon­so­li­die­ren so­wie re­gu­la­to­ri­sche Vor­ga­ben ef­fi­zi­ent um­zu­set­zen und zu kon­trol­lie­ren. Sie er­mög­li­chen au­ßer­dem den Da­ten­zu­griff und die Spei­che­rung trans­pa­rent und selbst Jah­re spä­ter noch nach­voll­zieh­bar zu ver­wal­ten. Ge­ra­de die­se Nach­voll­zieh­bar­keit ist bei vie­len Code-Um­ge­bun­gen je­doch fak­tisch un­mög­lich. Py­thon-Pa­ke­te et­wa än­dern sich so schnell, dass man Jah­re spä­ter froh sein kann, wenn das Pro­gramm über­haupt noch funk­tio­niert.

Statt Daten mühsam per Programm zu verarbeiten, genügt es bei professionellen visuellen Umgebungen, wie z.B. Knime, einen Workflow zu erstellen, der die für jedes Quartal sauber aggregierten Daten zuverlässig und nachvollziehbar liefert.”

Das ga­ran­tiert nicht nur die Da­ten­qua­li­tät, son­dern er­mög­licht zu­dem zu­künf­ti­ge Com­p­li­an­ce-Prü­fun­gen. Ei­ne KI da­zu zu brin­gen, dass sie nicht ei­nen Zoo von Code-Schnip­seln er­zeugt, son­dern ei­nen sol­chen in­te­gra­ti­ven Work­flow, ist der ers­te Schritt hin zu zu­ver­läs­si­gen, KI-ge­stütz­ten Ana­ly­sen.

Schritt 2: Kontext ist die Voraussetzung für sinnvolle Entscheidungen

Ein Agent, der Markt­ana­ly­sen durch­führt, braucht mehr als Trans­ak­ti­ons­lis­ten. Er muss ver­ste­hen: Was ist re­le­vant? Was ist ri­si­ko­be­haf­tet? Wel­che Zie­le ver­folgt der Kun­de? Nur durch die Ver­knüp­fung ver­schie­dens­ter Da­ten­quel­len – CRM, ERP, Kern­bank­sys­te­me, Markt­da­ten, ex­ter­ne In­for­ma­tio­nen – ent­steht ein ganz­heit­li­cher Kon­text. Erst die­ser Kon­text macht aus ei­nem Re­chen­mo­dell ein in­tel­li­gen­tes Sys­tem.

Hier setzt der MCP-Stan­dard an („Mo­del Con­text Pro­to­col“). Die­ser soll Agen­ten nicht nur al­ler­lei Werk­zeu­ge lie­fern, son­dern auch Zu­grif­fe auf di­ver­se Da­ten­quel­len be­reit­stel­len. An­thro­pic hat den Stan­dard MCP En­de 2024 vor­ge­stellt und in der Zwi­schen­zeit ha­ben sich die meis­ten KI-Play­er an­ge­schlos­sen, un­ter an­de­rem OpenAI, Mi­cro­soft und KNI­ME. Doch die­ser rei­ne In­ter­face An­satz al­lein greift deut­lich zu kurz – denn am En­de flu­ten sie den Agen­ten mit ei­ner wahl­lo­sen Samm­lung von Tools und Zu­griff­s­in­for­ma­tio­nen auf al­ler­lei Da­ten­quel­len samt de­ren rein tech­ni­scher Be­schrei­bung des REST In­ter­faces. In­tel­li­gen­te Sys­te­me ent­ste­hen je­doch erst, wenn die Agen­ten ver­ste­hen, was die Da­ten be­deu­ten und wo­für sie ein­ge­setzt wer­den. Ähn­lich wie ein Mensch we­nig an­fan­gen kann mit der blo­ßen In­ter­face-De­fi­ni­ti­on ei­nes CRM-Sys­tem, kann auch ein Agent viel bes­ser ar­bei­ten, wenn er ein Werk­zeug an die Hand be­kommt, das ihm Zu­griff auf fer­tig auf­be­rei­te­te Kun­den­in­for­ma­tio­nen bie­tet.

Auch hier lie­fern trans­pa­ren­te Da­ten­in­te­gra­ti­ons­platt­for­men er­heb­li­chen Mehr­wert. Sie er­lau­ben von der tech­ni­schen Schnitt­stel­len­de­fi­ni­ti­on zu ab­stra­hie­ren und Werk­zeu­ge zu bau­en, die den KI-Agen­ten Zu­griff auf sau­ber ag­gre­gier­te und an­no­tier­te In­for­ma­tio­nen zur Ver­fü­gung stel­len.

Visuelle Workflowsysteme erlauben es zusätzlich, die Integrationen zu dokumentieren und selbst Jahre später noch revisionssicher zu machen.”

Schritt 3: Intelligente Datenintegration statt Datensilos

Vie­le Fi­nanz­in­sti­tu­te set­zen auf Cloud-An­bie­ter, um Da­ten­ma­nage­ment zu ver­ein­fa­chen. Doch das er­in­nert stark an frü­he­re Ver­spre­chen von Da­ta Wareh­ou­ses: „wenn al­le Da­ten zu­sam­men­führt wer­den, dann wird al­les gut“ – aber das ist nie ein­ge­tre­ten. An­for­de­run­gen än­dern sich schnell, stän­dig kom­men neue Da­ten­quel­len da­zu und vie­le Da­ten ver­blei­ben wei­ter­hin in un­ter­schied­li­chen Sys­te­men. Auch hier müs­sen re­gu­la­to­ri­sche An­for­de­run­gen, wie sie in der Fi­nanz­bran­che durch die DS­GVO und an­de­re Com­p­li­an­ce-Vor­ga­ben be­ste­hen, stets be­rück­sich­tigt wer­den, um si­cher­zu­stel­len, dass al­le Da­ten kor­rekt und rechts­kon­form ver­ar­bei­tet und ge­spei­chert wer­den. Statt auf ei­ne zen­tra­le, star­re Da­ten­platt­form zu set­zen, will man al­so ein fle­xi­bles Da­ten­mo­dell ver­wen­den, in dem Da­ten­quel­len ver­netzt blei­ben, aber den­noch ef­fi­zi­ent ab­ge­ru­fen wer­den kön­nen. So wird si­cher­ge­stellt, dass Agen­ten stets mit den bes­ten und ak­tu­el­len Da­ten ar­bei­ten. Die­se dy­na­mi­sche Da­ten-Ar­chi­tek­tur wird oft auch als Da­ta Me­sh oder vir­tu­el­les Da­ta Wareh­ou­se be­zeich­net.

Es gibt zahl­rei­che Da­ten­in­te­gra­ti­ons­werk­zeu­ge, die es er­lau­ben aus den ver­schie­dens­ten Quel­len ein­heit­li­che Sich­ten zu­sam­men­zu­füh­ren. Im Kon­text von zu­ver­läs­si­gen KI-Agen­ten ist es al­ler­dings auch hier be­son­ders wich­tig, dass die­se In­te­gra­tio­nen nach­voll­zieh­bar und do­ku­men­tiert sind.

Idealerweise sind die Integrationen so flexibel, dass man die Agentenwerkzeuge einfach anpassen kann, etwa wenn sich die IT-Abteilung entscheidet, den Cloud Provider zu wechseln.”

Das funk­tio­niert dann am bes­ten, wenn die Da­ten­in­te­gra­ti­ons­platt­form un­ab­hän­gig vom Da­ten­platt­form­be­trei­ber ist – letz­te­re ha­ben sel­ten ein In­ter­es­se dar­an, In­te­gra­tio­nen mit Wett­be­wer­bern zu un­ter­stüt­zen. Aber ge­nau die­se Of­fen­heit brau­che ich, wenn ich ei­ne wirk­lich fle­xi­ble, zu­kunfts­si­che­re Da­ten­in­te­gra­ti­ons­schicht auf­bau­en will.

Schritt 4: Spezialisierte Tools helfen

Ein KI-Agent, der sich durch Da­ten­ban­ken, CRM-Sys­te­me und APIs kämp­fen muss, wird in­ef­fi­zi­ent – und an­fäl­lig für Fehl­in­ter­pre­ta­tio­nen. Bes­ser ist es, ihm ge­zielt sau­ber in­te­grier­te und auf­be­rei­te­te Da­ten zur Ver­fü­gung zu stel­len. Da­für braucht es spe­zia­li­sier­te Werk­zeu­ge. Die­se Tools lie­fern dem Agen­ten dann eben nicht nur Zu­gang zu den un­nö­tig kom­ple­xen Roh­da­ten, son­dern be­rei­ten die­se auf, füh­ren not­wen­di­ge Be­rech­nun­gen durch und fas­sen In­for­ma­tio­nen aus ver­schie­de­nen Quel­len zu­sam­men. Da­bei sind wie­der Da­ten­in­te­gra­ti­ons- und Ana­ly­se­platt­for­men wich­tig, die es er­mög­li­chen die ver­schie­de­nen Tools zu er­wei­tern und je­der­zeit an­zu­pas­sen, wenn sich z.B. ei­ne Soft­ware­lö­sung im Hin­ter­grund än­dert. Ein Un­ter­neh­men pro­fi­tiert enorm von der Ent­wick­lung und Im­ple­men­tie­rung sol­cher ma­ß­ge­schnei­der­ten Tools. So muss ein Kun­den­ser­vice-Agent bei­spiels­wei­se nicht mehr di­rekt auf das CRM, das Ti­cket-Sys­tem, und die Mar­ke­ting-Au­to­ma­ti­sie­rungs­platt­form zu­grei­fen. Statt­des­sen wird ihm ei­ne ag­gre­gier­te Sicht auf Be­stell­his­to­rie, Sup­port­an­fra­gen und Ver­trä­ge ge­lie­fert – kom­pakt, über­sicht­lich und so­fort nutz­bar. Und – sie­he oben – leicht an­pass­bar, wenn sich ei­ne der zu­grun­de lie­gen­den Da­ten­quel­len än­dert.

Je weniger mühsame Vorarbeit ein KI-Agent leisten muss, desto mehr kann er sich auf seine eigentliche Aufgabe konzentrieren – genau wie ein Finanzanalyst, dessen Zeit besser investiert ist, fundierte Entscheidungen zu treffen, anstatt erst einmal mühsam Rohdaten zusammenzutragen.”

Ge­ra­de in der Fi­nanz­bran­che, wo es um schnel­le Ri­si­ko­be­wer­tun­gen, Be­trugs­er­ken­nung oder re­gu­la­to­ri­sche Prü­fun­gen geht, ist ei­ne ef­fi­zi­en­te, zu­ver­läs­si­ge, und nach­voll­zieh­ba­re Da­ten­in­te­gra­ti­on ent­schei­dend. Und ge­nau wie zu­vor schützt die Ent­kopp­lung der Da­ten­in­te­gra­ti­on von den Da­ten­platt­for­men auch die In­ves­ti­ti­on in Agen­ten. Auf die­se Wei­se müs­sen beim Aus­tausch ei­nes der Sys­te­me nur die mitt­le­re Schicht der In­te­gra­ti­ons­tools an­ge­passt wer­den. Das Da­ta Me­sh lebt – gu­te Da­ten ma­chen nicht nur Men­schen ef­fek­ti­ver, son­dern hel­fen nun auch Agen­ten, ih­re Ar­beit bes­ser zu er­le­di­gen.Michael Berthold, Knime

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert