Fico präsentiert spezialisierte Generative-AI-Modelle für Finanzdienstleister

World Image / Bigstock
Dr. Scott Zoldi, Chief Analytics Officer bei Fico, beschreibt die Ausrichtung wie folgt: „Das Focused Foundation Model steht für den praxisnahen Einsatz von GenAI im Finanzdienstleistungssektor und geht über Versuche hinaus, universelle Wissensmodelle nachträglich zu verfeinern.“ Mit Blick auf reale Anwendungsfelder, etwa in der Risikoanalyse oder im Compliance-Umfeld, hebt er hervor: „Fico FFM ermöglicht es Unternehmen, kleine Sprachmodelle zu nutzen, die für ihre spezifischen Anwendungsfälle entwickelt wurden. Es hilft dabei, Halluzinationen deutlich zu reduzieren und schafft Transparenz, Nachprüfbarkeit und Anpassbarkeit.“ Nach internen Berechnungen könne dies die Einhaltung von Compliance-Vorgaben um bis zu 38 Prozent verbessern und die Modellleistung in der Transaktionsanalytik, etwa in der Betrugserkennung, um mehr als 35 Prozent erhöhen.
In stark regulierten Bereichen, wo Verantwortung und Präzision kritisch sind, mangelt es aktuellen LLMs oft an der Zuverlässigkeit, Transparenz und Governance, die für den Unternehmenseinsatz erforderlich sind. FLMs, die mit domänenspezifischen Daten, nachprüfbarem Modellfokus und aufgabenspezifischen nachprüfbaren Daten entwickelt wurden, ermöglichen die Entwicklung von GenAI, die zweckgebunden, transparent und überprüfbar ist.“
Scott Zoldi, Chief Analytics Officer, Fico
Domänenspezifische Architektur für Sprach- und Sequenzanalyse
Das Focused Language Model (Fico FLM) basiert auf domänen- und aufgabenspezifischen Kontextdaten. Die Trainingsdaten werden auf den jeweiligen Anwendungsfall zugeschnitten, was nach Fico zu einer deutlichen Verringerung von Halluzinationen führen soll. Die Modelle seien kleiner, präziser und kosteneffizienter, was insbesondere für Institute mit begrenzten Ressourcen Einstiegshürden senken könne. Zudem schaffe FLM laut Fico die Grundlage für agentenbasierte KI-Workflows, die im Finanzsektor zunehmend an Bedeutung gewinnen.
Das Focused Sequence Model (Fico FSM) adressiert hingegen analytische Fragestellungen in Transaktionsketten. Es arbeitet mit Langzeitaufmerksamkeit über Sequenzen hinweg und soll komplexe Muster in Echtzeit erkennen – beispielsweise im Zahlungsverkehr, in der Betrugsprävention oder bei der dynamischen Risikobewertung. Durch die Fokussierung auf Transaktionssequenzen sollen Verhaltensmuster identifizierbar werden, die in klassischen Systemen nur mit sehr hohem Aufwand erkennbar wären.
FLMs sind im Wesentlichen ähnlich wie SLMs (Small Language Models). Sie transformieren die Art, wie GenAI im Finanzrisikomanagement und für Compliance eingesetzt wird, indem sie hochpräzise, domänenspezifische Einblicke geben und Falschinformationen reduzieren.”
Megha Kumar, Research Vice President of Analytics und AI Analyst bei IDC
Aufbauend auf kuratierten Daten und Prinzipien für verantwortungsvolle KI entwickelten sich diese Modelle zu unverzichtbaren Werkzeugen für Institutionen, die Präzision, Transparenz und skalierbares Vertrauen verlangen.
Trust Scores als Steuerungsmechanismus für Modellzuverlässigkeit

bigstock.com/World Image
Ein wesentliches technisches Element der Modellfamilie sind sogenannte Trust Scores. Sie dienen der risikobasierten Bewertung der Zuverlässigkeit einzelner KI-Outputs. Teile der zugrundeliegenden Verfahren sind bereits patentiert oder zum Patent angemeldet. Institute können über definierte Schwellenwerte festlegen, welche Risiko- und Vertrauensniveaus für den operativen Einsatz akzeptabel sind. Fico sieht darin ein praxisnahes Instrument zur Steuerung generativer KI in regulierten Umgebungen, insbesondere weil Trust Scores eng mit sogenannten „Wissensankern“ verknüpft seien – also fachlich validierten Referenzinformationen, mit denen die Modellantworten abgeglichen werden.
Die Bedeutung verantwortungsvoller KI-Standards hebt auch die aktuelle Fico-Studie „State of Responsible AI in Financial Services“ hervor, die gemeinsam mit Corinium Global Intelligence erstellt wurde. Laut der Umfrage sehen 40 Prozent der Befragten Generative-AI-Systeme und LLMs als relevante Treiber für den Return on Investment. Gleichzeitig geben 56,8 Prozent an, dass Responsible-AI-Standards entscheidend seien, um verlässliche und konsistente Ergebnisse zu erreichen. Die Daten deuten darauf hin, dass Finanzinstitute zunehmend nach kontrollierbaren, evidenzbasierten KI-Ansätzen verlangen, um Skalierbarkeit und Compliance miteinander zu verbinden.tw
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/236350


Schreiben Sie einen Kommentar