ANWENDUNG17. November 2025

Fico präsentiert spezialisierte Generative-AI-Modelle für Finanzdienstleister

AI Learning and Artificial Intelligence Concept - Icon Graphic Interface showing computer, machine thinking and AI Artificial Intelligence of Digital Robotic Devices.
World Image / Bigstock

Fico stellt ein neues domänenspezifisches Foundation-Modell für den Finanzsektor vor. Das Fico Focused Foundation Model (Fico FFM) umfasst zwei eigenständige KI-Komponenten: das Focused Language Model (Fico FLM) und das Focused Sequence Model (Fico FSM). Mit diesem Ansatz verfolgt Fico das Ziel, die Verlässlichkeit generativer KI in regulierten Einsatzfeldern zu erhöhen, Halluzinationen zu reduzieren und nachvollziehbare Ergebnisse bereitzustellen.

Kern des Konzepts ist ein Modellarchitekturprinzip, das ausschließlich auf kuratierten, domänenspezifischen Datensätzen aus dem Finanzdienstleistungsbereich basiert. Anders als breit trainierte Large-Language-Modelle sollen die Fico-Modelle aufgabenspezifisch einsetzbar, transparenter und ressourcenschonender sein. Nach Angaben des Unternehmens benötigen sie im Training und Betrieb bis zu um den Faktor 1.000 weniger Rechenressourcen als universelle Modelle, da sie bewusst auf ein eng definiertes Wissensspektrum fokussieren und so eine höhere Nachvollziehbarkeit erzielen sollen.

Dr. Scott Zoldi, Chief Analytics Officer bei Fico, beschreibt die Ausrichtung wie folgt: „Das Focused Foundation Model steht für den praxisnahen Einsatz von GenAI im Finanzdienstleistungssektor und geht über Versuche hinaus, universelle Wissensmodelle nachträglich zu verfeinern.“ Mit Blick auf reale Anwendungsfelder, etwa in der Risikoanalyse oder im Compliance-Umfeld, hebt er hervor: „Fico FFM ermöglicht es Unternehmen, kleine Sprachmodelle zu nutzen, die für ihre spezifischen Anwendungsfälle entwickelt wurden. Es hilft dabei, Halluzinationen deutlich zu reduzieren und schafft Transparenz, Nachprüfbarkeit und Anpassbarkeit.“ Nach internen Berechnungen könne dies die Einhaltung von Compliance-Vorgaben um bis zu 38 Prozent verbessern und die Modellleistung in der Transaktionsanalytik, etwa in der Betrugserkennung, um mehr als 35 Prozent erhöhen.

In stark regulierten Bereichen, wo Verantwortung und Präzision kritisch sind, mangelt es aktuellen LLMs oft an der Zuverlässigkeit, Transparenz und Governance, die für den Unternehmenseinsatz erforderlich sind. FLMs, die mit domänenspezifischen Daten, nachprüfbarem Modellfokus und aufgabenspezifischen nachprüfbaren Daten entwickelt wurden, ermöglichen die Entwicklung von GenAI, die zweckgebunden, transparent und überprüfbar ist.“

Scott Zoldi, Chief Analytics Officer, Fico

Domänenspezifische Architektur für Sprach- und Sequenzanalyse

Das Focused Language Model (Fico FLM) basiert auf domänen- und aufgabenspezifischen Kontextdaten. Die Trainingsdaten werden auf den jeweiligen Anwendungsfall zugeschnitten, was nach Fico zu einer deutlichen Verringerung von Halluzinationen führen soll. Die Modelle seien kleiner, präziser und kosteneffizienter, was insbesondere für Institute mit begrenzten Ressourcen Einstiegshürden senken könne. Zudem schaffe FLM laut Fico die Grundlage für agentenbasierte KI-Workflows, die im Finanzsektor zunehmend an Bedeutung gewinnen.

Das Focused Sequence Model (Fico FSM) adressiert hingegen analytische Fragestellungen in Transaktionsketten. Es arbeitet mit Langzeitaufmerksamkeit über Sequenzen hinweg und soll komplexe Muster in Echtzeit erkennen – beispielsweise im Zahlungsverkehr, in der Betrugsprävention oder bei der dynamischen Risikobewertung. Durch die Fokussierung auf Transaktionssequenzen sollen Verhaltensmuster identifizierbar werden, die in klassischen Systemen nur mit sehr hohem Aufwand erkennbar wären.

FLMs sind im Wesentlichen ähnlich wie SLMs (Small Language Models). Sie transformieren die Art, wie GenAI im Finanzrisikomanagement und für Compliance eingesetzt wird, indem sie hochpräzise, domänenspezifische Einblicke geben und Falschinformationen reduzieren.”

Megha Kumar, Research Vice President of Analytics und AI Analyst bei IDC

Aufbauend auf kuratierten Daten und Prinzipien für verantwortungsvolle KI entwickelten sich diese Modelle zu unverzichtbaren Werkzeugen für Institutionen, die Präzision, Transparenz und skalierbares Vertrauen verlangen.

Trust Scores als Steuerungsmechanismus für Modellzuverlässigkeit

bigstock.com/World Image

Ein wesentliches technisches Element der Modellfamilie sind sogenannte Trust Scores. Sie dienen der risikobasierten Bewertung der Zuverlässigkeit einzelner KI-Outputs. Teile der zugrundeliegenden Verfahren sind bereits patentiert oder zum Patent angemeldet. Institute können über definierte Schwellenwerte festlegen, welche Risiko- und Vertrauensniveaus für den operativen Einsatz akzeptabel sind. Fico sieht darin ein praxisnahes Instrument zur Steuerung generativer KI in regulierten Umgebungen, insbesondere weil Trust Scores eng mit sogenannten „Wissensankern“ verknüpft seien – also fachlich validierten Referenzinformationen, mit denen die Modellantworten abgeglichen werden.

Die Bedeutung verantwortungsvoller KI-Standards hebt auch die aktuelle Fico-Studie „State of Responsible AI in Financial Services“ hervor, die gemeinsam mit Corinium Global Intelligence erstellt wurde. Laut der Umfrage sehen 40 Prozent der Befragten Generative-AI-Systeme und LLMs als relevante Treiber für den Return on Investment. Gleichzeitig geben 56,8 Prozent an, dass Responsible-AI-Standards entscheidend seien, um verlässliche und konsistente Ergebnisse zu erreichen. Die Daten deuten darauf hin, dass Finanzinstitute zunehmend nach kontrollierbaren, evidenzbasierten KI-Ansätzen verlangen, um Skalierbarkeit und Compliance miteinander zu verbinden.tw

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert