STRATEGIE16. Dezember 2025

Anwenderbericht der R+V Versicherung: Erfolgreiche Pilotierung von internen Wissens-Bots

Georg Odenthal, R+V Versicherungen
Georg Odenthal, R+V VersicherungenR+V Versicherungen

Bereits Mitte 2023 – zeitgleich mit dem breiten Durchbruch von ChatGPT – startete die R+V Versicherung mit ersten Pilotprojekten im Bereich internes Wissensmanagement. In diesem Anwenderbericht erfahren Sie, wie einer der größten Versicherer Deutschlands GenAI-basierte Chatbots zur Unterstützung des internen Wissensmanagements entwickelt hat.

von Georg Odenthal, Prozessmanager bei der R+V Versicherung

Als Traditionsunternehmen mit einer langen Innovationsgeschichte seit 1922 erkannte die R+V Versicherung im Aufkommen der generativen KI ein deutliches Signal: Die Entwicklung hin zu höherer Prozesseffizienz wird wesentlich von dieser neuen Technologie geprägt sein. Vor dem Hintergrund einer komplexen IT-Landschaft sowie eines stark regulierten Umfelds war es von zentraler Bedeutung, ein geeignetes Themenfeld für die Erprobung von KI-Fähigkeiten zu identifizieren.

Der Einstieg in die KI-Zukunft wurde daher über niederschwellige Anwendungsfälle gesucht, bei denen keine personenbezogenen Daten verarbeitet werden und zunächst auch keine technischen Abhängigkeiten bestanden. Das interne Wissensmanagement  bot sich als geeigneter Kandidaten an, um den Einsatz generativer KI in einem kontrollierten Umfeld zu starten.

KI trifft Legacy: Ein Weg zur KI-Integration in etablierten IT-Umgebungen

Um die KI-Einführung erfolgreich voranzutreiben und neue Methoden sowie Architekturen zu erproben, war von Beginn an klar, dass keine Tiefenintegration in Altsysteme erfolgen sollte. Stattdessen galt es, Assistenzfunktionen für Mitarbeitende zu entwickeln, die sich schnell und unkompliziert ausrollen lassen.

Autor Georg Odenthal, R+V Versicherungen
Georg Odenthal ist seit mehr als zwanzig Jahren in unterschiedlichen Rollen in der Anwendungsentwicklung, im Projekt- und Prozessmanagement bei R+V (Website) tätig und befasst sich seit 2023 mit der Konzeption von KI-basierten Assistenzsystemen.
Mit Kauz.ai, einem etablierten deutschen Anbieter intelligenter Chatbot-Lösungen und einem der ersten Softwarehersteller, der generative KI in seine Plattform integrierte, wurde ein passender Technologiepartner für die Entwicklung eines internen Wissensbot gefunden. Ein wichtiges Entscheidungskriterium waren die bereits vorhandenen, umfassenden KI-Workflows der Plattform sowie die Verfügbarkeit flexibel optimierter Sicherheitskonzepte, die auf einer geeigneten Cloud-Architektur basieren. Die Möglichkeit in einem Co-Creation-Prozess die weitere Entwicklung der aiSuite mit Blick auf eigene Projektanforderungen beeinflussen zu können, wirkte sich ebenfalls positiv bei der Anbieterauswahl aus.

Die Umsetzung des digitalen R+V Kollegen: DIRK

Die erste Pilotierung des Wissensbots DIRK verfolgte das Ziel, interne Informationen rund um Versicherungsbedingungen und die Bearbeitung von Kundenvorgängen zu beschleunigen, interne Rückfragekaskaden zu reduzieren und den Innendienst durch eine effizientere Informationsbereitstellung handlungsfähiger zu machen. Hintergrund war eine zunehmend heterogene Arbeitsumgebung – bestehend aus SharePoint, Intranet, Microsoft Teams und Outlook– die die Wissensablage in den letzten Jahren heterogener gemacht hatte. Auf Basis der No-Code-Plattform aiSuite konnte kuratiertes Fachwissen aus den jeweiligen Bereichen zentral über die Plattform in einer Vektorendatenbank zusammengeführt und mit hilfe des integrierten KI-Chatbots auf inhaltliche Relevanz und Zielgenauigkeit bei Nutzeranfragen geprüft werden. Das konnten die operativen Bereiche dank intuitiver Benutzeroberflächen ohne IT-Unterstützung selbständig durchführen.

  • Erweiterte RAG-Methode für komplexe Daten

Die bloße Verbindung von Unternehmensdaten mit Large Language Models reicht jedoch nicht aus, um verlässliche und produktiv nutzbare Ergebnisse zu erzielen.

Für die inhaltliche Präzision und eine tragfähige KI-Applikation im Live-Betrieb ist die RAG-Methode ein wesentlicher Hebel.”

Dabei wird vorhandenes Wissen in kleinere Einheiten, sogenannte „Chunks”, aufgeteilt und gezielt abgerufen. Dies ermöglicht eine kosteneffiziente und kontextgenaue Antwortgenerierung. Die internen Projektmitarbeiter mussten sich diese Kompetenz nicht selbst erarbeiten, sondern konnten die Inhalte über vordefinierte Arbeitsschritte bearbeiten. Bei komplexen Daten, wie beispielsweise Versicherungsbedingungen, stößt die RAG-Methode allerdings an ihre Grenzen. Durch weitere Konfigurationsmöglichkeiten innerhalb der Plattform, die die Stärken von Keyword- und Vektorsuche kombiniert – konnte die Treffergenauigkeit deutlich erhöht werden. Dadurch wird der Umgang mit komplexen Produktnamen sowie unterschiedlichen Tarifen und Produkten möglich.

  • Fortlaufendes Finetuning des Wissensbots

Durch die Einbindung von Fachredakteuren, die Dialoge auswerten, Maßnahmen ableiten und den Bot um weiteres Wissen ergänzen sowie die Prompts anpassen, wird der KI die Fachterminologie vermittelt – was zu einer Antwortqualität von 95 % geführt hat. Auch wenn aktives Wissensmanagement mit Aufwand verbunden ist, lässt es sich dank der Monitoring- und Produktionsprozesse der Plattform effizient umsetzen.

Die Interaktion der Nutzer mit dem Wissensbot liefert zudem wertvolle Einblicke, welche Themen auf besonderes Interesse stoßen oder ausgebaut werden sollten.”

Davon profitiert nicht nur die Weiterentwicklung des Bots, sondern auch die Konzeption von Mitarbeiterschulungen.

  • Einbindung von KI-Agenten

Was für die R+V Nutzer durch die zentrale Benutzeroberfläche wie ein einziger KI-Chatbot aussieht, basiert bereits heute auf einem Multi-Agenten-System. Je nach Themengebiet – zum Beispiel Nachlässe oder Wagnisklassen – suchen unterschiedliche Agenten nach den passenden Informationen. Diese werden an weitere funktionale Agenten weitergegeben. So können automatisch Texte generiert und per Email versandt werden. Die Gestaltung dieser Multi-Channel-Workflows hat sich in der aiSuite von Kauz.ai als sehr flexibel erwiesen.

Die Benutzeroberfläche der Kauz.ai Plattform zeigt den Datenimportbereich, in dem verschiedene Kategorien und Dokumentensammlungen für das Wissensmanagement aufgelistet sind. Ein KI-Assistent beantwortet eine spezifische Anfrage zu Gewinnbeteiligungen.

  • Prozesse für LLM-Updates

Deutlich wurde während dem Projekt zudem, wie stark sich Updates des zugrunde liegenden Large Language Models auf die Antwortqualität auswirken können: Während an vielen Stellen laufend spürbare Verbesserungen erzielt wurden, mussten an anderen Stellen die inhaltliche Korrektheit und Konsistenz erneut überprüft werden. Ein zentrales Learning: Modellaktualisierungen dürfen kein Nebenprozess sein, sondern müssen als kontinuierliche inhaltliche Prüfung fest im KI‑Betrieb verankert werden. Das systematische Testsetup der aiSuite erleichtert diesen Prozess.

Aktuelle KI-Ausbaustufen

  • Spezialisierte KI-Assistenten für jede Abteilung

2025 werden die Nutzerzahlen von DIRK bei der R+V im dreistelligen Bereich liegen. Aktuell wird daran gearbeitet, dass jede Operations-Sparte einen eigenen KI-Assistenten zur Verfügung gestellt bekommt. Das erfordert auch organisatorische Maßnahmen: In jedem Fachbereich werden 2-3 Mitarbeitende auf die aiSuite geschult und darin beraten, welche Daten sie auswählen sollten, was gut funktioniert und welche Agenten sie dafür brauchen.

R+ V Versicherungen

So viel positives Feedback zu einem Thema habe ich im Unternehmen noch nie erlebt. Die Kolleginnen und Kollegen sind regelrecht begeistert: Sie wollen den KI-Assistenten sehen, selbst nutzen und ihn auch anderen zeigen.”

Heiko Alexander, R+ V Versicherungen

Zukunftsfähigkeit der KI-Technologien

  • Multi-LLM-Fähigkeit

Kauz.ai hat mit der Integration mehrerer LLMs in seine Plattform Pionierarbeit geleistet. Dadurch kann die R+V – je nach Anwendungsfall und Wissensgrundlage – flexibel auf das jeweils passendste Modell zugreifen. Diese Multi-LLM-Fähigkeit ist nicht nur funktional relevant, sondern auch wirtschaftlich von großer Bedeutung: Sie ermöglicht je nach Use Case und Anforderung eine differenzierte Kosten-Nutzen-Abwägung.

  • KI-Methoden und Tools für systemübergreifende Datenverarbeitung

Mit der Verfügbarkeit von hochperformanten RAG- und Multi-Agenten-Systemen bietet der KI-Experte alle notwendigen Tools, um Unternehmensdaten mit generativer KI entlang definierter Prozesse zu verarbeiten.

Mit der Einbindung von MCP – dem Model Context Protocol – wird aktuell auch die Grundlage geschaffen, um KI-Systemintegrationen weiter zu vereinfachen.”

  • Externe KI-Expertise vs. Inhouse-Lösungen

Mit Kauz.ai als Partner konnten bei der Entwicklung des ersten internen Wissenschatbots sehr gute Ergebnisse erzielt werden. Im Zuge des weiteren Roll-outs ist eine Anbindung externer Chatbot-Tools wie aiStudio an die interne KI-Plattform erforderlich, um weitere Use Cases anzugehen. Georg Odenthal, R+V Versicherungen

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert