Wenn KI das Bankkonto leert: Haftet die Bank, der LLM-Betreiber oder der Kunde?

ChatGPT
Cybersecurity- und Rechtsexperten des VPN- und Sicherheitsanbieters Surfshark zeichnen ein klares Bild: In vielen Fällen liegt die Verantwortung überraschend eindeutig – und zwar beim Nutzer. „Rechtlich betrachtet sind KI-Agenten aktuell keine eigenständigen Akteure, sondern Werkzeuge“, erklärt Miguel Fornes, Cybersecurity-Experte bei Surfshark. Das bedeutet: Wer einen KI-Agenten einsetzt, trägt grundsätzlich auch die Verantwortung für dessen Handlungen.
Die Nutzungsbedingungen großer Anbieter wie OpenAI (ChatGPT), Anthropic (Claude) oder Google (Gemini) sind entsprechend formuliert. Sie stellen ihre Dienste in der Regel „wie gesehen“ bereit und schließen eine Haftung für Schäden durch KI-generierte Aktionen weitgehend aus. Nutzer akzeptieren diese Bedingungen mit der Verwendung der Dienste – oft ohne sich der Tragweite bewusst zu sein. Die zentrale Botschaft: KI ist experimentell. Wer sie nutzt, tut dies auf eigenes Risiko.
Zwei Haftungslogiken: es kommt darauf an…
Laut Surfshark-Jurist Maciej Mikelevič hängt die Haftungsfrage stark davon ab, wer die KI einsetzt. Wenn Unternehmen KI im Kundenkontakt nutzen, bleibt die Verantwortung bei ihnen. Ein prominentes Beispiel ist der Fall von Air Canada: Ein Chatbot hatte einem Kunden falsche Informationen zu Rabatten gegeben. Das Gericht stellte klar, dass das Unternehmen für alle Inhalte auf seiner Website haftet – unabhängig davon, ob diese von Menschen oder KI stammen. Für Verbraucher bedeutet das eine vergleichsweise starke Rechtsposition.
Deutlich schwieriger ist die Sachlage, wenn Privatpersonen selbst KI-Agenten einsetzen – etwa für Buchungen, Transaktionen oder automatisierte Entscheidungen. Führt der Agent eigenständig eine fehlerhafte oder unerwünschte Handlung aus, liegt die Verantwortung in der Regel beim Nutzer. Das kann konkret bedeuten: Bucht ein KI-Agent eine nicht stornierbare Reise oder löst eine Zahlung aus, ohne dass diese gewünscht war, besteht unter Umständen kein Anspruch gegenüber dem Anbieter der Dienstleistung (z. B. Airline oder Hotel).
Wenn du dich entscheidest, persönlich einen Chatbot oder KI-Agenten zu nutzen und dieser einen Fehler macht, der dich Geld kostet – zum Beispiel wenn er Geld abbucht, um eine Reise zu buchen, die gar nicht möglich ist – dann trifft die Airline oder das Hotel möglicherweise keine Schuld.“
Maciej Mikelevič, Senior Legal Counsel bei Surfshark
Ansprüche gegen KI-Anbieter schwierig
Ganz ausgeschlossen ist eine Haftung der Anbieter aber nicht. Auch Unternehmen wie OpenAI oder Anthropic unterliegen dem Verbraucherschutzrecht. Wenn ein kostenpflichtiger KI-Dienst nachweislich mangelhaft ist oder nicht wie beworben funktioniert, können unter Umständen Schadensersatzansprüche entstehen. Die Hürden dafür sind jedoch hoch. Entscheidend sind unter anderem, welche Funktionen konkret zugesichert wurden, wie der Dienst beworben wurde und ob die KI bestimmungsgemäß eingesetzt wurde. In der Praxis dürfte es aber ohnehin schwierig bleiben, solche Ansprüche erfolgreich durchzusetzen – insbesondere bei komplexen KI-Agenten, deren Verhalten nicht vollständig vorhersehbar ist.
Ein grundlegendes Problem: KI-Systeme besitzen aktuell keine eigene Rechtspersönlichkeit. Sie können also weder haftbar gemacht noch verklagt werden. Ob sich das künftig ändert, ist offen – viele Experten gehen davon aus, dass eine solche Entwicklung, wenn überhaupt, noch Jahre entfernt ist. Bis dahin gilt: Verantwortung folgt der Nutzung.
Kontrolle bleibt Pflicht
Die Analyse von Surfshark zeigt deutlich, dass technologische Möglichkeiten schneller wachsen als rechtliche Rahmenbedingungen. Für Unternehmen wie auch Privatnutzer bedeutet das: Der Einsatz von KI-Agenten erfordert klare Governance, strikte Zugriffskontrollen und ein hohes Maß an Bewusstsein für Risiken. Oder, wie es Cybersecurity-Experte Fornes formuliert: KI ist ein leistungsstarkes Werkzeug – aber keines, dem man die vollständige Kontrolle über sensible Daten oder finanzielle Entscheidungen überlassen sollte.tw
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/241696


Schreiben Sie einen Kommentar