KI-Haftung: Gericht verurteilt Chatbot-Betreiber für Falschaussagen
Betreiber von KI-Chatbots müssen für unwahre oder ehrverletzende Tatsachenbehauptungen ihrer Systeme haften, wenn diese öffentlich zugänglich sind. Das hat das Landgericht Hamburg in einem wegweisenden Urteil entschieden, auf das die Arbeitsgemeinschaft IT-Recht im Deutschen Anwaltverein hinweist.
Fall des KI-Chatbots Grok auf Plattform X
Im konkreten Fall ging es um den KI-Chatbot Grok auf der Kurznachrichten-Plattform X, ehemals bekannt als Twitter. Ein Nutzer hatte das System nach Institutionen gefragt, die stark von staatlicher Förderung abhängig sind. Die KI generierte daraufhin eine Liste, in der explizit ein deutscher Verein genannt wurde.
Der Chatbot behauptete, dass dieser Verein hohe Bundesmittel erhalte, und verwies dabei auf angebliche Quellen. Tatsächlich erhielt der Verein jedoch keinerlei staatliche Gelder, was zu einer Verletzung seines Persönlichkeitsrechts führte.
KI-Halluzinationen gelten nicht als Ausrede
Der Betreiber des Chatbots verteidigte sich mit dem Argument, es handele sich um eine technisch bedingte Fehlleistung der KI, eine sogenannte Halluzination. Das Landgericht Hamburg wies diese Argumentation jedoch zurück.
In den Urteilsgründen hieß es, dass der Durchschnittsnutzer KI-generierte Antworten als Tatsachenbehauptungen wahrnehme. Dies gelte insbesondere, wenn der Betreiber damit werbe, dass das System faktenbasierte Aussagen erstelle. Die Tatsache, dass der Inhalt von einer Maschine generiert wurde, ändere nichts an der rechtlichen Unzulässigkeit der Darstellung.
Haftung durch ungeprüfte Veröffentlichung
Das Gericht betonte, dass der Betreiber sich den Output der KI zu eigen machen müsse, da er das System so konfiguriert hat, dass die Ergebnisse ungeprüft direkt veröffentlicht werden. Damit hafte der Betreiber nach den Grundsätzen der Störerhaftung für die Verletzung des Vereinspersönlichkeitsrechts.
Die Richter untersagten X, die beanstandete Behauptung weiterzuverbreiten. Betroffene können in solchen Fällen Unterlassung verlangen, selbst wenn der Inhalt nicht von einem Menschen, sondern von einer KI stammt.
Rechtliche Konsequenzen für KI-Betreiber
Dieses Urteil hat weitreichende Implikationen für die Betreiber von KI-Chatbots. Sie müssen nun sicherstellen, dass ihre Systeme keine unwahren Tatsachenbehauptungen generieren, die öffentlich zugänglich sind. Andernfalls riskieren sie rechtliche Schritte und Haftungsansprüche.
Die Entscheidung des Landgerichts Hamburg unterstreicht, dass die Verantwortung für KI-generierte Inhalte bei den Betreibern liegt. Es spielt rechtlich keine Rolle, ob eine Falschaussage von einem Menschen verfasst oder von einer künstlichen Intelligenz halluziniert wurde.



