Ermittlungen gegen OpenAI nach tödlichem Angriff an Universität in Florida
Die Behörden in Florida haben Ermittlungen gegen den Entwickler des KI-Chatbots ChatGPT, OpenAI, eingeleitet. Hintergrund ist ein Schusswaffenangriff auf dem Gelände der Florida State University im April 2025, bei dem zwei Menschen getötet und sechs weitere verletzt wurden. Laut Ermittlern soll sich der Schütze vor der Tat erheblich von ChatGPT beraten haben lassen.
ChatGPT als Berater für tödliche Angriffe?
Floridas Generalstaatsanwalt James Uthmeier erklärte bei einer Pressekonferenz, dass der Angreifer den KI-Chatbot konsultiert habe, um Informationen zu erhalten. Dazu gehörten Empfehlungen zur Wahl der Waffe, der passenden Munition sowie zu Orten und Zeiten, an denen sich die meisten Menschen auf dem Campus aufhalten würden. Diese Beratung soll eine zentrale Rolle bei der Planung der Tat gespielt haben.
Von OpenAI gab es zunächst keine offizielle Stellungnahme zu den Vorwürfen. Das Unternehmen steht nun unter Druck, da die Ermittler weitere Informationen fordern. Uthmeier betonte, dass bei einer vergleichbaren Beratung durch einen Menschen bereits eine Mordanklage verfasst worden wäre. „Natürlich ist ChatGPT keine Person“, räumte er ein, „aber wir müssen der Frage nachgehen, ob ein Unternehmen in diesem Fall haftbar gemacht werden kann.“
Herausforderungen bei KI-Sicherheitsvorkehrungen
Chatbots wie ChatGPT sind normalerweise so programmiert, dass sie keine Fragen beantworten, wenn sie erkennen, dass der Nutzer sich oder anderen Schaden zufügen möchte. In bestimmten Situationen sollen sie sogar Mitarbeiter des Unternehmens alarmieren, die dann Sicherheitsbehörden einschalten können. Allerdings wurde in der Vergangenheit berichtet, dass es möglich war, diese Sicherheitsvorkehrungen zu umgehen.
Die Ermittlungen konzentrieren sich nun darauf, ob OpenAI ausreichende Maßnahmen ergriffen hat, um solche Missbräuche zu verhindern. Die Behörde forderte bei dem Unternehmen Informationen zu Vorkehrungen für Bedrohungssituationen und zur allgemeinen Sicherheitsarchitektur der KI ein. Dieser Fall wirft grundlegende Fragen zur Verantwortung von KI-Entwicklern und zur Regulierung künstlicher Intelligenz auf.
Der Vorfall unterstreicht die dringende Notwendigkeit, ethische und rechtliche Rahmenbedingungen für den Einsatz von KI-Technologien zu schärfen. Während künstliche Intelligenz immense Fortschritte bietet, zeigt dieser tragische Fall, wie sie auch für schädliche Zwecke instrumentalisiert werden kann. Die Ermittlungen in Florida könnten somit wegweisend für künftige juristische Auseinandersetzungen im Bereich der KI-Haftung sein.



