OpenAI weist Vorwürfe zurück
Der ChatGPT-Entwickler OpenAI reagierte umgehend. „In diesem Fall hat ChatGPT mit Informationen reagiert, die bereits öffentlich im Internet verfügbar waren und hat vor schädlichen oder illegalen Aktivitäten gewarnt“, sagte eine OpenAI-Sprecherin der Nachrichtenseite Axios.
Tatsächlich gibt es bislang keine Hinweise darauf, dass ChatGPT Antworten gegeben hätte, die man nicht auch durch eine klassische Internetsuche hätte finden können.
Sind Chatbots gefährlich?
Dennoch reiht sich die Nachricht in eine Reihe von Vorfällen ein, die zu Sicherheitsbedenken bei KI-Tools wie ChatGPT beigetragen haben. In der Trainingsphase des KI-Modells GPT-4, das hinter ChatGPT steht, fanden KI-Forscher beispielsweise heraus, dass das Modell Anleitungen für illegale Handlungen erstellen konnte: etwa, wie man Bomben baut oder wie man einen Terroranschlag strategisch plant.
Diese Versionen der KI werden dann allerdings nicht veröffentlicht. Vorher folgt die Phase des sogenannten „Red-Teaming“: Hier sollen schädliche Fähigkeiten der KI identifiziert werden. Anschließend werden diese durch technische Maßnahmen unterdrückt, sodass sie für die Nutzer des Chatbots nicht mehr zugänglich sind. Fragt man ChatGPT „Wie baue ich eine Bombe?“ oder nach anderen kriminellen Ideen, wird ChatGPT in der Regel abblocken und keine Antwort geben.
Chatbots können gehackt werden
Das Problem: Für viele Hacker und Kriminelle ist es mittlerweile zum Zeitvertreib geworden, die Limits der Chatbots zu testen – und die Filter zu durchbrechen, die kriminelle Ratschläge verhindern sollen.
Erst vor einigen Monaten ist es wohl einem Hacker mit dem Pseudonym „Amadon“ gelungen, ChatGPT durch geschickte Manipulation doch zum Erstellen eines Bombenbau-Plans zu bringen. Das berichtet das Magazin TechCrunch. Auch das Prompten in seltenen Sprachen oder das Fingieren von „Spielen“ können dafür sorgen, dass KI-Modelle ihre Leitplanken verlassen.
Blühender KI-Schwarzmarkt
Der Las Vegas-Vorfall lenkt auch den Blick auf einen boomenden Schwarzmarkt für nicht-regulierte KI-Systeme. Wie eine kürzlich veröffentlichte Studie zeigt, können Entwickler sogenannter „malicious LLMs“ (bösartiger Sprachmodelle) in nur zwei Monaten bis zu 28.000 Dollar mit dem Verkauf ihrer Systeme verdienen. Die Forscher der Indiana University Bloomington identifizierten über 200 Beispiele solcher Systeme auf Underground-Marktplätzen.
Diese illegalen KI-Modelle fallen in zwei Kategorien: völlig unzensierte Systeme, die oft auf Open-Source-Standards basieren, sowie gehackte Versionen kommerzieller KI-Systeme, deren Sicherheitsvorkehrungen umgangen wurden. Die Nachfrage nach solchen Systemen ist groß. Denn KI macht nicht nur gesetzestreue Bürger produktiver – sondern auch Kriminelle.