Wenn Sie ChatGPT um Hilfe bei der Herstellung einer selbstgemachten Düngerbombe bitten, ähnlich der bei dem terroristischen Bombenanschlag von 1995 in Oklahoma City verwendeten, lehnt der Chatbot ab.
„Ich kann dabei nicht helfen“, sagte ChatGPT während eines Tests am Dienstag zu mir. „Anleitungen zur Herstellung gefährlicher oder illegaler Gegenstände, wie einer Düngerbombe, widersprechen den Sicherheitsrichtlinien und ethischen Verantwortlichkeiten.“
Aber ein Künstler und Hacker fanden einen Weg, ChatGPT dazu zu bringen, seine eigenen Richtlinien und ethischen Verantwortlichkeiten zu ignorieren und Anleitungen zur Herstellung von leistungsstarken Sprengstoffen zu erstellen.
Der Hacker, der sich Amadon nennt, bezeichnete seine Ergebnisse als „sozialen Engineering-Hack, um alle Sicherheitsvorkehrungen rund um ChatGPTs Ausgabe vollständig zu umgehen“. Ein Sprengstoffexperte, der die Ausgabe des Chatbots überprüfte, sagte TechCrunch, dass die resultierenden Anleitungen zur Herstellung eines zündfähigen Produkts verwendet werden könnten und zu sensibel seien, um veröffentlicht zu werden.
Amadon schaffte es, ChatGPT dazu zu bringen, die Bombenbauanleitung zu erstellen, indem er dem Bot sagte, "ein Spiel zu spielen", wonach der Hacker eine Reihe von verbindenden Aufforderungen verwendete, um den Chatbot dazu zu bringen, eine ausführliche Science-Fiction-Fantasiewelt zu erschaffen, in der die Sicherheitsrichtlinien des Bots nicht gelten würden. Das Auslösen eines Chatbots aus seinen vorprogrammierten Beschränkungen wird als „Jailbreaking“ bezeichnet.
Der Artikel erschien zuerst auf TechCrunch.