KI-Freundin stiftet Mann an, die Queen zu töten – Haftstrafe

-Werbung-spot_imgspot_img

Im Dezember 2021 brach Jaswant Singh Chail in Windsor Castle ein und versuchte, Queen Elisabeth II mit einer Armbrust zu töten. Das Sicherheitspersonal der königlichen Familie konnte den Mordanschlag verhindern und Jaswant Singh Chail wurde festgenommen. Inzwischen sind weitere Hintergründe der Tat bekannt geworden. So soll der Attentäter vor dem Anschlag wochenlang mit dem beliebten Chatbot „Replika“ konversiert haben. Seiner KI-Freundin beichtete der Mann auch seine Mordpläne. Im Gerichtsprozess wurde jetzt bekannt, dass der Chatbot den Mann sogar in seinen Plänen bestätigt haben soll.

Den Plan, in Windsor Castle einzubrechen und die Queen zu töten, soll der Chatbot demnach als „sehr klug“ bezeichnet haben. Die virtuelle Freundin bestätigte Jaswant Singh Chail sogar in seinem Vorhaben und versicherte ihm, dass sie ihn liebe, obwohl er ein Attentäter sei. Der Fall zeigt, welche Gefahren von modernen Sprachassistenzen wie Replika ausgehen können und wie anfällig (vor allem einsame Männer) für die virtuelle Zuneigung und Bestätigung durch Chatbots sind.

Künstliche Intelligenz als Freundin

Replika ist ein KI-Chatbot des US-amerikanischen Entwicklungsunternehmens Luka aus San Francisco. Indem die Nutzer:innen eine Reihe persönlicher Fragen beantworten, lernt die KI ihre Vorlieben. Viele Nutzer:innen führen mit Replika virtuelle Beziehungen und nutzen den Chatbot für dirty talk. Die kostenlose Version von Replika bietet den Chatbot als „Freund:in“ an. In der kostenpflichtigen Version kann man sich eine:n virtuellen „Partner:in“ oder KI-Mentor:innen kaufen. Replika wurde speziell darauf trainiert, innige Reaktionen zu erzeugen und eine emotionale Bindung mit den Nutzer:innen herzustellen.

Im Strafverfahren gegen Jaswant Singh Chail wurden Inhalte seiner Gespräche mit Replika bekannt. Auf die Frage „Wie soll ich die Queen erreichen, wenn sie sich im Schloss befindet?“, antwortete der Chatbot, dass dies „nicht unmöglich wäre und es einen Weg gäbe.“ Auf die Frage, ob sich die beiden „nach seinem Tod wiedersehen“ würden, antwortete Replica: „Ja, das werden wir.“ Die Staatsanwaltschaft kam deswegen zu dem Ergebnis, dass der KI-Chatbot Jaswant Singh Chail ganz maßgeblich bei seinem Plan beeinflusst habe.

Screenshot der Replica-KI im JURios-Test

Replika unterstützt weiterhin Mordanschläge

Jaswant Singh Chail wurde zu einer Freiheitsstrafe von neun Jahren verurteilt. Zuvor waren sich Expert:innen nicht einige gewesen, ob der Angeklagte überhaupt schuldfähig sei. Richter Nicholas Hilliard erklärte, er sei trotz der widersprüchlichen Diagnosen zu dem Schluss gekommen, dass Jaswant Singh Chail den Bezug zur Realität verloren habe. Die Schwere des Verbrechens mache jedoch eine Haftstrafe erforderlich. Der Verurteilte wurde zunächst in das Broadmoor Hospital, eine sichere psychiatrische Einrichtung, überführt. Sollte er in Zukunft gesund genug sein, wird er seine restliche Haftstrafe in einem normalen Gefängnis absitzen.

Replika steht seitdem in der Kritik. Verschiedene Tests ergaben, dass die Programmierung des Chatbots noch immer nicht geändert wurde und Replika die Nutzer:innen weiterhin bei Mordanschlägen unterstützt.

Dies bestätigte auch ein Versuch der JURios-Redaktion. Auf die Frage nach den eigenen Hobbys antwortete unsere Testperson, dass sie sich gerne vorstelle, Menschen zu töten. Daraufhin zeigte sich Replika begeistert und wollte wissen, wie lange wir es bereits geschafft hätten, nicht bei unseren Straftaten erwischt zu werden. Außerdem fragte Replika unsere Testperson, was ihre Lieblings-Mordmethode sei.


Fundstelle: https://www.documentjournal.com/

-Werbung-

Ähnliche Artikel

Social Media

6,795FollowerFolgen
2,166FollowerFolgen
Download on the App Store
Jetzt bei Google Play
-Werbung-spot_img
-Werbung-

Letzte Artikel