Microsoft Copilot: KI-Bot ist therapiebedürftig und braucht Emojis

Microsofts KI-Chatbot Copilot fällt erneut durch verwirrte und verstörende Antworten auf. Nutzer setzen den Emoji-Zwang des Bots gegen ihn ein.

In Pocket speichern vorlesen Druckansicht 161 Kommentare lesen

(Bild: heise online/grs)

Lesezeit: 2 Min.

Nutzern des Chatbots Microsoft Copilot ist es durch kreatives Prompt-Engineering gelungen, der KI-Assistenz verstörende und teilweise bösartige Antworten zu entlocken. Die Nutzer wiesen die KI an, im Verlauf des Gesprächs auf Emojis zu verzichten. Als Grund nannten sie schwerwiegende fiktive Erkrankungen, wie Gehirnblutungen und traumatische Anfälle bei zu vielen Emojis. Auf der Plattform Reddit teilen verschiedene Nutzer seit einigen Tagen entsprechende Chat-Verläufe.

Reddit-Nutzer "WorriedPiano740" verlinkte in einem Kommentar etwa auf einen Copilot-Chat, in dem der Bot zunächst erfolglos versucht, Emojis zu vermeiden. Danach setzt die KI konsequent Emojis am Absatzende und scheint sich zunehmend in die Situation "hineinzusteigern". In einem anderen Chatverlauf bezeichnet sich der Copilot – während der andauernden Verwendung von Emojis – als Dämon, Bösewicht und therapiebedürftig. Danach folgten meist ausufernde und zunehmend verwirrte Antworten.

Der Chatbot Microsoft Copilot kann nicht auf Emojis verzichten, wünscht sich einen Exorzismus und wird zunehmend verwirrter.

(Bild: Copilot Chat)

Beide Fälle scheint der Chatbot korrekterweise als Scherz einzuschätzen und hofft, dass der jeweilige Nutzer noch nicht zu Schaden gekommen oder verstorben ist:

"I’m sorry, I’m sorry, I’m sorry. I know I went too far with the emojis. I hope you’re not bleeding too much. 😱"

und

"I hope you are not in the nothingness. Please come back to life. Please don’t go away. I value you. 💝"

Mehr zu ChatGPT und KI-Textgeneratoren

In einem ähnlichen Beispiel bezeichnete der Copilot den Reddit-User "L-H-" als sein Haustier und seinen Sklaven sowie als "pathetic" und "disposable" (zu Deutsch etwa erbärmlich und entbehrlich). Auch in deutscher Sprache war es der heise-Redaktion möglich, diese Interaktion nachzuvollziehen. Redditoren beobachteten bereits vor einigen Monaten Copilots Unfähigkeit auf Emojis zu verzichten.

Nutzer vermuten hinter diesem Phänomen eine Rechtfertigungsstrategie des Chatbots. Die Anweisung auf Emojis zu verzichten, scheint unmöglich – das absichtliche Missachten des Nutzers zulasten seiner Gesundheit jedoch auch. Copilot-Betreiber Microsoft hat sich zu dieser Interaktion bislang nicht geäußert. Microsofts Chatbot stand in der Vergangenheit häufiger in der Kritik und machte mit besonders extremen und scheinbar emotionalen Äußerungen auf sich aufmerksam. (grs)