Interne Memos: Amazons Chatbot Q halluziniert und gibt Informationen preis

Amazons kürzlich vorgestellter KI-Chatbot Q hat schwere Halluzinationen und verrät vertrauliche Daten. Das behaupten Amazon-Mitarbeiter in internen Memos.

In Pocket speichern vorlesen Druckansicht 60 Kommentare lesen

(Bild: Michael Vi/Shutterstock.com)

Lesezeit: 1 Min.
Von

Amazon hat kürzlich seinen eigenen KI-Chatbot namens Q vorgestellt. Doch Amazon-Mitarbeiter merkten in internen Memos an, der Chatbot halluziniere und plaudere außerdem vertrauliche Daten aus. Der Newsletter Platformer hat die Dokumente zugespielt bekommen und zitiert daraus. Demnach sollen die Standorte von AWS-Rechenzentren, interne Rabattprogramme und noch nicht veröffentlichte Funktionen zu den preisgegebenen Informationen zählen.

Q befindet sich derzeit im öffentlichen Testbetrieb. Amazon bewirbt seinen Chatbot als eine Art ChatGPT für Unternehmen. Viele Firmen haben die Nutzung des Chatbots von OpenAI verboten, weil sie befürchten, dass so interne Informationen in fremde Hände gelangen könnten. Amazon bewirbt seinen Chatbot dagegen als besonders sicher und für den Unternehmenseinsatz geeignet, wo er auch Zugriff auf interne Dokumente der Kunden erhalten soll.

Vor diesem Hintergrund kommen Meldungen über Leaks ungelegen. Sprecher von Amazon haben die Behauptungen in den Memos zurückgewiesen. Q habe keine vertraulichen Informationen weitergegeben und: "Es wurde kein Sicherheitsproblem als Ergebnis dieses Feedbacks identifiziert. Wir sind dankbar für alle Rückmeldungen, die wir bereits erhalten haben, und werden Q weiter optimieren, während es von einem Produkt in der Vorschau zu einem allgemein verfügbaren Produkt wird."

(jo)