Künstliche Intelligenz: Der schwere Kampf gegen Halluzinationen

Große Sprachmodelle wie GPT erfinden Fakten. Das zu verhindern, ist eine wesentliche Voraussetzung für verlässliche KI-Anwendungen. Einfacher gesagt als getan.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
A,Person's,Head,Covered,By,An,Ai-labeled,Dark,Cloud

(Bild: photoschmidt/ Shutterstock.com)

Lesezeit: 13 Min.
Von
  • Eike Kühl
Inhaltsverzeichnis

Auf die Frage, was es über mich, den Journalisten Eike Kühl, weiß, liefert ChatGPT: Eike Kühl sei "für seine Arbeiten in verschiedenen deutschen Medien bekannt, insbesondere im Bereich der Popkultur, Musik und Gesellschaft". Er habe "unter anderem für Magazine wie Spex und Intro geschrieben und Bücher wie Es ist Liebe und Der Löwenbräukeller veröffentlicht". Der erste Satz mag stimmen, der Rest ist erfunden.

Mehr zum Thema Künstliche Intelligenz (KI)

ChatGPT hat halluziniert und das ist ein Problem der generativen Künstlichen Intelligenz. Denn wer ChatGPT etwas fragt, hofft auf faktisch korrekte Antworten. Auf Code, der funktioniert. Auf richtig gelöste Matheaufgaben. Auf akkurat zusammengefasste Bücher. Auf korrekte Daten in Biografien und richtige Mengenangaben bei Rezepten.

In der Praxis ist das aber häufig nicht der Fall. Andere KI-Chatbots machen es nicht besser: Schon die erste Demo von Googles Chatbot Bard enthielt einen Faktenfehler und Microsofts Bing Chat sorgte einer Untersuchung von AlgorithmWatch zufolge im Zusammenhang mit der Hessenwahl für teils abenteuerliche Antworten, um nicht zu sagen Desinformation. Bis zu 27 Prozent aller Fakten in einfachen Zusammenfassungen sind frei erfunden, ermittelte das US-Start-up Vectara in einer Studie vom November 2023.