Ethik für Maschinen: Wie erziehe ich ChatGPT und andere KI?
Generative KI-Systeme produzieren immer wieder toxische Aussagen und erfinden "Fakten". Forschende versuchen, mit besseren Trainingsmethoden gegenzusteuern.
- Katja Scherer
Plagiate, diskriminierende Aussagen und Fake News: Solche Probleme treten beim Einsatz smarter Chatbots immer wieder auf. Beispiele dafür finden sich im Netz jede Menge. ChatGPT zum Beispiel produziert auf Anfrage Lobestexte über die Kommunistische Partei in China und liefert bei Bedarf den Code für die Verbreitung der Texte gleich mit. Er schmuggelt frei erfundene Fakten in sachliche Erklärungen und interpretiert Gedichte, die es gar nicht gibt.
Dieser Artikel ist Teil der kommenden Ausgabe von MIT Technology Review, die ab 11. Mai 2023 als Print-Heft erhältlich ist. Auf heise+ lesen Sie diesen und weitere Texte aus dem Schwerpunkt "Künstliche Intelligenz" vorab exklusiv online.
So weit, so bekannt. Doch die schwierige Frage ist: Wie verhindert man das? Diese Frage wird immer dringlicher: Mitte März hat Google seinen KI-Chatbot Bard online gestellt, zunächst in den USA und in Großbritannien. In China bietet der Suchmaschinen-Gigant Baidu den Chatbot Ernie an. Der Einfluss der Bots wächst schnell.
"Sprachmodelle mit Entgiftungsmechanismen lieferten oft schlechtere Antworten als unkontrollierte Modelle."
"Beim Einsatz von Chatbots, die auf großen Sprachmodellen basieren, kann Faktentreue von Antworten nicht garantiert werden. Wenn solche Modelle laufend weiter trainiert werden, kann dies zu einer echten Gefahr werden, da Fake News dann rasend schnell im Netz dominieren können", sagt Ute Schmid, Leiterin des Lehrstuhls für Kognitive Systeme an der Uni Bamberg. Forscher auf der ganzen Welt suchen daher nach Lösungen, wie man die Chatbots besser machen kann. Sie setzen dazu auf bereinigte Trainingsdaten, verfeinerte Lernverfahren und neue KI-Modelle.