OpenAI will Content-Moderatoren durch GPT-4 ersetzen

Content-Moderatoren leiden häufig psychisch unter ihrem Job. OpenAI bietet ein Moderationssystem auf Basis von GPT-4.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Stop,Violence,Against,And,Sexual,Abuse,Women,anti-trafficking,And,Stopping,Violence

(Bild: Tinnakorn jorruang / Shutterstock.com)

Lesezeit: 2 Min.

Digitale Plattformen und auch die Trainingsdaten-Sets für KI-Modelle werden von Menschen sauber gehalten. Diese Content-Moderatoren müssen sich Material anschauen und gegebenenfalls löschen. Oft leiden sie unter dem, was sie da sehen. OpenAI hofft nun, dass GPT-4 diese Arbeit übernehmen kann. Das KI-assistierte Moderations-System ist via API verfügbar.

"Inhaltsmoderation spielt eine entscheidende Rolle, um digitale Plattformen rein zu halten", heißt es in einem Blogbeitrag von OpenAI. Nutze man ein GPT-4 basiertes Content-Moderations-System, könne man Änderungen in den Richtlinien viel schneller umsetzen. Zudem könne GPT-4 Regeln verstehen und Nuancen in langfristigen Richtlinien erkennen. "Wir glauben, dass dies eine positivere Vision für die Zukunft digitaler Plattformen bietet, wo KI helfen kann, den Online-Traffic nach plattformspezifischen Policys zu moderieren und die psychische Belastung einer großen Anzahl menschlicher Moderatoren zu entlasten."

Die Schwierigkeiten der Inhaltsmoderation liegen im Verstehen von Kontexten und in immer neuen Fällen. Zwar nutzen die großen Plattformbetreiber wie Meta und auch Google schon seit langem Machine Learning, um Inhalte, die gefährlich oder strafbar sind, herauszufiltern. Schlussendlich müssen im Zweifelsfall aber immer wieder Menschen eingreifen, wenn Fälle unklar sind. Laut OpenAI ist der bisherige Prozess langsam und kann zu mentalem Stress der Moderatoren führen. Die eigenen Sprachmodelle seien bereits in der Lage, diese Aufgabe zu übernehmen. "Mit diesem System wird der Prozess der Entwicklung und Anpassung von Inhaltsrichtlinien von Monaten auf Stunden reduziert."

(Bild: OpenAI)

Um ein Moderationssystem von OpenAI zu nutzen, bedarf es der Richtlinien und Beispiele. GPT-4 kann sich diese anschauen und daraufhin loslegen. Das Sprachmodell kann die Entscheidungen auch begründen. Aus dem Prozess lernt das Modell und erschafft entsprechend weitere Kategorien. Optional können man, um große Datenmengen in großem Maßstab zu behandeln, die Vorhersagen von GPT-4 verwenden, um ein viel kleineres Modell zu optimieren, schreibt OpenAI.

Ausgerechnet OpenAI soll allerdings zahlreiche Clickworker, also Billigarbeitskräfte, in Kenia engagiert haben, die für wenig Geld unangenehme Inhalte aus den Trainingsdaten für KI-Modelle gefiltert haben. Weniger als zwei Euro sollen sie pro Stunde bekommen haben, um problematische Inhalte zu beurteilen.

In Deutschland haben Content-Moderatoren von Social-Media-Plattformen vor dem Bundestag gesprochen, um auf ihre Situation aufmerksam zu machen. Sie müssten zur Prüfung Beiträge mit extremer Gewalt anschauen, es fehle an psychologischer Betreuung.

(emw)