Onlinekommentare: KI sorgt für höflicheren Umgangston im Netz

Ein neuer KI-Chatbot soll schon beim Schreiben Umformulierungen vorschlagen und damit die Kommentarspalten im Netz freundlicher machen.

In Pocket speichern vorlesen Druckansicht 62 Kommentare lesen
Frau tippt an Laptop Kommentare

(Bild: 13_Phunkod/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Eike Kühl

Nicht nur bei Themen wie dem Krieg in der Ukraine und dem jüngsten Angriff auf Israel kann man sie leicht finden: Beleidigungen, Anfeindungen und Hasskommentare in den sozialen Medien und Kommentarspalten. Eine repräsentative Umfrage im Auftrag der Landesanstalt für Medien NRW kam im Sommer zu dem Ergebnis, dass 76 Prozent aller Befragten im Internet schon einmal Hassrede erlebt haben, knapp 40 Prozent gaben außerdem an, selbst schon einmal betroffen gewesen zu sein. Das deckt sich mit Umfragen aus den USA.

Wie lässt sich der teilweise vergiftete Diskurs im Internet verbessern? Forscherinnen und Forscher der US-amerikanischen Brigham Young University und Duke University haben eine Idee: Sie wollen künstliche Intelligenz nutzen, um den Umgangston im Netz höflicher zu gestalten. Ihre Erkenntnisse haben sie vor Kurzem in der Fachzeitschrift PNAS veröffentlicht.

Im Mittelpunkt der Studie steht eine eigens entwickelte Onlineplattform, die mit insgesamt 1.500 Menschen getestet wurde. Auf ihr kamen jeweils zwei Menschen anonym zusammen, die unterschiedliche Standpunkte zu einem politisch und emotional aufgeladenen Thema haben, in diesem Fall ging es um den Waffenbesitz in den USA. Sie sollten frei über das Thema diskutieren, waren dabei aber nicht ganz allein: Ein KI-Chatbot übernahm im Hintergrund die Rolle eines Moderators.

Der auf dem Sprachmodell GPT-3 basierende KI-Assistent ist in der Lage, bereits kurz nach dem Eintippen eines Kommentars maßgeschneiderte Vorschläge zur Umformulierung zu geben, um die Antworten sprachlich höflicher oder freundlicher zu gestalten – und das, ohne deren Inhalt und die These zu verfälschen. Für jede Antwort hatten die Teilnehmenden die Möglichkeit, die Vorschläge der KI anzunehmen, abzulehnen oder noch einmal zu bearbeiten. Am Ende des Tests erhielten sie eine Umfrage, um die Qualität des Gesprächs zu bewerten.

"Je öfter die Umformulierungen verwendet wurden, desto wahrscheinlicher war es, dass die Teilnehmer sich besser verstanden fühlten", sagt der Informatikprofessor David Wingate, der an der Studie beteiligt war.

Die Vorschläge basieren jeweils auf drei Techniken, die der gängigen Diskurs- und Kommunikationstheorie entspringen: Wiederholung, Validierung und Höflichkeit. Während des gesamten Tests nahm die KI insgesamt 2.742 Umformulierungen vor, wobei zwei Drittel aller Probanden die Vorschläge annahmen. 40 Prozent der Umformulierungen fielen auf Höflichkeit und jeweils 30 Prozent auf Wiederholung und Validierung des Gesagten.

"Unsere Ergebnisse liefern überzeugende Beweise dafür, dass dieser einfache Eingriff die Qualität eines Gesprächs steigern und auch das Engagement für demokratische Gegenseitigkeit stärken kann", heißt es in der Studie. So sehen die Forschenden das Potenzial, das System zu skalieren, also es etwa auf die Kommentarspalten eines Onlinemediums oder auch eines sozialen Netzwerks wie Facebook anzuwenden. Dadurch könnten wiederum menschliche Moderatoren entlastet werden.

Einen anderen Ansatz, um in Onlinekommentaren freundlichere und konstruktivere Diskussionen anzustoßen, hatte im Sommer die Graham Media Group erprobt. Dazu hatte sie den Chatbot "First Dibs" (auf Basis von GPT 3.5 von OpenAI) entwickelt. Dieser stellte unter Artikeln inhaltlich passende Fragen in den Kommentarbereich. Ein Manager von Graham Media meinte, dass es den Anschein habe, als ob man die Konversationen damit in eine produktivere Richtung führen könne.

Ganz so einfach ist es aber in der Praxis nicht. Denn obwohl das Team, das die KI für die besseren Formulierungen entwickelte, behauptet, dass ihre KI in der Lage sei, persönliche Standpunkte zu erkennen und Meinungen durch die Umformulierung nicht zu verfälschen, ist Vorsicht geboten: Große Sprachmodelle wie GPT sind nicht frei von Bias und Verzerrungen und je nachdem, wie sie implementiert werden, besteht die Gefahr, dass sie bewusst einzelne Standpunkte fördern.

(jle)