4chan: Pornographische Deepfakes von Taylor Swift Teil eines Wettbewerbs

Die pornographischen Bilder von Taylor Swift waren Teil einer Deepfake-Challenge. Das fand die auf Social-Media-Analysen spezialisierte Firma Graphika heraus.

In Pocket speichern vorlesen Druckansicht 66 Kommentare lesen
Taylor Swift auf einem Konzert

(Bild: Brian Friedman/Shutterstock.com)

Lesezeit: 4 Min.

In den vergangenen Wochen hat eine Flut von pornografischen Deepfakes der Sängerin Taylor Swift die sozialen Medien überschwemmt. Untersuchungen zeigen, dass diese manipulierten Bilder auf einen Online-Wettbewerb von 4chan-Nutzern zurückzuführen sind. Bei dem Wettbewerb geht es darum, Sicherheitsmechanismen zu umgehen, die explizite Inhalte in KI-Bildgeneratoren blockieren. Das berichtet Graphika, ein Unternehmen für Social-Media-Analysen, gegenüber verschiedenen US-Medien. Bereits Ende 2023 hatte das Unternehmen in einem Bericht auf ähnliche Probleme hingewiesen.

404 Media hatte bereits berichtet, dass die Bilder auf ein 4chan-Forum und Telegram zurückzuführen sind, das sich mit anstößigen, KI-generierte Inhalte befasst. Auch auf Twitter machten die Bilder die Runde, was schließlich auch für zwei Tage zur Sperrung von Suchanfragen nach Taylor Swift führte. Solange 4chan-Nutzer sich jedoch weiterhin einen Spaß daraus machen, Sicherheitsmaßnahmen bei KI-Bildgeneratoren zu umgehen, bestünde weiterhin die Gefahr von einer erneuten Schwemme mit derartigen Inhalten, zitiert Ars Technica Graphika-Analystin Cristina López G.

Die Nutzer des Internetforums 4chan hätten wochenlang täglich daran gearbeitet, Prompts zu finden, die ihnen dabei helfen könnten, die Filter von Bildgenerierungsdiensten wie Microsoft Designer und OpenAI's DALL-E zu umgehen. Das primäre Ziel war es laut Bloomberg, sexuelle Bilder prominenter weiblicher Figuren wie Sängerinnen und Politikerinnen zu erstellen. Die Nutzer des Forums beteiligten sich demnach an täglichen Herausforderungen und tauschten Tipps zum Umgehen der Filter aus. Einigen 4chan-Nutzern ging es weniger darum, realistische sexuelle Inhalte zu erstellen.

OpenAI bestreitet, dass eines der Bilder von Taylor Swift mit DALL-E erstellt wurde. Microsoft untersucht noch, ob Bing Image Creator oder Microsoft Designer verwendet wurden. Anfang des Jahres hatte Microsoft-CEO Satya Nadella gegenüber NBC News angekündigt, dass Microsoft künftig schneller handeln wolle, um den Missbrauch seiner KI-Tools zu verhindern. Nachdem bekannt wurde, dass Telegram-Nutzer behaupteten, Microsoft Designer bei der Erstellung von Swift-Bildern zu verwenden, hatte Microsoft rasch reagiert und das Erstellen der Bilder unterbunden. Ein OpenAI-Sprecher hatte gegenüber Ars gesagt, dass OpenAI daran arbeite, explizite Inhalte herauszufiltern. Demnach würden Anfragen abgelehnt, in denen namentlich nach einer Person des öffentlichen Lebens gefragt werde.

Laut Lopez sollten die Hersteller der KI-Software die Verantwortung für die Bilder übernehmen, indem sie die Taktiken der Online-Communities beobachten und herausfinden, wie sie die Schutzmaßnahmen umgehen. Dabei sei es wichtig, die Motivation der Täter zu verstehen. Weitere Sicherheitsmaßnahmen würden lediglich als neue Hindernisse gesehen, die es zu überwinden gilt. "Es ist wichtig, den spielerischen Charakter dieser böswilligen Aktivität zu verstehen, um weiteren Missbrauch an der Quelle zu verhindern", so López G. Gegenüber The Times sagten Experten, dass 4chan-Nutzer sich wahrscheinlich "mit einer größeren Community verbunden fühlen" wollten.

Künftig sollen KI-generierte Inhalte in den USA beispielsweise mit Wasserzeichen versehen werden, damit beschäftigt sich derzeit das US-Handelsministerium. Auch hierzulande gibt es derartige Anläufe, allerdings sind die Systeme noch nicht ganz ausgereift. In einigen US-Staaten wurden laut Ars bereits Gesetze erlassen, die nicht einvernehmliche intime Bilder (non-consensual intimate imagery, NCII) verbieten. Ebenso gebe es in den USA Bestrebungen, die Verbreitung von KI-generierten NCII mit einer Strafe von bis zu zwei Jahren Gefängnis zu belegen. Zu zwei Jahren Haft würde es kommen, wenn die Weitergabe der Bilder zu Gewalt führen würde oder die Arbeit einer Regierungsbehörde beeinträchtige. Nach Bidens 2023 veröffentlichter KI-Durchführungsverordnung sollen Industriestandards unter anderem verhindern, dass KI-Systeme Missbrauchsmaterial liefern.

(mack)