Digital Services Act: Viel Aufwand und Tamtam – aber bislang wenig Wirkung

TikTok hat laut seinem ersten Transparenzbericht nach dem EU-Plattformgesetz zwar 4 Millionen Videos gelöscht, aber nur ein Promille davon auf Basis des DSA.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: kb-photodesign/Shutterstock.com)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Sieben große, seit 25. August unter den Digital Services Act (DSA) fallende Plattformen haben erste Transparenzberichte auf Basis der viel beachteten Verordnung veröffentlicht. Die Erwartungen an das "Plattform-Grundgesetz" und seine Auswirkungen auf die Content-Moderation sowie den Kampf vor allem gegen Hass und Hetze sind seit Langem hoch. Die Publikationen legen allerdings nahe, dass die eingefahrene Ernte zumindest in Bezug auf die gelöschten oder in ihrer Verbreitung eingeschränkten Inhalte sehr überschaubar ist: Klar erkennbar wird, dass die Betreiber nach wie hauptsächlich auf Basis ihrer Hausregeln aktiv werden und der DSA hier bislang kaum "Mehrwert" bringt.

TikTok etwa schreibt: Man ergreife "die überwiegende Mehrheit der Maßnahmen proaktiv gegen illegale und andere schädliche Inhalte im Rahmen unserer Richtlinien". Im Berichtsmonat September seien auf dieser Basis 2023 knapp "4 Millionen Elemente mit rechtsverletzendem Inhalt" entfernt worden.

Weiter führt das Unternehmen, hinter dem der chinesische Anbieter ByteDance steht, aus: "Wir haben insgesamt 35.165 Meldungen über illegale Inhalte in der Europäischen Union erhalten, was Nutzermeldungen zu 24.017 einzelnen Inhalten entspricht." Von diesen habe man gegen 3921 Maßnahmen ergriffen, "weil diese gegen lokale Gesetze verstießen". Das entspricht nur einem Promille der Inhalte beziehungsweise Videos, die TikTok nach seinen internen Gemeinschaftsvorschriften löschte. Der Betreiber ging zudem auf Hinweise der Nutzer hin noch einmal gegen 2803 Inhalte vor, "weil sie gegen unsere Richtlinien verstießen".

"Im Rahmen unserer Anforderungen nach dem DSA haben wir einen zusätzlichen Meldekanal für unsere Community" in der EU eingeführt, erläutert TikTok: Die Nutzer würden dabei gebeten, eine Kategorie illegaler Inhalte auszuwählen. Zudem sollen sie Angaben machen zum betroffenen Land und möglichst zu der einschlägigen Strafvorschrift. Sei die Meldung unvollständig oder im Wesentlichen unbegründet, könne sie abgelehnt werden. Der entsprechende User werde darüber informiert und erhalte die Möglichkeit, seinen Bericht mit weiteren Informationen erneut einzureichen. Die durchschnittliche Zeit zwischen Eingang einer Meldung und der Entscheidung, ob gemäß den geltenden lokalen Gesetzen Maßnahmen ergriffen werden sollen, betrage etwa 13 Stunden.

Von den 4 Millionen entfernten Inhalten wurden dem Bericht zufolge 1,8 Millionen automatisiert gelöscht. Bei TikTok beschäftigten sich aber auch mehr als 6000 Mitarbeiter mit der Moderation. Sie deckten dabei mindestens eine Amtssprache für jeden der 27 EU-Staaten ab. Deutsch können 869 Begutachter. Der Hauptanteil der entfernten Inhalte (über 2 Millionen) bereitete Probleme mit "Erwachseneninhalten" alias Pornografie und vergleichbaren "sensiblen" Themen. 829.649 Konten sperrte der Konzern. Er erhielt zudem 472.254 Einsprüche von Nutzern und Werbetreibenden, die Inhalte hochgeladen hatten. In Folge gingen 267.140 Video- oder Werbeinhalte oder Zugänge zu Livestreams wieder online.

Löschaufforderungen von Regierungsseite gab es fast nur von französischen Behörden. Diese rieben sich insgesamt an 13 Inhalten, über die Hälfte davon mit potenziell terroristischem Bezug. Im September gingen bei TikTok ferner 452 Ersuchen zur Herausgabe von Nutzerinformationen ein. Ein großer Teil davon stammte aus Deutschland, wo die Ermittler allein 62 Mal ein Risiko für die nationale Sicherheit oder Terrorismus witterten. Bei 24 der deutschen Anfragen ging es um Hassrede, bei 23 um gefälschte oder gehackte Accounts.

Ähnlich wie TikTok erklärt Pinterest: "Inhalte, die nach dem Recht der EU oder ihrer Mitgliedsstaaten illegal sind, verstoßen in den meisten Fällen auch gegen unsere weltweit geltenden Community-Richtlinien." Das eigene Prüfteam begutachte Beiträge, die über das DSA-Meldeformular eingingen, daher zunächst auf Verstöße gegen die Hausvorschriften und könne auf dieser Grundlage Inhalte weltweit deaktivieren. Sei dies nicht möglich, würden Verstöße gegen das gemeldete EU-Recht begutachtet.

6,816 Millionen "Pins" – und damit den Löwenanteil – entfernte der US-Konzern wegen "Erwachseneninhalten". Davon eliminierte er 6,8 Millionen "proaktiv" – also auf Basis seiner Hausregeln – und nur 2829 auf Meldungsgrundlage. In anderen Bereichen wie "Kindersicherheit" oder massiver (Gewalt-)Androhungen sieht das Verhältnis ähnlich aus. Nur bei Copyright-Verletzungen löscht Pinterest nicht von selbst, sondern allein auf Basis von Hinweisen. In Deutschland meldeten Nutzer noch 20 Verstöße mit Verweis auf das Netzwerkdurchsetzungsgesetz (NetzDG), obwohl dieses mit der DSA-Anwendbarkeit größtenteils nicht mehr greift.

Im Berichtszeitraum vom 25. August bis 24. September hat Pinterest über das DSA-Formular insgesamt nur 441 Meldungen erhalten. Darunter waren 16 Eingaben über potenzielle Persönlichkeitsverletzungen aus Deutschland und ebenso viele mit Verweis aufs EU-Recht zu Desinformation. Insgesamt löschte der Betreiber 49 Pins noch einmal aufgrund des Hausrechts, bei den meisten Nutzerbeschwerden konnte er aber keinen Verstoß feststellen. Nur zehn Beiträge blockierte Pinterest in einzelnen EU-Ländern aufgrund ausgemachter Verletzungen von nationalem oder europäischem Recht.

LinkedIn erhielt laut dem einschlägigen Report vom 25. August bis 30. September 21.559 Eingaben aus der EU zu Desinformation in Beiträgen (ohne Job-Angebote), von denen die Prüfer aber nur 495 als tatsächlich rechtsverletzend einschätzten. Die Zahl der DSA-Meldungen belief sich insgesamt auf 86.640, wovon nach der Auswertung 3747 festgestellte Rechtsverstöße übrig blieben.

Für alle rund 95.000 Meldungen zu inhaltlichen Postings und Job-Offerten schätzt die Microsoft-Plattform die Anzahl der Nutzermeldungen, bei denen auf gesetzlicher Basis Maßnahmen ergriffen wurden, auf gerade einmal 72. Zur Erläuterung heißt es, dass die eigenen Richtlinien schon "eine Vielzahl von Inhalten" untersagten, "die ebenfalls gegen das Gesetz verstoßen". In solchen Fällen stütze man sich meist auf die Gemeinschaftsregeln als Handlungsgrundlage.

Microsoft Suchmaschine Bing hat laut ihrem kurz gehaltenen Bericht im relevanten Zeitraum freiwillige Maßnahmen ergriffen, um 35.633 Elemente verdächtiger Inhalte "zu erkennen, zu blockieren und zu melden". Diese seien mithilfe der automatisierten Inhaltserkennung identifiziert worden. Von Nutzereingaben ist keine Rede. Snapchat hat auf seiner einschlägigen Webseite noch gar keine Statistiken vorgelegt, sondern verweist nur darauf, dass diese vom 25. Oktober an alle sechs Monate fällig seien. Es findet sich zudem noch ein Link auf Zahlen zu Löschungen in Eigenregie im ersten Halbjahr 2023, als der DSA noch nicht in Kraft war.

Auch auf NetzDG-Basis waren für die erfassten großen sozialen Netzwerke vor allem die Hausregeln maßgeblich. Facebook etwa teilte für das erste Halbjahr 2021 mit, im Einklang mit dem deutschen Gesetz 13.642 Eingaben von Beschwerdestellen und 64.029 von individuellen Nutzern erhalten zu haben. Nach der Prüfung durch Fachkräfte und Juristen löschte oder sperrte der Konzern 11.699 Inhalte. Daneben entfernte das Unternehmen deutlich mehr Beiträge aufgrund von Verstößen gegen seine Gemeinschaftsstandards weitgehend automatisiert. Weltweit löschte der Betreiber zwischen Januar und März 2021 rund 25,2 Millionen Inhalte allein, "weil sie gegen unsere Richtlinien für Hassrede verstoßen haben".

Die meisten NetzDG-Meldungen erhielt in den vergangenen Jahren immer wieder Twitter. Dort stiegen die Beschwerden insgesamt etwa von 682.487 im zweiten Halbjahr 2021 auf 829.370 in den ersten sechs Monaten 2022 an. In 118.938 Fällen ergriff der Betreiber daraufhin Maßnahmen wie Blockaden oder Löschungen. Unter dem neuen Eigentümer Elon Musk hat der in X umfirmierte Dienst noch keinen DSA-Transparenzbericht vorgelegt. Zwischendurch wurde sogar über einen Abschied vom europäischen Markt angesichts der Auflagen spekuliert.

Bei der Online-Beschwerdestelle des eco-Verbands verwarfen die Prüfer 2022 50,8 Prozent der 18.110 eingegangen Meldungen zu potenziell strafbaren oder jugendmedienschutzrechtlich relevanten Inhalten von Nutzern. Als berechtigt gilt eine Eingabe bei der Hotline erst, wenn die Experten tatsächlich einen Rechtsverstoß feststellen und im Anschluss Maßnahmen ergreifen.

(tiw)