Facebook löscht einen journalistischen Beitrag – und keiner weiß, warum

Mehrere soziale Netzwerke haben ein Video des ARD-Politmagazins Monitor über das rassistische Attentat in Hanau gelöscht. Der Beitrag habe gegen die Nutzungsbedingungen verstoßen. Doch kann guter Journalismus überhaupt solche Richtlinien verletzen? Ein Kommentar von Martin Schlorke
Von PRO
Ohne die Nennung genauer Gründe hat Facebook ein Video des Politmagazins Monitor gelöscht

Facebook und das zum US-Konzern dazugehörige Instagram haben am Dienstag ein Video des ARD-Politmagazins Monitor von ihren Seiten gelöscht. In dem Video rekonstruierten Journalisten die Ereignisse des rassistischen Anschlags in Hanau vom Februar 2020 und beleuchteten Versäumnisse bei der Polizei. Die Plattformen begründeten die Löschung mit Verstößen gegen die Gemeinschaftsrichtlinien. Eine Nachfrage des Monitor-Chefs Georg Restle an den Tech-Konzern blieb unbeantwortet.

Es stellt sich die Frage, gegen welche Richtlinien der Beitrag verstoßen haben könnte. Die Kurzform: Gegen keine. Dass es Nutzungsbedingungen geben muss, die ein Miteinander in den sozialen Netzwerken regeln, steht außer Frage. Rassismus, Antisemitismus und andere menschenverachtenden Ideologien sollten nirgendwo Platz haben. Dass einige andere Richtlinien nicht wirklich notwendig sind – geschenkt. Im Beitrag der Monitor-Redaktion sind aber weder weibliche Brüste zu sehen noch glorifiziert er rassistische Weltbilder. Das Video beleuchtet diese stattdessen kritisch und arbeitet die Geschehnisse von Hanau auf. Das nennt sich Journalismus. Wenn Journalismus gegen Nutzungsbedingungen verstößt, dann stimmt etwas mit den von Firmen aufgestellten Regeln nicht.

Da die entsprechenden Firmen jedoch weder einen genauen Grund angeben noch auf Nachfragen reagieren, bleiben die genauen Hintergründe der Löschung unklar. Klar ist dabei jedoch, dass die Löschpraxis von Facebook und Co. mindestens so undurchsichtig wie Milchglas ist. Die Nachrichtenseite netzpolitik.org prangert schon länger die Praxis hinter dem Löschen an. Es sei fast nie nachvollziehbar, wie Entscheidungen zustande kommen. Ebenso bleibe unklar, ob Entscheidungen schlussendlich von Algorithmen oder Menschen getroffen werden. Wie fehleranfällig Künstliche Intelligenz (KI) sein kann, zeigten Forscher erst kürzlich anhand eines der leistungsstärksten KI-Sprachmodelle. Dieses bedient islamophobe und antisemitische Vorurteile.

Facebook darf nicht willkürlich löschen

Obwohl Facebook weiter auf eine genaue Begründung der Löschung warten lässt, ist das Video mittlerweile wieder verfügbar. Ein Facebook-Sprecher entschuldigte sich für „den Fehler“. Zuvor reagierten auch Bundestagsabgeordnete auf den Vorfall. Der Grünen-Politiker Stefan Gelbhaar fordert auf Twitter die unverzügliche Aufhebung der Sperrung. Niema Movassat (Linkspartei) geht noch einen Schritt weiter und verlangt „Vorgaben, die so ein Löschverhalten verhindern“.

Algorithmen, die Rassismus nicht von dessen Aufarbeitung oder Wahlwerbung nicht von politischer Berichterstattung unterscheiden können, sind ein Problem. Dass Algorithmen nicht fehlerfrei arbeiten, ist keine Neuheit und wird sich auch nicht komplett verhindern lassen. Wer jedoch Richtlinien aufstellt, muss auch deren Einhaltung gewährleisten. Dazu gehört neben dem Löschen von Hassbotschaften jedoch auch, richtlinienkonforme Beiträge nicht zu löschen. Dieser Verpflichtung ist Facebook bereits mehrfach nicht gerecht geworden.

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

Offline, Inhalt evtl. nicht aktuell

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen