Der Facebook-Kodex: Nach diesen Regeln wird gelöscht

Der Facebook-Kodex: Nach diesen Regeln wird gelöscht

Gewalt gegen Menschen und Tiere, Erpressung, Mobbing, Fake News oder Rachepornos – auf Facebook sammeln sich jeden Tag Hunderttausende von rechtlich oder moralisch verwerflichen Inhalten. Ein Team von einigen Tausend Mitarbeitern kämpft sich durch die Flut der von Nutzern gemeldeten Postings. Nach welchen Regeln Inhalte gelöscht werden, haben jetzt geleakte interne Dokumente ans Licht gebracht.

Wie kann es sein, dass das Video eines Mordes über zwei Stunden lang online auf Facebook zu sehen war? Diese Frage kochte Mitte April in den USA hoch, als neben besagtem Mordvideo auch ein Livestream des Geständnisses des mutmaßlichen Täters offenbar nicht umgehend gelöscht wurde. Der Druck auf Mark Zuckerbergs Social Network steigt. Auch in den USA wird jetzt gefordert, dass Facebook noch stärker gegen Hass und Gewalt vorgeht.

In Europa, und hier vor allem in Deutschland, stehen Facebook und andere Online-Plattformen wegen der Verbreitung von Fake News und Hasspostings schon länger im Visier der Behörden. Der deutsche Bundesjustizminister Heiko Maas hat zuletzt ein Gesetzesvorhaben auf den Weg gebracht, das Netzwerkbetreiber wie Facebook oder Twitter verpflichten soll, die Verbreitung von möglicherweise strafrechtlich verbotenen Hassbotschaften zu unterbinden. Andernfalls sollen den Anbietern empfindliche Strafen drohen. Ob das umstrittene Gesetz noch vor der Bundestagswahl im Herbst verabschiedet wird, ist aber fraglich.

Verhaltenskodex mit durchwachsenem Erfolg

Der vor einem Jahr von der EU-Kommission mit IT-Riesen wie Microsoft, Google, Facebook oder YouTube verabredete Verhaltenskodex, der dieses Thema behandelt, hat bisher allenfalls durchwachsene Ergebnisse gebracht. Zwar werden laut aktuellen Zahlen der EU-Kommission mittlerweile doppelt so oft beanstandete Texte gelöscht wie noch vor sechs Monaten – allerdings bleibt demnach bei 40 Prozent der Fälle eine entsprechende Reaktion weiter aus.