Der Facebook-Kodex: Nach diesen Regeln wird gelöscht

Der Facebook-Kodex: Nach diesen Regeln wird gelöscht

Gewalt gegen Menschen und Tiere, Erpressung, Mobbing, Fake News oder Rachepornos – auf Facebook sammeln sich jeden Tag Hunderttausende von rechtlich oder moralisch verwerflichen Inhalten. Ein Team von einigen Tausend Mitarbeitern kämpft sich durch die Flut der von Nutzern gemeldeten Postings. Nach welchen Regeln Inhalte gelöscht werden, haben jetzt geleakte interne Dokumente ans Licht gebracht.

Wie kann es sein, dass das Video eines Mordes über zwei Stunden lang online auf Facebook zu sehen war? Diese Frage kochte Mitte April in den USA hoch, als neben besagtem Mordvideo auch ein Livestream des Geständnisses des mutmaßlichen Täters offenbar nicht umgehend gelöscht wurde. Der Druck auf Mark Zuckerbergs Social Network steigt. Auch in den USA wird jetzt gefordert, dass Facebook noch stärker gegen Hass und Gewalt vorgeht.

In Europa, und hier vor allem in Deutschland, stehen Facebook und andere Online-Plattformen wegen der Verbreitung von Fake News und Hasspostings schon länger im Visier der Behörden. Der deutsche Bundesjustizminister Heiko Maas hat zuletzt ein Gesetzesvorhaben auf den Weg gebracht, das Netzwerkbetreiber wie Facebook oder Twitter verpflichten soll, die Verbreitung von möglicherweise strafrechtlich verbotenen Hassbotschaften zu unterbinden. Andernfalls sollen den Anbietern empfindliche Strafen drohen. Ob das umstrittene Gesetz noch vor der Bundestagswahl im Herbst verabschiedet wird, ist aber fraglich.

Verhaltenskodex mit durchwachsenem Erfolg

Der vor einem Jahr von der EU-Kommission mit IT-Riesen wie Microsoft, Google, Facebook oder YouTube verabredete Verhaltenskodex, der dieses Thema behandelt, hat bisher allenfalls durchwachsene Ergebnisse gebracht. Zwar werden laut aktuellen Zahlen der EU-Kommission mittlerweile doppelt so oft beanstandete Texte gelöscht wie noch vor sechs Monaten – allerdings bleibt demnach bei 40 Prozent der Fälle eine entsprechende Reaktion weiter aus.

Dass Gewaltvideos, Hassbotschaften oder pornografische Bilder in vielen Fällen nicht sofort oder gar nicht gelöscht werden, liegt zum einen am Selbstverständnis der Konzerne: Facebook etwa sieht sich selbst als Plattformanbieter; die Inhalte, die ausnahmslos von den Nutzern kämen, müssten daher nicht vorab geprüft werden. Dabei wäre technisch einiges möglich. Selbstlernende Maschinen zur Erkennung von Fotos oder Videos werden aber fast ausnahmslos erst dann eingesetzt, wenn Inhalte von den Nutzern gemeldet wurden.

Zum anderen ist die Zahl der Mitarbeiter, die bei Facebook gemeldete Inhalte überprüfen und gegebenenfalls löschen, begrenzt. Derzeit sollen es Facebook-Boss Zuckerberg zufolge etwa 4.500 Kontrolleure weltweit sein, die die laut Medienberichten rund 6,5 Millionen wöchentlich von Nutzern beanstandeten Postings sichten. Die meisten der Mitarbeiter sind bei externen Dienstleistern wie der Bertelsmann-Firma Arvato tätig. Zuckerberg will die Zahl der Prüfer auf 7.500 erhöhen.

Wie traumatisierend die Arbeitsbedingungen des rund 600 Beschäftigte umfassenden Löschteams von Arvato in Berlin sind, haben Ende des vergangenen Jahres Recherchen der Süddeutschen Zeitung gezeigt. Demnach klagen viele über schwere psychische Probleme. Sie fühlen sich angesichts verstörender Inhalte wie Folter, Gewalt an Tieren oder Kindesmissbrauch allein gelassen. Die Mitarbeiter hätten teils nur wenige Sekunden Zeit, um ihre Entscheidung – löschen oder ignorieren – zu treffen. Zudem seien auch die internen Vorgaben des Konzerns nicht immer eindeutig und änderten sich oft. Lediglich zwei Wochen dauert angeblich die Einschulung der für Facebook tätigen Content-Moderatoren.

Facebook-Regeln geleakt

Die britische Zeitung The Guardian hat das Geheimnis der Facebook-Regeln jetzt noch etwas mehr gelüftet. Dem Blatt wurden Dutzende interne Schulungsunterlagen, Tabellen und Diagramme zugespielt, die den Mitarbeitern zeigen sollen, wie sie mit Gewalt, Hass, Terrorismus, Pornografie, Rassismus oder selbstverletzendem Verhalten auf der Plattform umgehen sollen. Eine der Quellen soll gegenüber dem Guardian die Befürchtung geäußert haben, dass Facebook die Kontrolle über die auf der Plattform geteilten Inhalte verloren habe, da das Netzwerk einfach viel zu schnell gewachsen sei.

Die geleakten Unterlagen – insgesamt Tausende einzelne Seiten – zeigen, wie komplex und verwirrend die Facebook-Regeln sind. So werden etwa Postings, die den Tod Donald Trumps fordern, gelöscht. Schließlich genießt der US-Präsident einen besonderen Schutz auf der Plattform. Allerdings können Sätze wie „Fuck off and die“ („Verpiss dich und stirb“) erlaubt sein, da es sich dabei nicht um glaubwürdige Bedrohungen handle.

Noch verwirrender wird es, wenn es um Gewaltvideos geht. So sollen die Mitarbeiter des Löschteams solche Videos nicht in jedem Fall von der Plattform nehmen, da sie die Aufmerksamkeit auf Themen wie psychische Erkrankungen lenken könnten. Lediglich ein Warnhinweis muss hinzugefügt werden. Das hat zur Folge, dass die Videos im Newsfeed der Nutzer nicht mehr automatisch gestartet werden. Jeder Nutzer soll selbst entscheiden, ob er sich ein so gekennzeichnetes Video anschauen will.

Ähnlich verfährt Facebook bei Live-Videos von Selbstmordversuchen. Hier heißt es, die Nutzer würden die Inhalte als eine Art Hilfeschrei posten. Es sei in manchen Fällen überlebenswichtig, dass die Suizidgefährdeten in Kontakt mit ihren Zuschauern blieben. Entsprechende Videos sollen erst dann entfernt werden, wenn die Gefahr gebannt sei oder es keine Möglichkeit mehr gebe, der Person zu helfen.

Entscheidung in Sekunden

Auch bei Selbstverletzungen oder Fällen von Essstörungen, bei denen Nutzer Bilder von ausgehungerten Körpern posten, gilt: nicht in jedem Fall entfernen. Gelöscht wird nur dann kompromisslos, wenn die Inhalte zu selbstzerstörerischem Handeln aufrufen oder eine Anleitung für solches Verhalten bieten. Wie das ein Mitarbeiter in nur wenigen Sekunden entscheiden soll, bleibt das Geheimnis der Facebook-Verantwortlichen. Die Schulungsunterlagen beweisen, dass viele Mitarbeiter verunsichert sind. Im Zweifel sollten entsprechende Fälle mit den Vorgesetzten diskutiert werden, so der Ratschlag.

Mindestens ebenso fragwürdig ist der Umgang des sozialen Netzwerks mit auf der Plattform veröffentlichten Bildern von Kindern, die geschlagen oder gequält werden. Auch diese Inhalte müssten nicht unbedingt gelöscht werden, solange sich dahinter keine sadistischen Absichten oder Gewaltverherrlichung erkennen ließen. Im Gegenteil: Die veröffentlichten Bilder könnten dafür sorgen, dass Kinder gerettet würden. Bei Inhalten, die Gewalt gegen Tiere zeigen, reicht demnach in den meisten Fällen der Hinweis „verstörend“, damit entsprechende Bilder auf der Plattform verbleiben können.

Sätze wie „Ich werde dich töten“ bleiben auf Facebook

Menschen nutzten gewalttätige Sprache, um ihre Frustration auszudrücken, heißt es dazu in den FB-Schulungsunterlagen. Die Plattform, so meinten zumindest die Nutzer, biete ihnen die Möglichkeit, dies auch tun zu dürfen, ohne Konsequenzen fürchten zu müssen. Gewaltverherrlichung sei in den meisten Fällen nicht glaubwürdig, schreiben die Facebook-Trainer, es sei denn, es handle sich zum Beispiel um einen ausgestalteten Plan, nach dem eine Gewalttat ausgeführt werden solle. Ein Satz wie „I’m going to kill you“ („Ich werde dich töten“) sei demnach keine glaubwürdige Morddrohung und würde nicht gelöscht oder sanktioniert werden.

Egal, wie man die von Facebook selbst erstellten Regeln beurteilt, die schiere Größe und die globale Verbreitung der Plattform müssen dabei mitbeachtet werden. „Wir haben eine sehr vielfältige globale Community, und die Menschen haben sehr unterschiedliche Vorstellungen davon, was geteilt werden darf und was nicht“, erklärt Monika Bickert, die bei Facebook die Richtlinien verwaltet. Bickert und ihre Mitarbeiter haben die vom Guardian veröffentlichten Schulungsunterlagen erstellt.

Wo auch immer die Grenzen gezogen würden, es werde immer einige Graubereiche geben, erklärt Bickert gegenüber der britischen Zeitung das Dilemma. So würde etwa in einigen Ländern ein Thema als Humor oder Satire verstanden, das in anderen als unanständig gelte. Erinnert sei dabei an die teils blutigen Auseinandersetzungen um die Mohammed-Karikaturen. Ein weiteres drastisches Beispiel ist die Leugnung des Holocausts. Postings mit solchen Inhalten werden derzeit nur in acht Ländern von Facebook geblockt, darunter in Österreich und Deutschland. Laut Medienberichten würden entsprechende Äußerungen aber nicht in allen Ländern konsequent gelöscht, in denen sie strafbar sind.

In den Schulungsunterlagen heißt es dazu, dass Facebook lokale Gesetze respektiere, diese aber nicht gutheiße, wenn sie ein „Hemmnis für eine offene und vernetzte Welt“ darstellen. Facebook werde politisch heikle Inhalte so lange nicht entfernen, „bis ein Land den politischen Willen nachgewiesen hat, nationale Zensurgesetze durchzusetzen“, steht in den internen Dokumenten. Um nicht als Zensurbehörde dazustehen, wolle das Netzwerk so viel freie Rede wie möglich erlauben. Verboten sei hingegen alles, was zu Leid oder Schaden in der realen Welt führe.