Bei Facebook müssen sich 4.500 sogenannte Content-Moderatoren für etwas mehr als den Mindestlohn durch den Müll wühlen, der dort zwischen Urlaubsfotos, News und Wohnungsangeboten herumliegt: Kinderpornografie, Missbrauch, Hass, Gewalt. Bald sollen noch 3.000 weitere Stellen dazu kommen.Doch was nach welchen Kriterien gelöscht wird, darüber rätselten die zwei Milliarden Nutzer der Plattform bislang – vor allem, wenn sie selbst etwas melden, das trotz Facebooks Ziel einer "sicheren und einladenden Umgebung für alle" nach einer freundlichen Abfuhr-Nachricht einfach online bleibt. Die britische Zeitung The Guardian bringt nun mehr Transparenz in das Netzwerk. Sie hat gestern Abend Hunderte von internen Dokumenten veröffentlicht, die die Löschregeln bei Facebook genauer beschreiben. Zwischen den vielen, teils missverständlichen Guidelines zum Umgang mit Drohungen oder gewaltverherrlichenden Inhalten, gibt es eine Anweisung, die zunächst sehr falsch klingt: Videos, in denen sich Personen selbst verletzen oder sich sogar versuchen umzubringen, sollen nicht automatisch gelöscht werden.
Anzeige
Folgt Motherboard auf Facebook, Instagram, Snapchat und TwitterDabei werden gerade solche Videos zunehmend zum Problem auf Facebook oder werden zumindest als solches erkannt, das zeigt eine Facebook-interne Untersuchung: In einem zweiwöchigen Testzeitraum meldeten Löschteams im vergangenen Jahr 4.531 solcher Vorfälle an ihre Chefs, schreibt der Guardian. In diesem Jahr waren es schon 5.016 oder sogar 5.431 Fälle in jeweils zwei untersuchten Wochen. Dass die Mitarbeiter nach diversen Skandalen zu Beginn des Jahres ganz besonders für solche Fälle sensibilisiert wurden, liegt nahe – Zuckerberg hatte es in einem offenen Brief angekündigt.Das Ergebnis: Moderatoren werden angehalten, Fälle von livegestreamter Selbstverletzung an ihren Vorgesetzten zu melden statt sie sofort zu löschen. "Es gibt immer mehr Videos auf Facebook, darunter sind auch Suizide. Wir möchten hilfsbedürftige Menschen, die versuchen, sich das Leben zu nehmen, nicht zensieren oder bestrafen", heißt es in einer Regeländerung für Moderatoren. Solange Menschen mit dem Video-Urheber interagieren können, solle das Video online bleiben. Facebook bezieht sich dabei auf den Rat von "Experten", die zu diesem Vorgehen geraten hätten. Das Unternehmen versuche in besonders akuten Fällen, Kontakt zu Behörden aufzunehmen, die dann überprüfen sollen, ob es den Nutzern gut geht. Facebooks wichtigster Strategiewechsel ist also ein Übergriff in die analoge Welt.
Anzeige
Die genauen Regeln, die Facebook aufgestellt hat, wirken also erstmal absurd und willkürlich – doch sie sind wohl die beste Lösung, die sich ein Unternehmen mit zwei Milliarden Nutzern als Rote Linie bisher überlegen konnte:
- Ankündigungen, sich in fünf Tagen oder weiter in der Zukunft das Leben zu nehmen, sollen ignoriert werden
- Suizidabsichten in Hashtags oder Emoticons sollen ignoriert werden
- Angekündigte Methoden, die vermutlich nicht zum Suizid führen, sollen ebenfalls ignoriert werden
- Versucht jemand, sich in einem Livestream das Leben zu nehmen, versuche Facebook, Kontakt zu Behörden aufzunehmen, die nach dem Rechten sehen sollen
- Haben die Videos einen Nachrichtenwert oder sind Teil einer breiteren öffentlichen Debatte, können sie unter Umständen online bleiben
- Zeigen Videos tatsächlich einen Suizid, sollen sie auch dann gelöscht werden, wenn sie zuvor von Nutzern geteilt wurden, um auf einen Notfall aufmerksam zu machen