Großer Druck auf Moderatorinnen
Facebook hat nach der harschen Kritik, die das Soziale Netzwerk aufgrund der Flut an „Fake News“ während des US-Wahlkampfs einstecken musste, Besserung versprochen. Tatsächlich beschäftigt das Unternehmen weltweit Tausende Mitarbeiterinnen und Mitarbeiter, um problematische Posts aufzufinden und zu löschen. Nun wurden erstmals Details bekannt, nach welchen Regeln Facebook dabei vorgeht.
Dieser Artikel ist älter als ein Jahr.
Neben falschen oder verfälschten politischen Nachrichten steht Facebook auch wegen anderer Posts, die verhetzend oder sonstwie illegal sind, in der Kritik. Dazu kommen Posts von Missbrauch, „Revenge Porn“ und Ankündigungen von Suizid.
Tausende Seiten
Die „Süddeutsche Zeitung“ („SZ“) und der „Guardian“ hatten im Frühjahr als erste Medien Einblick in die Unterlagen, aufgrund derer die Moderatorinnen und Moderatoren über das Löschen von Posts entscheiden. Es handelt sich um 48 Dokumente von Schulungsunterlagen und konkreten Handlungsanweisungen. Auf Tausenden Seiten wird erklärt, wann Posts ignoriert, gesperrt oder an die Behörden weitergeleitet werden müssen. Die betroffenen Bereiche sind laut „SZ“ Kindesmissbrauch, Erpressung, Mobbing, Gewaltdarstellungen und Tierquälerei.
Vor allem in Deutschland steht Facebook unter Druck. Dort will Justizminister Heiko Maas (SPD) noch vor der Bundestagswahl im Herbst ein Gesetz verabschieden, wonach Sozialen Netzwerken im Falle von Nachlässigkeit beim Löschen illegaler Inhalte Geldstrafen drohen.
Inhaltliches Dilemma
Die Regeln sind, darin sind sich „Guardian“ und „SZ“ einig, detailliert und bemüht sowie gut nachvollziehbar. Doch Facebook gerate hier auch inhaltlich immer wieder in ein Dilemma. Als Beispiel nennt die „SZ“ etwa das Thema Suizidversuch: Hier möchte es das Soziale Netzwerk Userinnen und Usern auch künftig ermöglichen, diese live zu streamen.
„Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie - diese zu entfernen könnte verhindern, dass sie gehört werden“, zitierte die „SZ“ aus dem internen Facebook-Handbuch. Experten sollen Facebook bei der Zusammenstellung der Regeln geholfen haben. Es sei besser für die Betroffenen, wenn sie live in Kontakt blieben. Die Aufnahmen würden deshalb erst entfernt, wenn es keine Möglichkeiten mehr gebe, der Person zu helfen, berichtete die „SZ“.
Mitarbeiter unter Druck
Das entscheidende Problem sind laut „Guardian“ und „Süddeutsche“ aber die schiere Menge und die Arbeitsbedingungen der Moderatorinnen und Moderatoren. „Facebook kommt nicht nach, den gesamten Inhalt des Netzwerks zu kontrollieren“, zitiert der „Guardian“ eine namentlich nicht genannte Person. „Es ist zu rasch zu groß geworden.“
Die „Süddeutsche“ wiederum betont vor allem, dass die Modertorinnen und Moderatoren unter schwierigsten Bedingungen arbeiten und selbst vom Arbeitsvolumen, dem Zeitdruck und den Inhalten, mit denen sie ständig konfrontiert sind, überwältigt würden. Bilder von selbst zugefügten Wunden und ausgehungerten Körpern dürften etwa nicht automatisch gelöscht werden. Nur wenn solche Bilder mit Aufforderungen oder Anleitungen zu selbstschädigendem Verhalten verbunden seien, dürften sie gelöscht werden. Die Entscheidung müsse oft in Sekundenschnelle getroffen werden - von einer Mitarbeiterin oder einem Mitarbeiter allein. Bei Zweifeln wird in den Unterlagen empfohlen, sich an Vorgesetzte zu wenden.
Dazu kommt, dass das Gros der Arbeit von externen Firmen erledigt wird. Die Frage, wann etwas direkt an Facebook zur Entscheidung weitergeleitet wird, stellt sich laut dem Bericht immer wieder. Gegenüber der „SZ“ betonte Facebook auf Anfrage nur, es nehme die „Sicherheit der Nutzer sehr ernst“.
Facebook: „Wird immer Graubereich geben“
Gegenüber dem „Guardian“ betonte Monika Bickert, Facebooks Verantwortliche für Regeln, angesichts von zwei Milliarden Userinnen und Usern sei es schwierig, einen Konsens zu finden, was erlaubt und was verboten wird.
„Wir haben eine weltweite, sehr unterschiedliche Community, und die Leute werden sehr unterschiedliche Vorstellungen haben, was geteilt werden kann und was nicht. Egal, wo man die Grenze zieht, es wird immer einen Graubereich geben. So ist zum Beispiel ein Unterscheidung zwischen Satire, Humor und unpassendem Inhalt oft nicht eindeutig. Es ist sehr schwierig zu entscheiden, ob etwas auf Facebook gehört oder nicht“, so Bickert.
Links: