Die Debatte über erlaubte und nicht erlaubte Beiträge innerhalb von Facebook ist allgegenwärtig. Ausländerfeindliche oder antisemitische Kommentare die trotz Meldung nicht verschwinden, Darstellung von Geschlechtsorgangen die schnell gelöscht werden, Gewaltszenen die viele Menschen schockieren, das Live-Video eines Mordes, das nicht gelöscht wird, etc. etc. Es gibt viele Inhalte auf Facebook und entsprechend viele Dinge, die […]
Die Debatte über erlaubte und nicht erlaubte Beiträge innerhalb von Facebook ist allgegenwärtig. Ausländerfeindliche oder antisemitische Kommentare die trotz Meldung nicht verschwinden, Darstellung von Geschlechtsorgangen die schnell gelöscht werden, Gewaltszenen die viele Menschen schockieren, das Live-Video eines Mordes, das nicht gelöscht wird, etc. etc. Es gibt viele Inhalte auf Facebook und entsprechend viele Dinge, die nicht in eine “heile Welt” gehören. Schnell wird der Ruf nach “Löschung” laut, wenn Inhalte gegen unsere Moralvorstellungen und ethische Grundsätze verstösst, gleichzeitig wird schnell nach “Zensur” geschrien, wenn aus unserer Sicht “saubere”Inhalte gelöscht werden. In einem News Beitrag im Newsroom von Facebook nicht Monika Bickert, Head of Global Policy Management bei Facebook, Stellung zu den Community Standards, bzw. den Gemeinschaftsstandards von Facebook.
Monika Bickert schreibt dazu:
Im letzten Monat haben Menschen viele schreckliche Videos von in Folge eines Angriffs mit chemischen Waffen sterbenden syrischen Kindern in auf Facebook geteilt. Die Videos, welche auch anderswo im Internet erschienen sind, zeigten zitternde Kinder, die um Luft rangen und schliesslich starben. Diese Bilder waren tief schockierend, so sehr, dass FAcebook eine Warnung vor den Bildern platzierten. Aber die Bilder lösten auch internationale Aufregung und rückten die Not der syrischen Bevölkerung in den Fokus der Öffentlichkeit.
Die Überprüfung von Online-Inhalten auf einer globalen Ebene ist herausfordern und notwendig. Als die Person bei Facebook, die für diese Arbeit verantwortlich ist, möchte ich erklären wie und wo wir die Grenzen ziehen.
An einem durchschnittlichen Tag nutzen mehr als eine Milliarde Menschen Facebook. Diese Menschen teilen Beiträge in duzenden von Sprachen: alles von Photos über Live Videos. Ein sehr kleiner Prozentsatz davon wird an Facebook zur Überprüfung gemeldet – von Mobbing über Hassrede bis zum Terrorismus – komplex. Richtlinien zu entwerfen, die einerseits Menschen beschützen und gleichzeitig erlauben, sich frei zu äussern, bedeutet, dass sie sich auftauchenden sozialen Fragen und die Art und Weise, wie sie sich manifestieren, schnell auf Millionen von Berichten pro Woche, von Menschen aus der ganzen Welt, zu reagieren.
Für die Rezensenten von Facebook gibt es noch eine Hürde: das Verständnis des Kontextes. Es ist schwer die Absicht hinter einem Beitrag oder das Risiko das darin enthalten ist, zu beurteilen. Jemand publiziert ein Video eines Terroranschlags. Wird dieses Video Menschen dazu inspirieren, die Gewalt zu emulieren oder sich dagegen auszudrücken? Jemand scherzt über Selbstmord. Ist ein Spass oder ein Hilfeschrei?
In England ist die Kritik gegen die Monarchie akzeptabel. In einigen anderen Teilen der Welt kann die gleiche Kritik in einer Gefängnisstrafe enden. Gesetzte können Orientierungen geben, aber häufig ist das was akzeptabel ist, mehr als nur Normen und Erwartungen. Neue Wege, wie Geschichten erzählt werden oder Bilder geteilt werden, können diese Spannungen schneller an die Oberfläche bringen.
Wir wollen unsere Seite sicher halten. Wir teilen dazu nicht immer die Details unserer Richtlinien, damit Menschen nicht dazu ermutigt werden, Workarounds zu finden – aber wir veröffentlichen unsere Gemeinschaftsstandards, die festhalten was auf Facebook erlaubt und nicht erlaubt ist und veröffentlichen dazu auch, warum das so ist.
Unsere Gemeinschaftsstandards ändern sich im Laufe der Zeit. Wir stehen im ständigen Dialog mit Fachleuten und lokalen Organisationen, von der Kindersicherheit bis zum Terrorismus bin hin zu den Menschenrechten. Manchmal bedeutet dies, dass unsere Politik kontraintuitiv wirken kann. Wie beispielsweise “the Guardian” berichtete, beraten uns Experten zum Thema Selbstverletzung, dass es besser sein kann, wenn Live-Videos von Selbstverletzungen online bleiben, damit Menschen darauf aufmerksam werden und helfen können, danach aber offline geschaltet werden, um mögliche Nachahmer zu verhindern. Als Beispielsweise ein Mädchen in Georgia USA via Facebook Live vor zwei Wochen ihren Selbstmord ankündigte, waren Freunde in der Lage die Polizei zu verständigen und sie rechtzeitig zu retten.
Wir versuchen objektiv zu bleiben. Die Fälle, die wir überprüfen sind nicht die einfachen, öfters sind Beiträge im grauen Bereich und Menschen stimmen unserer Entscheidung nicht zu. Kunst und Pornografie sind nicht immer leicht zu unterscheiden, aber wir haben festgestellt, dass digital erzeugte Bilder der Nacktheit eher pornografisch sind als selbstgemachte Bilder, was unsere Policy entsprechend wiederspiegelt.
Es gibt einen grossen Unterschied zwischen allgemeinen Ausdrücken der Wut und spezifischen Aufrufen eine benannte Person zu schädigen, so dass das erste erlaubt, das zweite aber nicht erlaubt ist.
Diese Spannungen – zwischen der Sensibilisierung für Gewalt und deren Förderung, zwischen freien Meinungsäusserung und der Freiheit der Angst, zwischen dem Zeugen von etwas zu sein und zu gaffen – sind sehr kompliziert. Dabei so objektiv wie möglich zu sein, ist die einzige Möglichkeit über die ganze Welt konsistent zu sein. Und manchmal machen wir dabei Fehler.
Die hypothetischen Situationen, die wir verwenden um Rezensenten zu trainieren, sind absichtlich extrem. Sie sind so entworfen worden, damit sie den Menschen helfen, die sich bei ihrer Arbeit mit den schwierigsten Fällen beschäftigen. Als wir unsere Gemeinschaftsstandards vor mehr als einem Jahrzehnt ins Leben gerufen haben, wurden viele Entscheidungen einzelnen Mitarbeitern überlassen. Da aber keine zwei Personen identische Ansichten haben, was Hassrede oder Mobbing – oder andere Themen – definiert, haben wir nun klare Definitionen.
Wir stehen in der Kritik von Menschen, die mehr Zensur wollen und Menschen, die weniger Zensur wollen. Wir sehen dies als ein nützliches Zeichen, dass wir uns nicht zu weit in eine Richtung lehnen. Ich hoffe, dass die Leser verstehen, dass wir unsere Rolle sehr ernst nehmen. Für viele von uns im Team ist Sicherheit in Facebook eine Leidenschaft, die unsere Arbeit im Unternehmen vorgibt. Ich verbrachte mehr als ein Jahrzehnt als Strafverfolgerin und untersuchte alles von der sexuellen Ausbeutung von Kindern bis hin zu Terrorismus. Unser Team beinhaltet auch einen Anti-Extremismus-Experten aus England, den ehemaligen Forschungsdirektor von West Point’s Anti-Terrorismus Center, einem Krisen-Center-Mitarbeiter für Vergewaltigungen und einem Lehrer.
Wir alle wissen, dass wir noch viel mehr tun können. Im Vergangenen Monat haben wir angekündigt, dass wir zusätzliche 3’000 Rezensenten einstellen. Das ist eine anspruchsvolle Arbeit und wir werden auch weiterhin alles tun, um sicherzustellen, dass wir diesen Mitarbeitern die richtige Unterstützung geben, indem wir es einfacher machen, harte Entscheidungen schnell zu treffen und die psychologische Unterstützung bieten, die sie benötigen.
Die Technologie ermöglicht es mehr Menschen einfacher mehr zu kommunizieren, als je zuvor. Wir glauben fest daran, dass die Vorteile, die dieses Teilen mit sich bringen die Risiken überwiegen. Aber wir erkennen dabei auch, dass die Gesellschaft immer noch am herausfinden ist, was akzeptabel ist und was schädlich, und wir bei Facebook einen wichtigen Teil in dieser Konversation spielen.
Der Text ist sinngemäss aus dem Englischen übersetzt, den englischen Originaltext gib es hier.