Facebook setzt auf mehr Transparenz und publiziert erstmals die internen Richtlinien, welche zur Durchsetzung der Community Standards angewendet werden. Gleichzeitig gibt Facebook bekannt, dass die Durchsetzung des Standards im Ablauf verändert wurde und Nutzer erstmals die Möglichkeit haben, die Entscheidungen über einzelne Stellen anzufechten und so eine zweite Überprüfung und damit verbunden eine Zweitmeinung einholen […]
Facebook setzt auf mehr Transparenz und publiziert erstmals die internen Richtlinien, welche zur Durchsetzung der Community Standards angewendet werden. Gleichzeitig gibt Facebook bekannt, dass die Durchsetzung des Standards im Ablauf verändert wurde und Nutzer erstmals die Möglichkeit haben, die Entscheidungen über einzelne Stellen anzufechten und so eine zweite Überprüfung und damit verbunden eine Zweitmeinung einholen können.
Wie Facebook in der Newsroom Meldung mitteilt, gehört die Frage nach den Entscheidungsgrundlagen für das Entfernen von Inhalten zu den am häufigsten gestellten Fragen. Die Community Standards sind äusserst wichtig und entscheidend dafür, dass Facebook sowohl ein sicherer Ort gilt als auch verschiedene Standpunkte diskutiert werden können. Nun geht Facebook einen Schritt weiter und publiziert erstmals die internen Richtlinien, welche zur Durchsetzung dieser Standards angewendet wird. Für die Veröffentlichung der Richtlinien gibt es zwei Gründe. Erstens werden die Leitlinien den Menschen helfen zu verstehen, wo Facebook die Grenzen zu nuancierten Themen ziehen, zweitens macht es die Bereitstellung dieser Details für alle, auch für Experten aus den verschiedenen Bereichen, einfacher, Facebook Feedback zu geben, damit Leitlinien und die Entscheidungen die getroffen werden, im Laufe der Zeit verbessert werden können.
Die nun veröffentlichten Gemeinschaftsstandards beinhalten 6 Themenschwerpunkte:
Das Content-Policy-Team bei Facebook ist für die Entwicklung der Community-Standards verantwortlich. Facebook beschäft Mitarbeiter in 11 Büros auf der ganzen Welt, darunter Experten zu Themen wie Hassreden, Kindersicherheit und Terrorismus. Viele der beschäftigten Mitarbeiter haben an den Themen Meinungsfreiheit und Sicherheit gearbeitet, lange bevor sie zu Facebook kamen. Beispielsweise hat Monika Bickert, VP of Global Policy Management, während ihrer Zeit als Strafverfolgerin an verschiedenen Themen gearbeitet, von der Kindersicherheit bis zur Terrorismusbekämpfung, andere Teammitglieder sind beispielsweise eine ehemalige Vergewaltigungskrisenberaterin, eine Akademikerin, die ihre Karriere damit verbracht hat, Hassorganisationen zu studieren, eine Menschenrechtsanwältin und eine Lehrerin. Jede Woche sucht das Team Beiträge von Experten und Organisationen ausserhalb von Facebook, damit die verschiedenen Perspektiven der Sicherheit und des Meinungsfreiheit sowie die Auswirkungen der Facebook Richtlinien auf verschiedene Gemeinschaften weltweit besser verstehen können.
Basierend auf diesen Rückmeldungen sowie Veränderungen in den sozialen Normen und der Sprache, entwickeln sich die Facebook Standards im Laufe der Zeit weiter. Was sich nicht geändert hat – und auch nicht ändern wird, sind die Grundprinzipien der Sicherheit, der Meinungsfreiheit und der Gerechtigkeit, auf denen diese Standards basieren. Um Gespräche zu beginnen und Verbindungen herzustellen, müssen Menschen wissen, dass sie sicher sind. Facebook sollte auch ein Ort sein, an dem Menschen ihre Meinung frei äussern können, auch wenn einige Menschen diese Meinung als unangenehm empfinden. Dies kann angesichts des globalen Charakters der Dienstleistung von Facebook eine Herausforderung sein, weshalb Gerechtigkeit ein so wichtiger Grundsatz ist: Facebook will diese Standards konsequent und fair auf alle Gemeinschaften und Kulturen anwenden. Diese Prinzipien werden in der Präambel zu den Standards explizit beschrieben und durch das Teilen der Gründe für jede einzelne Politik zum Leben erweckt.
Die Richtlinien von Facebook sind nur so gut wie die Härte und Genauigkeit der Durchsetzung – und die Durchsetzung von Facebook ist alles andere als perfekt. Eine Herausforderung besteht darin, mögliche Verstösse gegen die Standards zu identifizieren, damit sie überprüft werden können. Hier kann die Technik helfen. Facebook verwenden eine Kombination aus künstlicher Intelligenz und Berichten von Personen, um Beiträge, Bilder oder andere Inhalte zu identifizieren, die wahrscheinlich gegen die Community-Standards verstossen. Diese Berichte werden von dem Community Operations-Team geprüft, das rund um die Uhr in über 40 Sprachen arbeitet. Im Moment sind mehr als 7’500 Content-Reviewer, das sind mehr als 40% mehr Mitarbeiter als zum selben Zeitpunkt im letzten Jahr.
Eine weitere Herausforderung ist die genaue Anwendung der Richtlinien auf die Inhalte, die für Facebook markiert wurden. In einigen Fällen macht Facebook Fehler, weil die Richtlinien für die Inhaltsprüfer nicht klar genug sind; wenn das der Fall ist, arbeiten Facebook daran, diese Lücken zu schliessen. Die meisten Fehler werden jedoch gemacht, weil die Prozesse Menschen einbeziehen und Menschen fehlbar sind.
Facebook weiss, dass mehr getan werden muss. Deshalb wird Facebook im kommenden Jahr die Möglichkeit schaffen, gegen die Entscheidungen Berufung einzulegen. Als ersten Schritt startet Facebook Aufrufe für Beiträge, die wegen Nacktheit / sexueller Aktivität, Hassreden oder grafischer Gewalt entfernt wurden.
So funktionieren Berufungen:
Wenn ein Foto, Video oder Beitrag entfernt wurde, weil Facebook festgestellt hat, dass es gegen Community-Standards verstösst, wird die publizierende Person benachrichtigt und hat die Möglichkeit, eine zusätzliche Überprüfung zu beantragen. Dies führt zu einer Überprüfung durch das Policy-Team (immer durch eine Person), in der Regel innerhalb von 24 Stunden.
Sollte Facebook beim Entscheid ein Fehler gemacht haben, wird die publizierende Person benachrichtigen und der Beitrag, das Foto oder das Video wird wiederhergestellt.
Facebook arbeitet daran, diesen Prozess weiter auszubauen, indem mehr Arten von Verstössen unterstützt werden, den Menschen die Möglichkeit zu geben, mehr Kontext zur Verfügung zu stellen, die Facebook helfen könnten, die richtige Entscheidung zu treffen, und nicht nur für Inhalte, die entfernt wurden, sondern auch für Inhalte, die gemeldet und belassen wurden. Facebook glaubt, dass es ein weiterer wesentlicher Bestandteil des Aufbaus eines fairen Systems ist, den Menschen eine Stimme zu geben.
Die Bemühungen von Facebook zur Verbesserung und Verfeinerung der Community-Standards hängen von der Beteiligung und dem Input von Menschen auf der ganzen Welt ab. Im Mai startet Facebook Foren: Community Standards, eine Reihe von öffentlichen Veranstaltungen in Deutschland, Frankreich, Großbritannien, Indien, Singapur, den USA und anderen Ländern, bei denen Facebook direktes Feedback einholt. Facebook wird mehr Details über diese Initiativen mitteilen, sobald diese abgeschlossen sind.
Wie Facebook CEO Mark Zuckerberg zu Beginn des Jahres sagte: “Wir werden nicht alle Fehler oder Missbrauch verhindern, aber wir machen derzeit zu viele Fehler bei der Durchsetzung unserer Richtlinien und der Verhinderung des Missbrauchs unserer Tools”. Die Veröffentlichung der heutigen internen Durchsetzungsrichtlinien – sowie die Ausweitung des Beschwerdeverfahrens – wird einen klaren Weg zur Verbesserung im Laufe der Zeit eröffnen. Das sind schwierige Themen und Facebook freut sich darauf, es in Zukunft besser zu machen.
Rund um die Publikation der internen Richtlinien zu den Community Standards hat Facebook auch ein Q&A veröffentlicht:
Wurden mit diesem Update eine der Richtlinien geändert?
Was Facebook heute teilt, ist nicht neu; es spiegelt Standards wider, die seit langem gelten. Aber zum ersten Mal veröffentlicht Facebook die internen Umsetzungsrichtlinien, nach denen die Content-Reviewer entscheiden, was auf Facebook erlaubt ist.
Es ist wichtig zu beachten, dass sich diese Standards weiterentwickeln – in einigen Fällen werden Änderungen durch Input von externen Stakeholdern veranlasst; in anderen Fällen nimmt Facebook Änderungen vor, um der Art und Weise, wie die Sprache verwendet wird, Rechnung zu tragen; in wieder anderen Fällen ist eine Änderung aufgrund einer Lücke in der bestehenden Politik erforderlich. Dieser Prozess wird weitergehen – und damit auch zukünftige Aktualisierungen der Standards.
Facebook wird diese Updates öffentlich zugänglich machen und ein durchsuchbares Archiv veröffentlichen, damit die Menschen die Änderungen im Laufe der Zeit verfolgen können.
Sind das die gleichen Richtlinien, die Ihre Gutachter verwenden? Wurde etwas entfernt?
Ja. Seit heute spiegeln die nach aussen gerichteten Community-Standards die internen Richtlinien wider. Vielen Menschen haben Feedback gegeben, dass sie die Richtlinien nicht verstehen; es liegt in der Verantwortung von Facebook, Klarheit zu schaffen. Dies ist ein Versuch zu erklären, wo Facebook die Grenze zeiht, wenn es um Inhalte auf Facebook geht.
Welches sind die Experten mit welchen Facebook zusammenarbeitet?
Facebook arbeitet mit Experten auf der ganzen Welt zusammen, darunter Akademiker, Nichtregierungsorganisationen, Forscher und Juristen. Diese Personen und Organisationen repräsentieren die Vielfalt des Denkens, der Erfahrung und des Hintergrunds. Sie liefern unschätzbaren Input bei der Überarbeitung der Richtlinien und helfen, die Auswirkungen der Richtlinien besser zu verstehen.
Beispielsweise wird mit Timothy Garton Ash, einem Professor an der Universität Oxford, zusammengearbeitet, der die “Free Speech” Debate ins Leben gerufen hat, um diese Themen auf einer interkulturellen Basis zu betrachten. Bei der Entwicklung von der Politik von Facebook zum Schutz der Menschen vor sexueller Ausbeutung hat Facebook mit über 150 Sicherheitsorganisationen und Experten in Ländern auf der ganzen Welt, darunter die Vereinigten Staaten, Kenia, Indien, Irland, Spanien, die Türkei, Schweden und die Niederlande, eingeladen.
Wie wird die Konsistenz der Review-Teams sicher gestellt und wie wird vor vor menschlichen Vorurteilen und Fehlern geschützt?
Die Community-Standards sind global und alle Prüfer verwenden die Richtlinien, die Facebook heute veröffentlicht hat, wenn sie Entscheidungen treffen. Die Mitarbeiter werden im Rahmen des On-Boarding-Prozesses umfassend geschult und danach in regelmässigen Abständen geschult und getestet.
Bei der Entwicklung der Richtlinien ist Facebook präskriptiv und versucht, umsetzbare Richtlinien zu schreiben, die klar zwischen verletzenden und nicht verletzenden Inhalten unterscheiden, damit der Entscheidungsprozess für die Gutachter so objektiv wie möglich zu gestalten. Die Gutachter arbeiten nicht in einem leeren Raum; es gibt Qualitätskontrollmechanismen und ein Management vor Ort, an das sich die Gutachter wenden können. Darüber hinaus prüft Facebook wöchentlich die Richtigkeit von Gutachterentscheidungen. Wo Fehler gemacht werden, werden Fehler mit den Menschen im Team besprochen, um Wiederholungen in der Zukunft zu vermeiden.
Auch bei Qualitätsaudits hat Facebook festgestellt, dass viele Dinge nicht immer richtig gemacht wurden. Deshalb hat Facebook in der Vergangenheit Menschen die Möglichkeit gegeben, gegen unsere Entscheidungen Berufung einzulegen, wenn ihr Profil, ihre Seite oder ihre Gruppe entfernt wurde. Im Laufe des kommenden Jahres wird Facebook die Möglichkeit, gegen die Entscheidungen Berufung einzulegen, weiter ausbauen. Als ersten Schritt startet Facebook Aufrufe für Beiträge, die wegen Nacktheit / sexueller Aktivität, Hassreden oder grafischer Gewalt entfernt wurden, damit die Menschen Facebook Feedback geben können, wenn sie denken, dass beim Überprüfungsprozess Fehler gemacht wurden.
Was ist mit Facebook-Foren: Community-Standards? Wurde so etwas schon einmal gemacht?
Facebook versucht das Beste, um externen Input auf verschiedene Weise zu erhalten. Facebook Foren: Community Standards ist ein Format, das vorher noch nie ausprobiert wurde. Facebook freut sich darauf, von der Community zu hören und zu lernen. Die Veranstaltungsstruktur hängt von der Stadt ab, wo das Forum stattfindet.
Der Originalbeitrag wurde im Newsroom von Facebook publiziert.