12.03.2021 News Feed

Facebook: Welttag gegen Zensur im Internet – wie sieht es bei Facebook aus?

Passend zum Welttag gegen Zensur im Internet haben wir Facebook unter die Lupe genommen. Wo gelten Community Standards, wo hört freie Meinungsäusserung auf und wo beginnt Zensur und wie unterscheidet Facebook die Unterschiede bei den Inhalten?

Thomas Hutter
4 Min. Lesezeit
2 Kommentare

Der 12. März 2021 ist der Welttag gegen Zensur im Internet. Als Zensur wird der Versuch der Kontrolle des geschriebenen Wortes bezeichnet. Von Zensur spricht man in der Regel durch restriktive Verfahren durch staatliche Stellen, mit denen Massenmedien und/oder der persönliche Informationsverkehr kontrolliert werden soll, damit die Verbreitung unerwünschter oder ungesetzlicher Inhalte unterdrückt oder verhindert werden kann. Häufig wenden totalitäre Staaten die Zensur verschärft an.

Zensur von Meinungsäusserung und Nachrichten

Als Zensur im Internet werden verschiedene Verfahren von Staaten oder nicht staatlichen Gruppen bezeichnet, deren primäres Ziel es ist, die Publikation von Inhalten über das Internet zu kontrollieren, zu unterdrücken oder im eigenen Sinn zu steuern. Davon betroffen sind meistens Nachrichten und Meinungsäusserungen. Facebook wendet mit den Community-Standards strikte Regeln zum Schutz der Meinungsfreiheit an. Diese Regeln werden allerdings häufig kritisiert und eine Unterscheidung von “guten” und “bösen” Inhalten ist schwierig. Wo beginnt Hassrede und wo hört Meinungsfreiheit auf? Was ist erlaubt? Wie sind die rechtlichen Regeln in unterschiedlichen Ländern? Was ist Missinformation und was sind Falschmeldungen? Welche dieser Meldungen verfolgen eine böse Absicht?

Welche Inhalte werden auf Facebook entfernt?

Facebook hat mit den Community-Standards sehr weitreichende Richtlinien über nicht erlaubte Inhalte erarbeitet, die von der Plattform nach Möglichkeit entfernt werden.

Zu den Inhalten, die entfernt werden, gehören:

  • Gewalt und kriminelles Verhalten (z.B. Gewalt und Anstiftung, gefährliche Personen und Organisationen, Propagieren und Organisieren von Schaden und Verbrechen, reglementierte Güter, Betrug und Täuschung)
  • Sicherheit von Menschen (z.B. Suizid und Selbstverletzung, sexuelle Ausbeutung und Missbrauch und Nacktdarstellung von Kindern, sexuelle Ausbeutung und Missbrauch von Erwachsenen, Mobbing und Belästigung,  Ausbeutung und missbrauch von Menschen, Verletzung der Privatsphäre und Persönlichkeitsrechte in Bezug auf Bilder)
  • Anstössige Inhalte (z.B. Hassrede, Gewaltdarstellung, Nacktheit und sexuelle Handlungen von Erwachsenen, grausame und taktlose Inhalte)
  • Integrität und Authentizität (z.B. Kontointegrität und authentische Identität, Spam, Cybersicherheit, nicht-authentisches Verhalten, Falschmeldungen, manipulierte Medien)
  • Wahrung des geistigen Eigentums

Damit auch in diesen Themenbereichen nicht “willkürliche Zensur” durch Facebook entsteht, gibt es einerseits Einsprachemöglichkeiten sowie das Oversight Board mit externen Spezialisten.

Facebooks Kampf gegen Missinformationen

Im nachfolgenden Video gibt Facebook eine sehr interessante Übersicht über den Kampf gegen Missinformation auf Facebook, wie mit welcher Art von Inhalten umgegangen wird und das nicht primär gelöscht, sondern auch sehr viel Aufklärung betrieben wird.

Hier fehlt ein Video...

Hier würde eigentlich ein Video sein. Leider kann es aufgrund Deiner Cookie-Einstellungen nicht angezeigt werden. Wenn Du es aktivieren möchtest, bestätige bitte die Option "Marketing & Social Media" in den Cookie-Einstellungen.

Cookie-Einstellungen

 

Einsatz von Faktencheckern

Facebook engagiert sich gegen die Verbreitung von Fehlinformationen. Aus diesem Grund arbeitet Facebook in vielen Ländern mit unabhängigen Faktenprüfern zusammen, die vom unparteiischen International Fact-Check-in Network (IFCN) zertifiziert wurden, um Fehlinformationen zu identifizieren, zu überprüfen und entsprechende Massnahmen zu ergreifen. Die Bewertungsoptionen für Faktenprüfer, wie auch die Programmrichtlinien und die Massnahmen von Facebook nach der Bewertung durch Faktenprüfer können eingesehen werden.

Der Schwerpunkt dieses Faktenprüfungsprogramms ist die Identifizierung und Bekämpfung von viralen Fehlinformationen, insbesondere von eindeutigen Hoaxes ohne sachliche Grundlage. Unabhängige Faktenprüfer priorisieren nachweislich falsche Behauptungen und dabei speziell solche, die aktuelle Themen und das Tagesgeschehen betreffen und für die meisten Personen wichtig sind. Die Faktenprüfer priorisieren keine unbedeutenden Behauptungen oder solche, die aus kleineren Ungenauigkeiten bestehen. Darüber hinaus ist das Programm nicht dazu gedacht, individuelle Äusserungen, Meinungen und Diskussionen, offensichtlich satirische bzw. humorvolle Inhalte oder Unternehmensstreitigkeiten einzuschränken.

So funktioniert das Programm

Das Programm von Facebook umfasst mehrere wichtige Schritte:

Identifizierung von Falschmeldungen

Facebook identifiziert potenzielle Fehlinformationen anhand von Signalen, wie z.B. dem Feedback von Personen auf Facebook, und übermittelt den Inhalt an Faktenprüfer. Darüber hinaus identifizieren die Faktenprüfer selbstständig problematische Inhalte, die sie dann überprüfen.

Überprüfung von Inhalten

Faktenprüfer untersuchen Inhalte, werten die Informationen aus und bewerten deren Richtigkeit. Dieser Schritt wird unabhängig von Facebook durchgeführt. Es kann vorkommen, dass in diesem Schritt Quellen kontaktiert oder öffentliche Daten herangezogen werden, Videos und Bilder auf Authentizität geprüft und weitere Massnahmen ergriffen werden.

Klare Kennzeichnung von Fehlinformationen und entsprechende Information an die Nutzer

Facebook kennzeichnet von den Faktenprüfern bewertete Inhalte, damit sich Personen weiter über das Thema informieren können. Zudem benachrichtigt Facebook Personen, die diese Inhalte teilen möchten oder sie in der Vergangenheit schon geteilt haben.

Verhindern der Verbreitung von Fehlinformationen

Sobald ein Faktenprüfer Content als „Falsch“, „Bearbeitet“ oder „Teilweise falsch“ bewertet hat, wird er im News Feed weiter unten und auf Instagram unter „Entdecken“ nicht mehr angezeigt. Ausserdem wird er im Feed und in Stories unauffälliger platziert. Das schränkt die Reichweite dieser Inhalte deutlich ein. Facebook lehnt auch Werbeanzeigen mit Inhalten ab, die von Faktenprüfern bewertet wurden.

Massnahmen gegen wiederholte Verstösse

Seiten und Websites, die wiederholt als falsch oder bearbeitet eingestufte Fehlinformationen verbreiten, müssen mit Einschränkungen rechnen. Unter anderem wird die Verbreitung ihres Contents reduziert. Möglicherweise wird ihnen auch die Monetarisierungs- und Werbegenehmigung entzogen, und sie können sich für einen bestimmten Zeitraum nicht mehr als Nachrichtenseite registrieren.

Fazit

Die Fragestellung, wo Zensur beginnt, ist nur schwierig zu beantworten. Auf einer Plattform wie Facebook, mit Millionen von Inhalten täglich, dürfte der Kampf auch mit Hilfe von Algorithmen und künstlicher Intelligenz ein Kampf gegen Windmühlen darstellen und Falschentscheidungen leider zur Tagesordnung.

 

Abonniere jetzt den Digital Marketing Upgrade Podcast auf Spotify, Deezer, Apple Podcast oder Google Podcast

Spotify   Deezer   Apple Podcast   Google Podcast

Facebook Instagram Twitter LinkedIn Xing TikTok

Kommentar via Facebook

Bitte akzeptieren Sie die Cookies um die Facebook Kommentare zu nutzen.

Schreib uns einen Kommentar

  1. basra@gmx-topmail.de' Basil Raschle sagt:

    Wieviel zahlt Facebook dem “Facebook Guru” oder “Facebook Papst” ? So fühlt man Absicht, und man ist verstimmt.

    1. Bis jetzt waren es mehrere Millionen…
      Spass beiseite, was passt Dir am Beitrag nicht?Was ist negativ, wenn ich positiv die höchst komplexen Fragestellungen beleuchte?
      Hast Du Dir das Video auch angeschaut?

Schreibe einen Kommentar zu Basil Raschle Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Kennst Du schon unsere wöchentlichen Newsletter?

Facebook & Instagram   LinkedIn