27.05.2020 Statistiken / Insights

Facebook: Neuster Transparency Report ist da

Mit den Facebook Transparency Reports gibt Facebook Auskunft darüber, wie die Gemeinschaftsrichtlinien durchgesetzt, auf Datenanfragen reagiert und geistiges Eigentum geschützt wird. Der neuste Bericht im Bereich der Gemeinschaftsrichtlinien wurde um neue Kategorien ergänzt und bietet so noch mehr Einblicke.

Livia Mosberger
3 Min. Lesezeit
Keine Kommentare

Der aktuelle Community Standards Enforcement Report vom Mai 2020 umfasst die Zeitspanne Oktober 2019 bis März 2020. Er ist einer von insgesamt fünf Transparenz-Berichten, die in die drei Kategorien Durchsetzung der Richtlinien, rechtliche Anfragen und Internet-Ökosystem gegliedert sind. Die restlichen vier Berichte werden ebenfalls halbjährlich herausgegeben, jedoch ist die Zeitspanne jeweils von Januar bis Juni und Juli bis Dezember, weshalb diese Berichte erst im Sommer ein Update erhalten werden.

Neuerungen im Community Standards Enforcement Report

Im Community Standards Enforcement Report dreht sich alles um die Gemeinschaftsstandards und um Verstösse gegen diese. Ausserdem wird aufgezeigt, was Facebook unternimmt, um Inhalte, die gegen die Gemeinschaftsstandards verstossen, möglichst früh zu erkennen. Der neuste Bericht wurde um neue Kategorien ergänzt und bildet nun Metriken zu 12 Facebook-Richtlinien und zu 10 Instagram-Richtlinien ab. Beispiele sind Metriken zu Mobbing und Belästigung, selbstverletzendem Verhalten oder gewalttätige Inhalte. Neu ist im Bericht auch ersichtlich, wie viele Einsprachen Personen gegen Inhalte, gegen die Instagram vorgegangen ist, einlegen, und zu welchen Resultaten diese führten.

Verbesserungen beim Auffinden und Entfernen von (selbst)verletzenden Inhalten

Facebook ist ständig daran, die Technologie zu verbessern, die verletzende Inhalte frühzeitig erkennt. Ziel ist, dass solche Inhalte von möglichst wenigen Personen gesehen werden. Wie die Artificial Intelligence von Facebook zur Erkennung von Hate Speech funktioniert, wird übrigens hier beschrieben. Die AI kann nun Hate Speech in mehr Sprachen erkennen und erkennt insgesamt nun knapp 90 Prozent der Hate Speech-Inhalte, bevor diese von Personen manuell gemeldet werden. Auf Instagram wurde die Software so überarbeitet, dass nun noch mehr Inhalte, die selbstverletzendes Verhalten zeigen, erkannt werden. Im letzten Halbjahr konnten so 40 Prozent mehr Inhalte mit selbstverletzendem Verhalten erkannt werden.

Quelle: Facebook

Quelle: Facebook

Fokus auf Erkennung von Mobbing und Belästigung

Die sogenannte Proaktive Rate ist eine Metrik, die aufzeigt, wie viele regelverstossende Inhalte von Facebook und Instagram aufgespürt werden, bevor diese von Personen gemeldet werden. Diese Rate liegt bei Facebook schon seit dem letzten Report bei 99%, bei Instagram konnte ein Anstieg auf 97% realisiert werden. In konkreten Zahlen ausgedrückt heisst das, dass Facebook beispielsweise im Bereich Hate Speech von Oktober bis Dezember 2019 gegen 5.7 Millionen Inhalte vorgegangen ist. Von Januar bis März 2020 war ein massiver Anstieg festzustellen, da 9.6 Millionen Hate Speech-Inhalte aufgespürt wurden. Interessant ist auch zu sehen, in welchen Bereichen die automatische Erkennung von regelwidrigen Inhalten schon gut ist und wo noch Schwierigkeiten herrschen. So werden auf Facebook rund 99% der Inhalte erkannt, die Nacktheit oder sexuelle Aktivitäten zeigen, jedoch werden erst 15.6% von Mobbing und belästigenden Inhalten automatisch erkannt, bevor diese von Personen gemeldet werden. Facebook hat sich aber bereits auf die Fahne geschrieben, gerade in diesem Bereich noch besser werden zu wollen. Ob dieses Ziel realisiert werden konnte, wird sich im nächsten Report in einem halben Jahr zeigen.

Metriken zu fälschlicherweise geflaggten Inhalten

Facebook ist bemüht, möglichst viele Inhalte herauszufiltern, die gegen die Gemeinschaftsstandards verstossen. Da die AI noch längst nicht perfekt ist, werden Inhalte fälschlicherweise entfernt, obwohl sie gar nicht gegen die Regeln verstossen. Doch auch hier ist Facebook transparent und weist aus, gegen wie viele Inhalte fälschlicherweise vorgegangen wurde. So kann wiederum für jede Kategorie ausgelesen werden, wie viele Einsprachen eingelegt wurden, und wie viele Inhalte wiederhergestellt wurden. Beispielsweise ist Instagram zwischen Januar und März 2020 gegen 1.3 Millionen Inhalte vorgegangen, die selbstverletzendes Verhalten enthielten. Gegen rund 67’200 Inhalte wurde Einsprache eingelegt. Davon wurde rund 4500 Inhalte wiederhergestellt, zusätzlich wurden 1300 Inhalte wiederhergestellt, ohne dass Einsprache eingelegt wurde.

Transparenz geht noch weiter

Auf Facebook Transparency sind alle Transparenzberichte von Facebook zu finden. So werden auch die Verstösse gegen geistiges Eigentum ausgewiesen und es wird aufgezeigt, welche Staaten wie viele Anfragen an Facebook gestellt haben, um Daten zu erhalten. So stellte die Schweiz 189 Anfragen, Österreich 108 und Deutschland 8013 im Zeitraum Juli bis Dezember 2019.

Die Berichte in allen Kategorien sind interaktiv und können nach den gewünschten Parametern selektiert werden. Der neue, aktualisierte Community Standards Enforcement Report kann hier vollständig angesehen werden.

Fazit

Facebook nimmt die Rufe nach mehr Transparenz ernst und macht mit diesen öffentlich zugänglichen Berichten, die auch einfach zu interpretieren sind, vieles richtig. Facebook gibt auch offen zu, in welchen Bereichen noch Nachhol- und Verbesserungsbedarf besteht, um die Community Standards durchzusetzen. Vor allem der nächste Report wird sicher auch interessante Erkenntnisse liefern, da dieser die Corona-Krise und dadurch entstandene Verstösse gegen die Gemeinschaftsstandards (Hate Speech, Spam etc.) dokumentiert.

Facebook Instagram Twitter LinkedIn Xing TikTok

Kommentar via Facebook

Bitte akzeptieren Sie die Cookies um die Facebook Kommentare zu nutzen.

Schreib uns einen Kommentar

Möchtest Du immer auf dem neusten Stand mit unseren Newsletter sein?

Melde Dich jetzt an