Meta stellt mit Community Notes ein nutzerbasiertes Moderationssystem vor, das die externe Faktenprüefung über Drittanbieter ersetzt. Hilfreiche Notizen bieten zwar fehlenden Kontext – das Risiko von Manipulation und Polarisierung bleibt jedoch.
Meta hat ein neues System zur Moderation von Inhalten eingeführt: Community Notes. Damit ersetzt das Unternehmen sein bisheriges Drittanbieter-Faktenprüfungsprogramm und setzt stattdessen auf ein nutzerbasiertes Modell zur Kontextualisierung potenziell irreführenden Inhalts. Das Konzept basiert auf der bereits bekannten Funktion von X (ehemals Twitter), bei der die Community selbst bestimmen kann, welche Informationen eine Einordnung oder einen Faktencheck benötigen.
Community Notes sind kurze, maximal 500 Zeichen lange Erklärungen, die einem Post hinzugefügt werden, um fehlenden Kontext zu liefern. Sie müssen einen Link zu einer Quelle enthalten und werden erst veröffentlicht, wenn ein breites Spektrum an Nutzer*innen sie als hilfreich bewertet.
Das Prinzip der Community Notes ist einfach: Nutzer*innen, die als Beitragsverfasser*innen zugelassen sind, können Posts auf Facebook, Instagram und Threads mit einer Notiz versehen, wenn sie der Meinung sind, dass diese irreführend oder unvollständig sind. Die entscheidenden Mechanismen dabei:
Meta betont, dass das Ziel darin besteht, Transparenz zu schaffen und eine Vielzahl von Perspektiven in die Bewertungen einzubeziehen, um Verzerrungen zu vermeiden.
Die Entscheidung, von einer professionellen Faktenprüfung durch externe Organisationen zu einem Community-gestützten System zu wechseln, wurde kontrovers diskutiert. Laut Meta haben traditionelle Faktenchecks zu Misstrauen gegenüber der Plattform geführt, da sie oft als politisch voreingenommen wahrgenommen wurden. Mark Zuckerberg selbst begründete die Entscheidung damit, dass Faktenchecker mehr Vertrauen zerstört als aufgebaut hätten.
Allerdings stellt sich die Frage, ob Community Notes tatsächlich eine effektivere Alternative sind oder ob sie den gleichen Schwächen wie das System von X unterliegen.
Auch wenn das Prinzip vielversprechend klingt, gibt es einige kritische Aspekte, die bereits von Experten und Analysten hervorgehoben wurden:
Auf X zeigt sich, dass 73 % aller Community Notes zu politischen Themen nie veröffentlicht werden, weil sich keine ausreichende Überparteilichkeit herstellen lässt. Die gleichen Probleme könnten auch bei Meta auftreten.
Es gibt Hinweise darauf, dass Community Notes auf X von organisierten Gruppen manipuliert werden, indem diese gezielt Notizen hoch- oder herunterstimmen.
Auch staatliche Akteure könnten versuchen, Einfluss auf die Moderation zu nehmen.
Es ist unklar, wie Meta die ideologische Vielfalt der Bewerter sicherstellt. X analysiert Follow-, Like- und Repost-Muster, um politische Tendenzen der Nutzer zu bestimmen. Meta hat diese Mechanismen noch nicht transparent gemacht.
Community Notes werden nicht auf Werbung angewendet, obwohl gerade dort oft problematische oder irreführende Inhalte auftauchen.
Meta verfolgt mit den Community Notes einen ambitionierten Ansatz: Statt Faktenprüfung durch externe Organisationen sollen nun die Nutzer*innen selbst mehr Verantwortung übernehmen. Dies könnte ein Schritt in Richtung mehr Transparenz sein, birgt aber gleichzeitig erhebliche Risiken in Bezug auf Manipulation, politische Einflussnahme und Verzerrungen durch Nutzergruppen mit bestimmten Bereichen. Ob sich dieses System langfristig bewährt, bleibt abzuwarten. Fakt ist: Bei einer Plattform mit über 3,3 Milliarden monatlichen Nutzer*innen weltweit könnten Community Notes einen erheblichen Einfluss darauf haben, welche Informationen als vertrauenswürdig gelten – oder eben nicht.