Facebook nimmt Stellung zum Netflix Film “das Dilemma mit den sozialen Medien” und geht auf diverse Punkte, welche im Film angeprangert werden, ein.
Der Film “das Dilemma mit den sozialen Medien” auf Netflix schlägt hohe Wellen. Lange war es bei Facebook ruhig, nun publizierte Facebook eine offizielle Stellungnahme unter dem Titel “What ‘The Social Dilemma’ Gets Wrong”.
Eine “sinngemässe” Übersetzung des englischen Dokuments bei Facebook (und ja, es hat kein Profi übersetzt):
Wir sollten Gespräche über die Auswirkungen der sozialen Medien auf unser Leben führen. Aber “Das soziale Dilemma” verbirgt die Substanz hinter Sensationsmache.
Anstatt einen nuancierten Blick auf die Technologie zu werfen, bietet es einen verzerrten Blick darauf, wie soziale Medienplattformen funktionieren, um einen bequemen Sündenbock für schwierige und komplexe gesellschaftliche Probleme zu schaffen. Die Schöpfer des Films berücksichtigen weder Erkenntnisse von Personen, die derzeit in den Unternehmen arbeiten, noch von Experten, die eine andere Sicht auf die Erzählung des Films haben.
Sie erkennen auch nicht – weder kritisch noch anderweitig – die Anstrengungen an, die die Unternehmen bereits unternommen haben, um viele der von ihnen aufgeworfenen Fragen anzugehen. Stattdessen verlassen sie sich auf die Kommentare jener, die seit vielen Jahren nicht mehr im Inneren waren. Hier sind die Kernpunkte, die der Film falsch versteht.
Unsere News-Feed-Produktteams haben keinen Anreiz, Features zu entwickeln, die die für unsere Produkte aufgewendete Zeit erhöhen. Stattdessen möchten wir sicherstellen, dass wir den Menschen einen Mehrwert bieten und nicht nur die Nutzung vorantreiben. So haben wir beispielsweise 2018 unsere Reihenfolge für News Feeds geändert, um sinnvolle soziale Interaktionen zu priorisieren und beispielsweise gegenüber viralen Videos den Vorrang zu geben. Diese Änderung führte zu einer Verringerung der täglichen Zeit, die auf Facebook verbracht wird, um 50 Millionen Stunden. Das ist nicht die Art von Dingen, die man tut, wenn man einfach versucht, die Leute dazu zu bringen, Ihre Dienste mehr zu nutzen. Wir arbeiten mit führenden Experten auf dem Gebiet der psychischen Gesundheit, Organisationen und Akademikern zusammen, und unsere Forschungsteams widmen sich dem Verständnis der
Auswirkungen, die soziale Medien auf das Wohlbefinden der Menschen haben können. Wir wollen, dass die Menschen kontrollieren können, wie sie unsere Produkte nutzen, weshalb wir Zeitmanagement-Tools wie ein Aktivitäts-Dashboard, eine tägliche Erinnerung und Möglichkeiten zur Begrenzung von Benachrichtigungen bereitstellen. Wir haben bereits damit begonnen, Produktteams einzusetzen, die sich auf andere Bereiche wie Einsamkeit, Rassengerechtigkeit, Mentorenschaft, psychische Gesundheit und verantwortungsbewusste Innovation konzentrieren. Wir werden weiterhin innovativ sein und neue Instrumente entwickeln, die den Menschen helfen, sicher zu bleiben.
Facebook ist eine durch Werbung unterstützte Plattform, was bedeutet, dass der Verkauf von Werbung es uns ermöglicht, allen anderen die Möglichkeit zu bieten, sich kostenlos zu verbinden. Dieses Modell ermöglicht es kleinen Unternehmen und Unternehmern, zu wachsen und mit grösseren Marken zu konkurrieren, indem sie leichter neue Kunden finden können. Aber selbst wenn Unternehmen Werbung auf Facebook kaufen, wissen sie nicht, wer du bist. Wir stellen Werbetreibenden Berichte über die Art der Personen zur Verfügung, die ihre Werbung sehen und wie sich ihre Werbung entwickelt, aber wir geben keine Informationen weiter, die dich persönlich identifizieren oder deine Informationen an andere verkaufen. Sie können die ihnen zugewiesenen ‘Interessen’ jederzeit in Ihren Anzeigeneinstellungen sehen und, wenn Sie möchten, diese entfernen.
Facebook verwendet Algorithmen, um das Erlebnis für Menschen, die unsere Apps nutzen, zu verbessern – genau wie jede andere Dating-App, Amazon, Uber und unzählige andere Apps, mit denen Menschen täglich interagieren. Dazu gehört auch Netflix, das einen Algorithmus verwendet, um zu bestimmen, wer sich seiner Meinung nach den Film “Das soziale Dilemma” ansehen sollte, und diesen dann empfiehlt. Dies geschieht mit jedem Stück Inhalt, das auf dem Dienst erscheint. Algorithmen und maschinelles Lernen verbessern unsere Dienste. Beispielsweise verwenden wir sie bei Facebook, um Inhalte zu zeigen, die relevanter für das sind, wofür sich die Nutzer interessieren, egal ob es sich dabei um Beiträge von Freunden oder Werbung handelt. Algorithmen als ‘böse’ darzustellen, mag zwar gutes Futter für Verschwörungsdokumentationen sein, aber die Realität ist weitaus weniger unterhaltsam.
Im Laufe des letzten Jahres haben wir im Rahmen unserer Vereinbarung mit der Federal Trade Commission bedeutende Änderungen vorgenommen. Wir haben neue Sicherheitsvorkehrungen dafür geschaffen, wie Daten verwendet werden, wir haben den Menschen neue Kontrollmöglichkeiten gegeben, wie sie ihre Daten verwalten können, und inzwischen arbeiten Tausende von Menschen an Projekten, die mit dem Schutz der Privatsphäre zu tun haben, so dass wir weiterhin unseren Verpflichtungen zum Schutz der Privatsphäre nachkommen und die Daten der Menschen sicher aufbewahren können.
Ungeachtet dessen, was der Film suggeriert, haben wir Richtlinien, die es Unternehmen verbieten, uns sensible Daten über Personen, einschliesslich der Gesundheitsinformationen oder Sozialversicherungsnummern der Nutzer, über Geschäftstools wie Facebook-Pixel und SDK zu senden. Wir wollen diese Daten nicht und wir unternehmen Schritte, um zu verhindern, dass potenziell sensible Daten, die von Unternehmen gesendet werden, in unseren Systemen verwendet werden. Wir haben die Regulierungsbehörden auf der ganzen Welt öffentlich dazu aufgerufen, uns dabei zu unterstützen, die Regeln des Internets in Einklang zu bringen, und wir unterstützen eine Regulierung, die der gesamten Branche als Leitfaden dienen kann. Das ist eine Aufforderung, die wir an die Staats- und Regierungschefs gerichtet haben, und wir laufen nicht davon weg.
Die Wahrheit ist, dass Polarisierung und Populismus schon lange vor der Gründung von Facebook und anderen Online-Plattformen existierten und wir ergreifen bewusst Schritte innerhalb des Produkts, um die Verbreitung dieser Art von Inhalten zu kontrollieren und zu minimieren. Die überwältigende Mehrheit der Inhalte, die Menschen auf Facebook sehen, sind nicht polarisierend oder gar politisch – es sind alltägliche Inhalte von Freunden und Familie der Menschen. Während einige Beiträge von mehr polarisierenden News-Quellen viele Interaktionen, Vorlieben oder Kommentare erhalten, machen diese Inhalte nur einen winzigen Prozentsatz dessen aus, was die meisten Menschen auf Facebook sehen. Nachrichten von dieser Art von Seiten stellen auch nicht die meistgesehenen Nachrichten auf Facebook dar. Wir reduzieren die Menge der Inhalte, die die Polarisierung auf unserer Plattform vorantreiben könnten, einschliesslich Links zu Clickbait-Schlagzeilen oder Fehlinformationen. Wir führen unsere eigene Forschung durch – und finanzieren direkt die Forschung unabhängiger Akademiker – um besser zu verstehen, wie unsere Produkte zur Polarisierung beitragen könnten, damit wir weiterhin verantwortungsvoll damit umgehen können.
Wir haben zugegeben, dass wir 2016 Fehler gemacht haben. Doch der Film blendet aus, was wir seit 2016 getan haben, um eine starke Abwehr aufzubauen, um zu verhindern, dass Menschen Facebook nutzen, um sich in Wahlen einzumischen. Wir haben unsere Sicherheit verbessert und verfügen jetzt über einige der fortschrittlichsten Teams und Systeme der Welt, um Angriffe zu verhindern. Wir haben mehr als 100 Netzwerke weltweit entfernt, die in den letzten Jahren koordiniertes, nicht authentisches Verhalten an den Tag legten, auch im Vorfeld anderer wichtiger globaler Wahlen seit 2016.
Um Werbeanzeigen – insbesondere politische und soziale – transparenter zu machen, haben wir 2018 eine Werbebibliothek eingerichtet, die alle auf Facebook laufenden Werbeanzeigen für andere Nutzer sichtbar macht, selbst wenn du die Werbung in deinem eigenen Feed nicht gesehen hast. Und wir kennzeichnen und archivieren alle sozialen Themen und Wahlwerbungen in dieser Bibliothek für sieben Jahre. Wir haben ausserdem Richtlinien, die die Beeinträchtigung von Wählern verbieten, und in den USA haben wir allein zwischen März und Mai dieses Jahres mehr als 100.000 Inhalte von Facebook und Instagram entfernt, weil sie gegen unsere Richtlinien zur Beeinflussung von Wählern verstossen haben.
Darüber hinaus haben wir weitere Anstrengungen unternommen, um die Integrität der US-Wahlen zu sichern, indem wir die Stimmabgabe fördern, Menschen mit zuverlässigen Wahlinformationen in Verbindung bringen und unsere Richtlinien aktualisiert haben, um Versuchen eines Kandidaten oder einer Kampagne entgegenzuwirken, den Sieg vorzeitig zu erklären oder die Wahl durch Infragestellen der offiziellen Ergebnisse zu delegitimieren.
Die Idee, dass wir es zulassen, dass Fehlinformationen auf unserer Plattform eitern, oder dass wir irgendwie von diesem Inhalt profitieren, ist falsch. Facebook ist die einzige grosse Social-Media-Plattform mit einem globalen Netzwerk von mehr als 70 Fact-Checking-Partnern, die Inhalte in verschiedenen Sprachen rund um die Welt überprüfen. Inhalte, die von unseren Fact-Checking-Partnern als falsch identifiziert wurden, werden in den News Feeds nach unten gerankt. Fehlinformationen, die das Potenzial haben zu drohender Gewalt, körperlichen Schäden und Unterdrückung der Wähler beitragen, werden gänzlich entfernt, einschliesslich Fehlinformationen über COVID-19.
Wir wollen keine Hassreden auf unserer Plattform und arbeiten daran, sie zu entfernen, egal was der Film sagt. Auch wenn nur ein Posting bereits ein Beitrag zu viel ist, haben wir grosse Verbesserungen vorgenommen. Wir haben im zweiten Quartal 2020 über 22 Millionen Inhalte mit Hassrede entfernt, über 94% davon haben wir gefunden, bevor es uns jemand gemeldet hat – ein Anstieg gegenüber dem Quartal zuvor, als wir 9,6 Millionen Beiträge entfernt haben, wovon 88% davon von uns gefunden wurden, bevor sie uns von jemandem gemeldet wurden.
Wir wissen, dass unsere Systeme nicht perfekt sind und es gibt Dinge, die wir vermissen. Aber wir stehen nicht untätig daneben und lassen Fehlinformationen oder Hassrede auf Facebook zu verbreiten.
Das Original-Dokument bei Facebook.
Comments are closed.
Guten Tag Herr Hutter
Vielen Dank für Ihren Beitrag.
Ich bin überzeugt, dass Social Media einer der zentralen Sündenböcke für einige zentrale Problem in der heutigen Gesellschaft sind.
Es gibt natürlich auch positive Seiten, das ist völlig klar.
Wichtig finde ich auch, dass natürlich keine aktuellen Mitarbeiten der Tech-Giganten zu Wort kommen. Diese würden sich (logischerweise) völlig anders äussern, als jene, die mal da gearbeitet haben.
Siehe Edward Snowden, ein Paradebeispiel für Mut und was es bedeutet, die Karten auf den Tisch zu legen.
Bezüglich dem Suchtpotential. Meiner Meinung nach ist es unbestritten, dass die Funktion “Infinite Scroll” süchtig machen kann. Klar war dies nicht die Absicht der Entwickler, aber es ist nun mal eine unschöne Konsequenz.
Weiter möchte ich folgenden Satz aus Ihrer Übersetzung zitieren:
“Unsere News-Feed-Produktteams haben keinen Anreiz, Features zu entwickeln, die die für unsere Produkte aufgewendete Zeit erhöhen.”
Das muss ironisch gemeint sein, oder? Der Anreiz ist doch völlig logisch: Möglichst viel Geld verdienen mit Ads. Das geht nun mal einfacher, wenn jeder einzelne mehr Zeit auf Facebook verbringt.
Zu “Du bist nicht das Produkt”.
Da bin ich ebenfalls völlig anderer Ansicht. Werbung funktioniert besser, wenn die Daten besser sind. Und die Daten sind die Facebook-Nutzer mit ihren ganz persönlichen Präferenzen.
Allgemein sagt die Stellungnahme aus meiner Sicht wie diverse vorherige Court-Anhörungen nur wenig aus, bleibt schwammig und liefert keine konkreten Beispiele sondern viele Behauptungen, es sei doch jetzt viel besser und sicherer aus vorher.
Was ist denn Ihre persönliche Einschätzung zum Statement von Facebook?
Beste Grüsse
Michael Hörnlimann
P.S.: Ich finde es sehr amüsant, dass der Link auf die Stellungnahme von Facebook selber auf eine WordPress-Website zeigt und damit eine Open Source Plattform nutzt.
Wäre sicherlich interessant, mal den Quellcode von Facebook öffentlich einsehen zu können.