Themen

Im Blogbeitrag vom 29.06.2010 erklärt Facebook das SPAM-Präventationssystem näher. Facebook erwähnt darin, dass die Kommunikationsmöglichkeiten und Vorteile eines globalen Community-Systems immer wieder von einer kleinen Anzahl an Nutzern missbraucht wird. Der Missbrauch reicht von Fehlverhalten bis zu bewusst kriminellen Absichten mit dem Ziel kommerzielle Gewinne zu tätigen. Facebook unternimmt viele Anstrengungen um SPAM zu minimieren und setzt dafür auf ein SPAM-Präventionssystem, welches Benutzer bei SPAM-Aktivitäten automatisch warnt.

Kein Eingriff in die Kommunikationsfreiheit

Das SPAM-Präventionssystem wird alllerdings auch öfters von betroffenen Personen missverstanden und als Eingriff von Facebook in die Kommunikationsfreiheit betrachtet. In der Vergangenheit gab es häufig Einschränkungen bei Publikationsversuchen, beispielsweise bei Meldungen rund um den Regisseur Roman Polanski, US-Reisebeschränkungen im Zusammenhang mit Kuba oder bei gleichgeschlechtlicher Heirat.

Mehr Transparenz über die Funktionsweise

Facebook möchte aus diesem Grund mehr Transparenz in das SPAM-Präventionssystem bringen und zeigt die Grundmechanismen auf.

Bei Milliarden von geteilten Inhaltselementen (siehe dazu auch “Facebook: aktuelle Zahlen im Hintergrund“) und gleichzeitigen Angriffsversuchen von kriminellen Personen, ist die Prävention von SPAM kein einfaches Unterfangen. Facebook hat zum Schutz vor SPAM einige automatisierte Überwachungsfunktionen im Einsatz, welche Aktivitäten die vom Schema X abweichen, als SPAM markiert.

Beispiele:

  • wenn eine Nachricht innerhalb einer Stunde an mehr als 50 Personen die nicht befreundet sind gesendet wird
  • wenn 75% der Freundschaftsanfragen einer Person ignoriert werden

Benutzer, die wegen SPAM markiert wurden, werden von Facebook vorübergehend blockiert und erhalten eine Warnung. Bei wiederholtem Missbrauch werden betreffende Benutzer von Facebook blockiert. Bei durch ein Passwortdiebstahl kompromittierten Konten wird versucht, die blockierten Konten wieder an den rechtmässigen Besitzer zu übergeben. Mehr zu diesen Thema gibt es im Hilfebereich von Facebook zu lesen.

Nicht nur SPAM-Schutz

Das automatisierte SPAM-Präventationssystem soll aber nicht nur vor SPAM und sonstigen Belästigungen sondern auch vor schädlichen Webseiten schützen. Sobald schädliche Seiten (Viren, Pishing, Datendiebstahl, etc.) Facebook bekannt sind, werden diese in eine Blockierliste aufgenommen um zu verhindern, dass eine weitere Ausbreitung möglich ist. Beim Teilen entsprechender Links wird eine Warnmeldung angezeigt.

Warnmeldung bei blockierten Inhalten
Warnmeldung bei blockierten Inhalten

Falls die Warnmeldung fälschlicherweise von Facebook gesetzt wurde, kann dies Facebook mitgeteilt werden.

Häufig werden bösartige Links mit URL-Verkürzer wie TinyURL oder bit.ly verdeckt, in seltenen Fällen kann Facebook sämtliche KurzURLs vorübergehend blockieren. In diesem Fall empfiehlt es sich, Links auf Facebook nicht zu kürzen und einfach die ursprüngliche (lange) URL zu verwenden.

Das SPAM-Präventationssystem arbeitet effizient im Hintergrund, die meisten Benutzer bekommen entsprechende Meldungen selten zu sehen. Wie jedes System enthält auch das SPAM-Präventationssystem Schwachstellen die aber von Facebook laufend verbessert werden.

Anmerkung

Jeder einzelne Facebook-Benutzer kann mithelfen, das SPAM-Präventationssystem zu verbessern in dem bei anstössigen Inhalten oder bösartigem Fehlverhalten eines  Benutzers der Inhalt, bzw. der Benutzer über die Funktion “melden / blockieren” als SPAM markiert wird. Sobald eine bestimmte Menge an Meldungen zum betreffenden Inhalt oder zur entsprechenden Person bei Facebook eintrifft, beginnen die automatischen Mechanismen zu greifen.

Das “Melden” von Inhalten ist bei Kommentaren direkt unterhalb des Kommentares möglich, beim “Melden” von Facebook Seiten und Benutzern ist die entsprechende Funktion in der linken Spalte unterhalb des Benutzerfotos am Ende der Seite zu finden.

Meiner Meinung nach hat das Melden von entsprechenden Inhalten/Benutzern nichts mit Denunzieren zu tun – die Überwachung einer Plattform mit rund 480 Mio. Benutzern ist nicht automatisiert möglich – die Mithilfe jedes einzelnen Benutzers ist notwendig und hilft mit, eine Plattform “sauber” zu halten und eine ausreichend sichere Umgebung zu erhalten.

Autor: Thomas Hutter 1701 Posts
Thomas Hutter (40) ist Inhaber und Geschäftsführer der Hutter Consult GmbH. Er berät grosse und mittlere Unternehmen, Organisationen und Agenturen in der Schweiz, Deutschland, Österreich und Niederlanden rund um den strategischen und nachhaltigen Einsatz von digitaler Kommunikation und digitalem Marketing in und mit sozialen Netzwerken.
Diese Webseite nutzt Cookies, Remarketing & Analytics. Wenn Du weiter auf dieser Seite bleibst, stimmst Du den Datenschutzbestimmungen zu. Datenschutz akzeptieren