23.04.2021 LinkedIn

Linkedin: Wie kommen die Inhalte zu mir und wie werden sie gewählt?

Um Inhalte millionenfach auszuspielen, setzen Plattformen künstliche Intelligenz ein. Anders ist diese Menge an Informationen nicht zu bewältigen. Die Vision von LinkedIn, wirtschaftliche Chancen für jedes Mitglied global zu ermöglichen, wäre ohne KI in diesem Ausmass nicht möglich. LinkedIn gibt nun Einblicke in diese Systeme.

Belinda Weibel
3 Min. Lesezeit
Keine Kommentare

Die Datenmengen von Social Media Plattformen zu bewerkstelligen, den Menschen immer aktuelle und zugeschnittene Inhalte auszuspielen, geht nur über künstliche Intelligenz. Die Herausforderung folgt vielen weiteren Kriterien. Inhalte müssen nicht nur zugeschnitten auf den jeweiligen Empfänger sein, sie müssen auch neutral sein – so neutral wie es geht.

Um diesen Leitsatz LinkedIns Produkten nachzukommen, hat die Plattform das sogenannte LinkedIn Fairness Toolkit (LiFT) entwickelt. LiFT wird bei LinkedIn in verschiedenen Szenarien und Entwicklungsteam eingesetzt. Es ermöglicht, dass erarbeitete Lern-Workflows von KI auf ihre Fairness hin überprüft werden, kann verschiedene Training- und Scoring-Workflows messen und potenzielle Verzerrungen aufzeigen.

Wie hilft LiFT LinkedIn?

Um dem Toolkit die Voraussetzungen zu schaffen, ordnungsgemäss und zielführend zu arbeiten, sind im Vorfeld einige Parameter erforderlich. Es muss bei LinkedIn sichergestellt sein, dass „zwei Mitglieder, die gleich qualifiziert sind, den gleichen Zugang zu Chancen haben sollten.“ Aber was bedeutet es, gleich qualifiziert zu sein und wie kann diese Frage besser beantwortet werden? Wie kann geprüft werden, ob ein LinkedIn-Produkt einen fairen oder unfairen Einfluss nimmt? Diese Fragen gilt es zu beantworten.

LinkedIn zeigt dies anhand „Personen, die sie kennen könnten“ (People You May Know – PYMK), welche uns Kontaktvorschläge ausspielt, um unser Netzwerk zu erweitern. Wenn wir PYMK als Beispiel nehmen, wäre eine versendete Kontaktanfrage ein positives Signal und somit als qualifizierte Empfehlung zu werten. Der Algorithmus lernt aus diesem Verhalten und könnte Kontakte in erfolgreichen Matches besser bewerten, denn die Vorschläge waren zielführend. Ebenso wäre die Erfolgschance höher, wenn es sich um Mitglieder handelt, die LinkedIn intensiver nutzen. Mehr Vorschläge, mehr erfolgreiche Kontakte, besseres Rating. Ganz so einfach ist es nicht und gegen dieses „Rich-Get-Richer“-Phänomen müssen Massnahmen ergriffen werden.

diagram-showing-potential-cycle-of-bias-reinforcement-over-time

Voreingenommenheit in Empfehlungssystemen (Quelle: LinkedIn)

Um sicherzustellen, dass alle Mitgliedsgruppen fair behandelt werden, bedarf es einer Definition von Fairness. Drei der am häufigsten verwendeten Definitionen von Fairness sind:

  • gleiche Möglichkeiten für alle,
  • gleiche Chancen für alle
  • und Gleichheit der Vorhersage-Raten.

Die gleichen Möglichkeiten für alle beinhalten, dass zufällig ausgewählte „qualifizierte“ Kandidaten gleichmässig vertreten sein sollten, unabhängig, ob sie heavy user sind oder sich nur gelegentlich bei LinkedIn anmelden. Die Exposition eines Mitglieds sollte daher keine Gewichtung spielen. Bei der Chancengleichheit geht es noch einen Schritt weiter, denn hier sollen sowohl qualifiziert als auch weniger qualifizierte Kandidaten gruppenübergreifend gleichbehandelt werden. Die Gleichheit der Vorhersageraten stellt sicher, dass das Ergebnis des Algorithmus die „Qualität“ eines vorgeschlagenen Kontaktes in allen Gruppen mit gleicher Genauigkeit vorhersagt. Die Definition von Fairness ist nicht so einfach festzuhalten und müssen manchmal anwendungsfallspezifisch ausgewählt werden. Es gibt eine Ausführung der Überlegungen in einem 25-seitigen Dokument.

So ein Algorithmus benötigt allerdings auch Stellschrauben, an denen gedreht werden kann. Den Teams stehen hierfür Abschwächungstechniken zu Verfügung, um bessere Ergebnisse zu erreichen. Um das angesprochene „Rich-get-Richer“-Phänomen aktiv zu verhindern, werden sehr aktive und weniger aktive Mitglieder qualifiziert, um ihnen die gleiche Repräsentation in den Empfehlungen geben zu können. Es wurden am Ende in beiden Gruppen mehr Verbindungen (circa 5%) unter den Mitgliedern geschlossen, während das Verteilungsverhältnis nicht umgeschlagen ist.

Die Bemühungen von LinkedIn gehen über dieses einfache Beispiel hinaus. LiFT wird in verschiedensten Produkten angewandt, wie zum Beispiel Attribute wie Alter oder Geschlecht, was weitere Fragen nach der Anonymität und dem Datenschutz nach sich ziehen.

Fazit

Was für die Mitglieder von LinkedIn selbstverständlich ist, braucht am Ende Ingenieurskunst. Es hat viele Stellschrauben, um den richtigen Inhalt zur richtigen Zeit der richtigen Person auszuspielen. Das Netzwerk muss dabei möglichst objektiv, neutral und gleichberechtigt bleiben. Diese Herausforderung ist gewiss nicht so einfach und beinhaltet komplexe Modelle im Hintergrund, die in Millisekunden Ergebnisse liefern müssen.

Facebook Instagram Twitter LinkedIn Xing TikTok

Kommentar via Facebook

Bitte akzeptieren Sie die Cookies um die Facebook Kommentare zu nutzen.

Schreib uns einen Kommentar

Möchtest Du immer auf dem neusten Stand mit unseren Newsletter sein?

Melde Dich jetzt an