21.01.2021 Diverses

Facebook: Besseres Facebook-Erlebnis für blinde und sehbehinderte Menschen

Jeden Tag werden auf Facebook Milliarden von Fotos geteilt. Fotos sind längst eine der beliebtesten Kommunikationsformen, doch blinde oder sehbehinderte Personen werden so aussen vor gelassen. Facebook hat seine Alternativtext-KI nun so optimiert, dass Fotos nun auch für diese Personen zugänglicher werden.

Livia Mosberger
3 Min. Lesezeit
Keine Kommentare

Wer ein auf Facebook gepostetes Bild blinden oder sehbehinderten Personen zugänglich machen wollte, musste bislang einen Alternativtext, kurz Alt-Text, definieren. Dieser Text kann dann von einem Screenreader vorgetragen werden, sodass auch visuell eingeschränkte Personen die Bilder in ihrem Facebook-Feed verstehen konnten. Leider werden die meisten Fotos aber ohne Alternativtext gepostet, denn vielen Menschen fehlt diesbezüglich ein Bewusstsein für Inklusion. Aus diesem Grund hat Facebook 2016 eine neue Technologie namens ATT eingeführt, was für Automatic Alternative Text steht. Mittels Objekterkennung werden automatische Beschreibungen bei Bildern ohne Alternativtext eingefügt.

ATT zuverlässiger und detaillierter

Seit 2016 hat sich das ATT mehrere technologische Fortschritte gemacht. Die Anzahl der Motive, die ATT zuverlässig erkennen kann, hat sich um mehr als das zehnfache erhöht. Im Umkehrschluss gibt es weniger Bilder, die die ATT gar nicht zuordnen kann bzw. nichts erkennt. Ausserdem sind die Beschreibungen detaillierter. Inzwischen erkennt die ATT-KI beispielsweise Sehenswürdigkeiten, Aktivitäten, Tierarten etc. Ein weiterer Meilenstein war die Erkennung von Positionen und relativen Grössen der Elemente in einem Bild. So kann die KI erkennen, welche Personen oder Objekte im Fokus sind und welche Elemente nicht im Vordergrund stehen, z.B. Leute im Hintergrund. So können blinde und sehbehinderte Personen nicht nur erkennen, was auf einem Bild zu sehen ist, sondern sie können das Bild auch besser verstehen.

Alternativtext durch ATT generiert (Quelle: Facebook)

Überarbeitung des KI-Trainings

Zu Beginn von ATT wurden die Daten von Menschen zugeordnet, um so das neuronale Netzwerk zu trainieren. Dieses umfasste Millionen von Beispielen, konnte aber nur relativ wenige Objekte wie «Baum», «Berg» oder «draussen» zuverlässig erkennen. Da der Zeitaufwand bei dieser Methode aber extrem hoch war, ist Facebook nun von dieser Methode abgekommen. Die neue ATT-Iteration wird mit Milliarden von öffentlich zugänglichen Instagram-Bildern und deren Hashtags trainiert. Die Bilddaten kommen aus allen Regionen und die Resultate können darum noch präziser verschiedene Regionen und Kulturen berücksichtigen. So können beispielsweise Hochzeiten auf der ganzen Welt in traditioneller Kleidung identifiziert werden, nicht nur Fotos mit weissen Hochzeitskleidern. Auch Nationaldenkmäler, Gerichte oder auch Selfies können mit der neuen Iteration besser klassifiziert werden. Insgesamt werden nun über 1200 Elemente zuverlässig erkannt. Trotzdem ist gibt es eine gewisse Fehlertoleranz, denn längst wird nicht alles erkannt. Darum beginnen die Textausgaben auch jeweils mit «May be».

Eindeutige Alternativtexte mit mehr Details

Auch die Personen, die auf den Alternativtext angewiesen sind und einen Screenreader nutzen, wurden zu ihrer Nutzung und den Präferenzen befragt. Heraus kam, dass sich diese Personen vor allem für die Bilder von Familie und Freunden interessieren und dort auch mehr Informationen zum Bildinhalt erhalten möchten. Darum hat Facebook das ATT so konzipiert, dass bei allen Bildern eine kurze Beschreibung ausgegeben wird und weitere Details angezeigt werden können. Bei der detaillierteren Version werden beispielsweise die Elemente auf dem Foto gezählt, und auch die Positionsangaben und Bedeutung (primär, sekundär oder nebensächlich) werden aufgelistet. Ziel ist, ein möglichst eindeutiges Bild zu erzeugen und keine mehrdeutigen Begriffe zu nutzen. Der Alternativtext ist sehr nüchtern gehalten. So kann der Text schnell gelesen und verstanden werden, und auch für die Übersetzung sind solche funktionalen Sätze besser geeignet als lange Sätze. Alternativtext-Beschreibungen können inzwischen in 45 Sprachen ausgegeben werden.

Bildinformationen wie Position, Grösse und Kategorie, erkannt von ATT (Quelle: Facebook)

Fazit

Die Verbesserung des ATT wird einen Grossteil der Menschen auf Facebook nicht betreffen. Doch die Personen, die auf ATT angewiesen sind, haben so ein verbessertes Facebook-Erlebnis und werden weniger ausgeschlossen. Facebook zeigt mit diesen Anpassungen, dass auch die Bedürfnisse von visuell eingeschränkten Personen ernst genommen werden. Wahrscheinlich verfolgt Facebook mit der verbesserten Erkennung von Bildern auch eigene Interessen und hat mit der KI hinter ATT ein Tool an der Hand, welches je länger je zuverlässiger Bildinhalte erkennen kann. Denn auch Bildinformationen sind wertvolle Daten, die Aussagen über die eigenen Aktivitäten und Präferenzen zulassen und so für Werbetreibende eingesetzt werden können.

Facebook Instagram Twitter LinkedIn Xing TikTok

Kommentar via Facebook

Bitte akzeptieren Sie die Cookies um die Facebook Kommentare zu nutzen.

Schreib uns einen Kommentar

Kennst Du schon unsere wöchentlichen Newsletter?

Facebook & Instagram   LinkedIn