• Startseite
  • Digital
  • Algorithmen: Wenn Maschinen auf Social-Media-Plattformen entscheiden

Das Rätsel um die Algorithmen: Wenn Maschinen entscheiden

  • Algorithmen entscheiden, was wir auf Social-Media-Plattformen sehen und was nicht.
  • Plattformen geben an, dass unter anderem Likes und Kommentare bestimmen, welche Inhalte Userinnen und Usern angezeigt werden.
  • Doch Forschende zeigen mit Experimenten, dass Algorithmen weitaus komplexere und teilweise auch bedenkliche Funktionsweisen haben.
|
Anzeige
Anzeige

Welche Inhalte gelangen nach ganz oben im Newsfeed? Wann wird Nutzerinnen und Nutzern Werbung angezeigt – und welche Empfehlungen bekommen sie? All diese Entscheidungen werden auf Social-Media-Plattformen nicht von Menschen getroffen. Für die angezeigten Inhalte sind Algorithmen verantwortlich. Das sind Systeme, die anhand von gesammelten Daten ganz automatisch entscheiden, was auf Facebook, Instagram, Tiktok und Co. zu sehen ist – und was nicht.

Die sozialen Netzwerke informieren immer wieder über Faktoren, die Einfluss auf ihre Algorithmen haben. Tiktok und Facebook geben beispielsweise an, dass Interaktionen eine Rolle spielen: Wenn man einem Post einen Like gibt oder einen Beitrag kommentiert, hat das Einfluss darauf, welche Beiträge künftig im eigenen Feed zu sehen sind. Doch das ist nur die halbe Wahrheit.

Keine genaue Auskunft über Systeme

Facebook etwa betont auf der Website selbst, dass diese Signale nur „einige von Tausenden“ sind, die in den Algorithmus einfließen. So beschweren sich Nutzerinnen und Nutzer auf Facebook immer wieder, dass politische Inhalte ihren Newsfeed dominieren. Dabei werden laut Facebook nur 6 Prozent aller Inhalte politischen Themen zugeordnet – und Posts von Freunden und Familie sollen durch den Algorithmus eigentlich priorisiert werden. Und auch auf anderen Plattformen werden Inhalte angezeigt, die sich nicht anhand von Interaktionen oder Vorlieben erklären lassen.

Anzeige

Die Verantwortlichen hinter den Algorithmen geben selbst keine Auskunft darüber, wie ihre Systeme wirklich ticken. Forschende versuchen daher anhand von Untersuchungen, die Algorithmen besser zu verstehen. „Man kann mit Experimenten einen besseren Einblick in die Algorithmen bekommen, auch wenn man sie nicht vollständig knacken kann“, sagt der Datenjournalist und Algorithmusexperte Nicolas Kayser-Bril von der Initiative Algorithmwatch. Das Team versucht, mit Experimenten Probleme und Missstände in den Automatisierungsprozessen der sozialen Netzwerke aufzudecken.

Video
Deepfakes: Dürfen wir unseren Augen noch trauen?
3:33 min
Mit Deepfakes lassen sich Videos erzeugen, in denen Menschen scheinbar Dinge sagen oder tun, die sie nie gesagt oder getan haben.  © Amandine Cormier/RND
Anzeige

Nicht nur Vorlieben entscheiden

Auf Social-Media-Plattformen sind mehrere Algorithmen im Einsatz, die jeweils andere Funktionen erfüllen, wie Kayser-Bril erklärt. „Social-Media-Plattformen nutzen sogenannte Hierarchisierungsalgorithmen, die entscheiden, welche Inhalte auf dem Newsfeed einer Nutzerin oder eines Nutzers ganz oben erscheinen“, sagt er. Ein Experiment von Algorithmwatch zeigt, dass dabei nicht nur Vorlieben über die priorisierten Inhalte im Feed entscheiden. Die Initiative konnte nachweisen, dass Instagram mit hoher Wahrscheinlichkeit nackte Haut mit einer größeren Verbreitung belohnt: Wer beispielsweise ein Bikinifoto postet, erreicht damit mehr Menschen – unabhängig davon, ob die Userinnen und User solche Bilder tatsächlich lieber sehen wollen als andere.

Ein weiteres Beispiel für laut Algorithmwatch „automatisierte Entscheidungsfindung“, ist der Empfehlungsalgorithmus. Er zeigt Nutzerinnen und Nutzern Inhalte an, die ihren Interessen entsprechen sollen. Auf Youtube entscheidet dieser Algorithmus Schätzungen zufolge in gut 70 Prozent der Fälle darüber, welche Videos angeklickt werden. Jüngst zeigte ein Vorfall auf Facebook, dass Algorithmen teils gravierende Schwächen haben: Ein Algorithmus hatte Usern und Userinnen „Videos über Primaten“ vorgeschlagen, nachdem sie einen Clip mit schwarzen Männern gesehen hatten.

Algorithmwatch ist bei einem Experiment zu Werbungsalgorithmen auf eine weitere bedenkliche Funktionsweise gestoßen: Es stellte sich heraus, dass Stellenausschreibungen zu vermeintlich typischen Männerberufen wie Lastkraftwagenfahrer auf Facebook bei deutlich mehr männlichen Nutzern ausgespielt wurden – und Frauen eher Anzeigen für Erzieherinnen und Pflegerinnen bekamen. Nach Ansicht der Initiative könnte das gegen europäisches Recht verstoßen, wonach niemand auf Basis seines Geschlechts diskriminiert werden darf.

Erkundungen zum Empfehlungsalgorithmus von Instagram hat die Organisation Algorithmwatch im August eingestellt, nachdem Facebook ihr einen Verstoß gegen die Nutzungsbedingungen vorgeworfen hatte, die eine automatische Erfassung von Daten verbieten. Angesichts von Facebooks Drohung, „formellere Schritte“ einzuleiten, habe man das Projekt beendet, heißt es bei Algorithmwatch.

Kommerzielle Interessen im Vordergrund

„Die Social-Media-Plattformen haben aktuell einfach keinen Anreiz, ihre Geheimnisse offenzulegen. Politikerinnen und Politiker sind nahezu machtlos, weil sie bisher keinen Weg gefunden haben, um die Algorithmen zu prüfen“, sagt Kayser-Bril. „Hinter allen sozialen Netzwerken stehen private Firmen mit kommerziellen Interessen“, sagt Kayser-Bril.

Die Netzgemeinde kann die Macht der Algorithmen nicht vollständig kontrollieren. Doch man kann darauf achten, weniger Daten preiszugeben. Außerdem gibt die DSGVO der EU seit ihrer Einführung im Jahr 2018 Userinnen und Usern mehr Möglichkeiten, über die Menge an gesammelten Daten zu entscheiden. Das heiße nicht, dass man wisse, welche Informationen Algorithmen für welche Zwecke nutzen, sagt Kayser-Bril. Daher müsse der Druck auf die Politik erhöht werden: „Wenn wir in einer offenen Gesellschaft leben wollen, müssen wir die Systeme und die Firmen, die dahinterstehen, kontrollieren.“

  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen