• Startseite
  • Digital
  • YouTube verbannt sechs prominente rechtsextreme Kanäle - Gegen Hass im Netz

Gegen Hass: YouTube verbannt sechs prominente rechtsextreme Kanäle

  • Im Kampf gegen Hass und Hetze hat YouTube sechs rechtsextreme US-Kanäle gelöscht.
  • Darunter sind die Kanäle des Rechtsnationalisten Richard Spencer und des Ex-KKK-Chefs.
  • Die Kanäle hätten gegen YouTube-Richtlinien verstoßen.
Anzeige
Anzeige

Die Video-Plattform YouTube hat sechs der prominentesten rassistischen und rechtsextremen US-Kanäle gelöscht. Darunter sind die Kanäle von dem rechten Blogger Stephan Molyneux, Richard Spencer, seinem National Policy Institue, dem Ex-Ku-Klux-Klan-Anführer David Duke, dem Magazin American Renaissance sowie den dazugehörigen AmRenPodcasts. Spencer wolle Einspruch gegen die Entscheidung einlegen, wie er auf Twitter schrieb.

Nach Kritik: YouTube greift durch

Weiterlesen nach der Anzeige
Anzeige

Wie das amerikanische Technikportal “The Verge” berichtete, verstießen die Kanäle laut YouTube wiederholt gegen die Richtlinien von YouTube, indem sie behaupteten, Mitglieder “geschützter Gruppen” seien minderwertig. Diese Hassbotschaften gehen mit anderen Verstößen einher, die dazu geführt haben, dass YouTube nun Maßnahmen ergriffen hat. “Wir haben strenge Richtlinien, die Hassrede auf YouTube verbieten, und wir löschen jeden Kanal, der wiederholt oder gravierend gegen diese Richtlinien verstößt”, sagte ein YouTube-Sprecher gegenüber The Verge. Nach einer Aktualisierung der Richtlinien sei das zuletzt 25.000 Mal geschehen.

In der Vergangenheit wurde die Google-Tochter wiederholt dafür kritisiert, zu wenig gegen Videos voller Hass und Rassismus zu unternehmen. 2017 hatte YouTube begonnen, entsprechende Videos mit Warnungen zu kennzeichnen und ihre Reichweite einzuschränken – dennoch empfahl der Algorithmus der Plattform Nutzern immer wieder Videos mit rechtsextremen oder rassistischen Inhalten.

Das Handeln von YouTube geschieht in einer Zeit, in der eine neue Diskussion um Hass und Hetze in sozialen Medien entflammt ist. Vor allem die jüngsten Sperren rund um US-Präsident Trump befeuern die Debatte. Lesen Sie hier, welche Maßnahmen Plattformen gegen Hass ergreifen.

Anzeige

So geht YouTube gegen Hass und Hetze vor:

Beim Aufspüren und Entfernen von Hass-Inhalten setzt YouTube neben Moderatoren zunehmend auf Algorithmen. “Die Community-Richtlinien geben vor, welche Inhalte auf YouTube nicht zulässig sind. Zum Beispiel erlauben wir keine Pornografie, Anstiftung zu Gewalt, Belästigung oder Hassrede. Dabei setzen wir auf eine Kombination aus Nutzern und Technologie, um unzulässige Inhalte zu melden und diese Richtlinien durchzusetzen”, heißt es im Google-Transparenzbericht von 2019.

Anzeige

Darüber hinaus führt YouTube ein sogenanntes “Trusted Flagger”-Programm. Behörden, Nichtregierungsorganisationen und einzelne Nutzer können als Mitglieder über ein Tool Inhalte melden, die gegen die Community-Richtlinien verstoßen. Dadurch werden als bedenklich markierte Videos, Kommentare und Nutzer seitens Youtube priorisiert überprüft. Im vergangenen Juni hat YouTube zudem seine Richtlinien erweitert und angekündigt, die Regeln zum Umgang mit Hassrede international zu verschärfen. Von da an seien Videos verboten, die Gruppen nach Eigenschaften wie Alter, Geschlecht, Rasse, Kaste, Religion oder sexueller Orientierung ausgrenzten, um die eigene Gruppe als überlegen darzustellen.

Laut dem aktuellen Transparenzbericht wurden im ersten Quartal 2020 rund 100.000 Videos wegen hasserfüllter Rede und beleidigenden Inhalten gelöscht.

RND/dale/mkr

“Staat, Sex, Amen”
Der neue Gesellschaftspodcast mit Imre Grimm und Kristian Teetz
  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen