• Startseite
  • Digital
  • Christchurch-Video: Massaker zeigt Versagen von Social Media auf

Christchurch-Video: Massaker zeigt Versagen von Social Media auf

Der Terror in Christchurch wurde per Facebook gestreamt und über soziale Medien verbreitet. Die Polizei fordert Nutzer auf, die Inhalte nicht zu teilen. Der Fall zeigt, wie unzureichend die Werkzeuge von sozialen Plattformen bei solchen Taten sind.

Anzeige
Anzeige

Christchurch. Bei Terroranschlägen in Christchurch in Neuseeland sind mindestens 49 Menschen getötet worden. Der Haupttäter zeigte den Hauptangriff live auf Facebook und nutzte auch andere Social-Media-Plattformen, um seine Tat und sein Manifest zu verbreiten. Die Tat, so scheint es, war so geplant, dass sie sich über soziale Medien verbreiten konnte, dass sie "viral geht".

So nannte der Täter in seinem Video zum Beispiel laut dem Fernsehnetzwerk "The Verge" den Namen eines der größten YouTuber der Welt, PewDiePie. Der schrieb daraufhin auf Twitter: "Mir wird absolut schlecht bei dem Gedanken, dass diese Person meinen Namen ausgesprochen hat." Er sei in Gedanken bei den Opfern, den Familien und allen, die von dieser Tragödie betroffen seien, so der YouTuber.

Weiterlesen nach der Anzeige
Anzeige

Doch der Fall des Attentat-Videos von Christchurch zeigt auch, welche Probleme Social-Media-Plattformen haben, Inhalte, die dort keinerlei Platz finden sollten, effektiv zu löschen. Das Massaker in Neuseeland sei auf Facebook live gestreamt, auf 8chan angekündigt, auf Youtube wieder gepostet und auf Reddit kommentiert worden, bevor die Tech-Unternehmen überhaupt reagieren konnten, schreibt der Journalist Drew Harwell. Auch auf Twitter wurden Menschen mit Bildern des Livestreams konfrontiert.

Polizei fordert auf, Links nicht zu teilen

Facebook teilte mit, man habe nach einem Hinweis der neuseeländischen Polizei das Profil des mutmaßlichen Attentäters sowohl auf Facebook als auch auf Instagram entfernt. Auch der Livestream sei entfernt worden. Die Videoplattform YouTube teilte mit, dass man daran arbeite, gewalttätiges Material zu entfernen.

Anzeige

Doch was einmal Eingang ins Netz gefunden hat, verschwindet nicht einfach so schnell wieder. Das Material ist Medienangaben zu Folge immer noch auf verschiedenen Plattformen auffindbar.

Anzeige

Die neuseeländische Polizei arbeitet nach eigenen Angaben daran, die weitere Verbreitung des Christchuch-Videos zu verhindern. Die Ermittler forderten die Öffentlichkeit am Freitag auf, Links zu dem Video nicht im Internet zu teilen. „Solche Videos sind durchaus dazu geeignet, andere Menschen zu solchen Taten zu animieren. Das Risiko, dass es Nachahmer geben könnte, ist dadurch höher“, sagte auch der Bundesvorsitzende der Gewerkschaft der Polizei (GdP), Oliver Malchow, der Düsseldorfer „Rheinischen Post“.

Reichen die Werkzeuge der Social-Medial-Plattformen aus?

Es ist nicht das erste Mal, dass sich grausame Inhalte per Facebook live gestreamt werden. Doch der Terroranschlag in Neuseeland zeigt deutlich, dass die Instrumente, die Social-Media-Plattformen haben, um so etwas zu verhindern, nicht ausreichen – wenn sie es denn überhaupt versuchen.

Nutzer, die verstörende Inhalte auf Facebook oder beispielsweise Instagram finden, können diese melden. Manche Plattformen, wie Facebook und YouTube, nutzen auch die Hilfe von KI, um Inhalte aufzuspüren, die gegen die Richtlinien verstoßen.

Terrorinhalte würden so in vielen Fällen in wenigen Minuten gelöscht, bevor sie irgendjemand sehe, teilten die Netzwerke im Dezember mit. Doch oft sind es auch Moderatoren die schlussendlich entscheiden müssen, ob ein Inhalt gelöscht werden muss. „Ich schaue mir in Echtzeit an, wie Videos des Vorfalls hochgeladen werden, dann runter genommen werden, dann wieder hochgeladen werden“, twitterte der Journalist Ryan Mac. Das zeige wie schwer die Moderations-Aufgaben seien und – „wirklich beunruhigend“.

Anzeige

EU will Netzkonzerne stärker in die Pflicht nehmen

Im Dezember hatte sich der EU-Rat dafür ausgesprochen, die Netzkonzerne stärker in die Pflicht zu nehmen. Zuvor hatte die Europäische Union im Kampf gegen Terrorpropaganda auf freiwillige Maßnahmen der Unternehmen gesetzt. Dies aber reiche nicht mehr: Internetfirmen wie Facebook und Twitter sollen unter der Androhung von empfindlichen Strafen zum schnellen Löschen von Terrorpropaganda verpflichtet werden.

Eine technische Lösung könnten Upload-Filter sein, die Content scannen, bevor er hochgeladen wird. Diese sind jedoch umstritten.

Von RND/asu