Die Ereignisse von Chemnitz hängen unmittelbar mit Social-Media-Plattformen wie Facebook, Twitter und Youtube zusammen. Rechte Extremisten haben über ihre Foren Hass und Gewalt verbreitet, was dort zum Ausbruch kam. Die schnelle Zusammenrottung von Rechtsradikalen aus dem gesamten Bundesgebiet wurde über extremistische Informationswege via Social Media organisiert.
Chemnitz zeigt deutlich, welche Verantwortung die Anbieter sozialer Medien tragen und dass sie ihrer Verantwortung endlich gerecht werden müssen, damit unsere Gesellschaft nicht weiter mit Hass durchsetzt wird und um Gewaltaufrufe einzudämmen.
Kürzlich legten die großen Social-Media-Plattformen in Deutschland erstmals Zahlen darüber vor, warum und wie viele Inhalte sie in den ersten sechs Monaten dieses Jahres aufgrund von Beschwerden im Rahmen des Netzwerkdurchsetzungsgesetzes (NetzDG) sperrten oder entfernten.
Danach entfernte Youtube 58.297 von 214.827 (27 Prozent) der gemeldeten Inhalte, während Facebook nur 362 Beiträge von nur 1704 gemeldeten Inhalten (21 Prozent) auf Basis des NetzDG entfernte. Zwar scheinen diese Zahlen eine positive Entwicklung zu beschreiben, sie weisen allerdings auch darauf hin, dass die Tech-Unternehmen ihrer Verantwortung unter dem NetzDG nicht ernsthaft nachkommen.
Die Diskrepanzen zwischen den von Youtube und Facebook veröffentlichen Zahlen betreffs der gemeldeten Inhalte legen nahe, dass es erhebliche Unterschiede in der Anwendung des NetzDG gibt. So können User bei Youtube schnell und einfach Inhalte nach dem NetzDG direkt auf der Seite des betreffenden Videos melden, während Facebook seine Nutzer in ein umständliches Meldeverfahren hineinzwingt.
Dank des NetzDG blockierte Youtube fast doppelt so viele terroristische oder verfassungswidrige Inhalte wie auf Basis der eigenen Community-Richtlinien. Offenbar legt Youtube seine eigenen Standards zu großzügig aus. Eine Studie des Counter Extremism Project (CEP) bestätigt ernsthafte Defizite in Youtubes Umgang mit Videos der Terrororganisation Islamischer Staat (IS).
Unter Verwendung spezifischer Suchbegriffe und einer eigenen Software suchten wir zwischen März und Juni 2018 nach einer Auswahl von 229 bekannten IS-Videos. Während dieser Zeit konnten wir 1348 Videos auf der Plattform identifizieren, die insgesamt 163.391-mal angesehen wurden.
Obwohl Youtube 76 Prozent dieser Videos in weniger als zwei Stunden nach dem Hochladen löschte, wurden sie in dieser kurzen Zeitspanne fast 15.000-mal angesehen. Außerdem zeigten die Ergebnisse, dass auch nach einer Löschung durch Youtube dieselben extremistischen Inhalte immer wieder neu hochgeladen werden und daher faktisch zu jeder Zeit online sind. 91 Prozent dieser Videos wurden mehr als einmal hochgeladen.
Ebenso lassen sich gefährliche Inhalte weiterhin auf Facebook mühelos von Nutzern verbreiten und aufrufen. Kürzlich fand CEP ein Anleitungsvideo zur Bombenherstellung, das mehrmals auf verschiedenen Plattformen hochgeladen wurde. Tatsächlich gibt es schon Technologien, die bereits zum Zeitpunkt des Hochladens erkennen, dass es sich hier um einen gefährlichen Inhalt handelt, und eine Veröffentlichung sofort verhindern.
Die Tatsache, dass dieses Material trotzdem immer wieder auftaucht, weckt Zweifel an der Aussage von Youtube, eine Hashing-Datenbank für illegale Inhalte wirksam anzuwenden. Wir müssen von der Tech-Industrie mehr Transparenz darüber fordern, wie Algorithmen zur Maximierung der Nutzerinteraktion auf Webseiten und Social-Media-Plattformen eingesetzt werden.
Erst kürzlich hat eine Studie der Universität Warwick Hassreden auf Facebook mit Hunderten von Angriffen gegen Flüchtlinge in Deutschland in Verbindung gebracht.
Das spricht nicht nur für die Notwendigkeit der Kontrolle der Algorithmen, es unterstreicht die Notwendigkeit von mehr Transparenz der Tech-Industrie, damit die Öffentlichkeit und der Gesetzgeber die Zusammenhänge zwischen Onlinehassreden und Gewaltverbrechen erfassen können. Die Selbstregulierung der Tech-Industrie funktioniert nicht.
Der Gesetzgeber muss die Tech-Industrie dazu bringen, transparenter und verantwortungsvoller zu handeln und gesetzliche und regulatorische Vorgaben zur Bekämpfung extremistischer Inhalte umzusetzen. Nur so erreichen wir, dass das Internet nicht für die Verbreitung von Extremismus, Hass und Gewalt missbraucht wird.
