Herr Stegemann, in ihrem Buch sprechen Sie öfters von der Gamification des Terrors. Viele Leute reagieren bei solchen Bezeichnungen mit einem Abwehrreflex: Man dürfe Rechtsradikale und Gamer nicht über einen Kamm scheren.
Den Abwehrreflex aus der liberalen Gamer-Szene kann ich nicht nachvollziehen. Unser Buch beginnt mit dem Gamergate von 2014: Damals wurden mehrere Computerspiel-Entwicklerinnen und eine feministische Journalistin, die deren progressive Spiele besprach, von Trollen angegriffen, die sich auf 4chan radikalisiert haben. Ihr Frauenhass und Ablehnung gegen eine progressivere Gegenkultur führte zu Todesdrohungen gegen die Frauen, die Spiele-Entwicklerin Zoe Quinn musste ihr Zuhause verlassen, nach dem Gamer ihre Wohnadresse im Internet veröffentlicht hatten.
Statt auf die chauvinistische Kultur, die natürlich nicht bei allen Gamern, aber in vielen Foren von Ihnen jeden Tag stattfindet, einzugehen und anstatt sich für Frauen und andere Opfer von Hass und Diskriminierung einzusetzen, tut man jeden Zusammenhang ab. Das finde ich falsch.
Wie genau sieht die Gamifizierung des Terrors aus?
Die Gamifizierung haben wir zuletzt bei den Anschlägen von Halle und Christchurch gesehen. Die Terrorakte folgten der Logik eines Computerspiels: Beide Attentäter haben Helmkameras benutzt, um die Tat in Spielästhetik für ihre Zuschauer erfahrbar zu machen. Das Ziel ist, Zielgruppen anzusprechen, die in Foren unterwegs sind wie 8chan und Twitch. Twitch ist die Spieleplattform schlecht hin: dort streamte der Attentäter von Halle seine Tat live. Damit wollte er Nachahmer produzieren, genau wie er selbst ein Nachahmer des Christchurch-Attentates ist. Akte des Spiels fließen in den Terrorakt mit ein, und die Kommunikation um den Akt selbst ist game-artig: Es gab ein „Attentäter-Quartett“ bei 8-Chan, bei dem man „Punkte“ für getötete Kinder, für Kopfschüsse und so weiter erhielt. Es ist wie bei einem Spiel, nur das dabei echte Menschen sterben.
Bei dem Charlie Hebdo Attentat geisterten über Twitter Bilder von Unterstützer*innen des islamistischen Terrors, die vermummte, hyper-maskuline Terroristen in Gamer-Pose vor einem brennenden Paris zeigten. Die Gamer-Ästhetik scheint sich auf alle Formen des Terrorismus zu übertragen.
Der rechte Terror hält zwar „die weiße Rasse“ und „die Nation“ hoch, ist aber heutzutage extrem internationalisiert. Die Attentate laufen alle über dieselben kulturellen Codes ab und alle imitieren sich dabei gegenseitig, es ist dabei tatsächlich eine interessante Beobachtung, dass es all diese Codes auch beim islamistischem Terrorismus gibt. Beide haben dasselbe Leitmotiv: Sie schreiben sich auf die Fahnen, dass sie mit den Mitteln der Moderne gegen die Moderne kämpfen. Gegen den Fortschritt. Dafür benutzen sie dieselbe Technik, auch in Paris wurden die Anschläge auf Telegram organisiert. Darüber hinaus benutzen sie dieselben kulturellen Sprachen, die manchmal absolut gar nichts mit ihrem Weltbild zu tun haben, zum Beispiel Hip Hop. Rechter Rap ist in der Szene sehr einflussreich, obwohl das eine afroamerikanische Erfindung ist.
Wie rechtfertigt die extreme Rechte diese Widersprüche vor ihren Anhängern? Wie blendet man aus, dass man selbst längst Teil der so verhassten „Multikulti“-Kultur ist?
Es gibt dafür zwei Strategien. Ersteinmal akzeptieren Rechtsextremisten andere Rechtsextremisten aus anderen Ländern, weil sie Teil der „weißen Rasse“ sind. Man gehöre also zum gleichen Club. Darüber hinaus haben sie das Weltbild: Wir sind ja für verschiedene Völker, aber die sollen bitte alle jeweils unter sich bleiben. Was den Rap betrifft, gibt es Aussagen von rechten Vereinen wie EinProzent, die auch rechte Rapper und rechte Onlinemagazine wie „Arcadi“ unterstützen die sagen: Uns wäre es auch lieber, wenn die Jugend Tannhäuser und brandenburgische Chöre hört, aber Rap ist nun mal, was die Jugend hört…Das macht deutlich, dass die neue Rechte Kultur als Waffe versteht. Rap ist die einflussreichste Jugendkultur unserer Zeit. Wenn es also dem großen Ziel dient, sich diese Kultur anzueignen, weil man damit sehr viele Menschen erreicht, dann nimmt man diesen Widerspruch in Kauf.
Die extreme Rechte ist online sehr erfolgreich. Der YouTube-Account des prominenten österreichischen Identitären Martin Sellner wurde zwar zwischenzeitlich deaktiviert, durfte aber nun wieder online gehen. Unterdessen wurde das linksextreme Forum Linksunten.Indymedia gerichtlich verboten. Wie kann es sein, dass nicht Dasselbe mit Sellners YouTube Account, dem extrem rechten Medium Arcadi und den Chan-Foren passiert?
Die Behörden, die in Deutschland eigentlich dafür zuständig sind, Radikalisierung aufzuhalten, haben lange nicht verstanden, was da eigentlich passiert in den sozialen Netzwerken. Außerdem liegt es auch an dem mangelnden demokratischen Einfluss auf diese Plattformen: Es ist viel einfacher, eine Website zu löschen, als auf YouTube und Facebook Einfluss zu nehmen, wenn es darum geht, welche Accounts sie sperren sollen. Ganz langsam ändert sich das.
Horst Seehofer hat gesagt, dass das Innenministerium gezielt Leute einstellen will, um rechte Radikalisierung online zu beobachten. Aber es wird noch lange nicht genug getan. Löschung ist außerdem nicht immer die Antwort. Bei Martin Sellner führte die Deaktivierung seines YouTube-Channels dazu, dass er unglaublich viel Aufmerksamkeit erhalten hat. Drei Tage später wurde der Account wieder hergestellt und dann ein weiteres Mal gelöscht, bevor er wieder online ging. Sellner war durch dieses Hin und Her überall, alle extremen rechten YouTuber wollten ihn interviewen, um Zensur zu beklagen. Dann stellt YouTube auch noch den Account wieder her und er steht als Sieger da. Schlimmer kann es nicht sein. Es war wie ein Werbespot.
Deplatforming, also Accounts von Plattformen im Netz auszuschließen, ist also keine Lösung?
Doch, Deplatforming hilft, das sieht man in den USA. Alex Jones hatte mit seinem Kanal Infowars Millionen Follower auf YouTube. Jetzt, nach der endgültigen Sperrung dieses Kanals, hat er nur noch um die 8000 Leute auf Telegram, auch sein Twitter- und Facebook-Account wurden gesperrt. Reichweiten wurden also massiv eingeschränkt. Aber wenn man so etwas macht, dann muss es halt gerichtsfest und konsequent sein. Wir leben in einem Rechtsstaat und solche Entscheidungen können nicht den sozialen Netzwerken überlassen werden. Außerdem kann Löschung eben auch ein zweischneidiges Schwert sein. Diese Leute ziehen sich dann eben in geschlossene Netzwerke wie Telegram zurück, wo es dann viel krasser zugeht, und wo wir sie nicht mehr kontrollieren können. Es sollte also öfter darum gehen, durch die Kontrolle von Algorithmen Reichweite zu beschränken, statt einfach nur zu löschen.
Was sind konkrete Maßnahmen, um diese Reichweite zu beschränken?
Wir haben zwei Seiten, die extreme Rechte und diese Plattformen. Die sind eine unheilige Allianz eingegangen. Die Logik der sozialen Netzwerke spielt ihnen zu: Viralität ist Populismus. Öffentlichkeit ist so strukturiert, dass sie ideal für die radikale Rechte ausgerichtet ist, weil sie über Emotionen funktioniert. Wir müssen die Plattformen europaweit regulieren, wir müssen sie zwingen, ihre Algorithmen transparent zu machen, damit wir Reichweiten besser nachvollziehen und kontrollieren können. Wir müssen eine Governance für diese Plattformen entwickeln. Wir haben ja zum Beispiel in Deutschland auch Rundfunkräte, die eine Demokratisierung von Medien möglich machen sollen. Gremien, die öffentlich-rechtliche Medien überwachen. Diese müssen die Gesellschaft repräsentieren. Das hat in der jetzigen Ausführung natürlich große Mängel, ist aber grundsätzlich ein gutes demokratisches Prinzip. Das müsste man auf Social Media übe…
Die Strategie der extremen Rechten ist es, durch das Triggern von Emotionen wie Wut und einer absoluten Definition von Identität so viele Menschen wie möglich online zu radikalisieren.