Eine konzertierte Aktion Europols gegen extremistische Tonspuren wirft Fragen nach der Definition von Terrorpropaganda und der Rolle privater Plattformen auf.
Die Bekämpfung von Extremismus im Netz hat eine neue Front erreicht: das Ohr. In einer großangelegten Operation, dem bisher umfangreichsten „Referral Action Day“ seiner Art, hat Europol gemeinsam mit 13 Ländern Front gegen Audio-Propaganda bezogen. Über 17.000 Links auf 40 Plattformen wurden zur Löschung gemeldet – ein Volumen von 1100 Stunden Material, das von dschihadistischen Gesängen bis zu rechtsextremer Musik reicht. Europol feiert den Erfolg bei der „Säuberung“ des digitalen Raums. Doch eine entscheidende Frage bleibt unbeantwortet: Wo genau verläuft die Grenze zwischen verbotener Propaganda und religiöser oder politischer Äußerung, die noch von der Meinungsfreiheit gedeckt ist?
Die von Ungarn und der EU Internet Referral Unit (EU IRU) geleitete Aktion markiert einen Wendepunkt. Bisher standen vor allem Videos und Bilder im Fokus automatisierter Filter. Audio-Inhalte galten hingegen als „blinder Fleck“, da ihre Moderation sprachliche Feinheiten und tiefes Kontextwissen erfordert. Für die Ermittler sind diese Inhalte – etwa die islamischen Naschids oder rechtsradikale Rocksongs – hochemotionale Rekrutierungswerkzeuge. Sie dienen als „softer“ Einstieg in extremistische Welten, indem sie statt trockener Ideologie ein Gemeinschaftsgefühl und Heldenmythen vermitteln. Dass solche Inhalte Wirkung entfalten können, zeigte jüngst ein Prozess in Schweden, bei dem der Konsum solcher Gesänge als Indiz für die Radikalisierung eines Attentäters gewertet wurde.
Kritiker betrachten die Praxis der „Referrals“ jedoch mit Skepsis. Bei diesen Meldungen handelt es sich nicht um rechtlich bindende Löschanordnungen, sondern um Hinweise an private Plattformbetreiber. Diese entscheiden dann auf Basis ihrer eigenen Allgemeinen Geschäftsbedingungen (AGB), ob sie den Inhalt entfernen. Dieser Umweg über das „Hausrecht“ der Tech-Konzerne ermöglicht es Behörden, Inhalte löschen zu lassen, die strafrechtlich möglicherweise gar nicht relevant sind oder in einem Graubereich liegen. Da die AGB der Plattformen oft strenger sind als nationale Gesetze, droht eine schleichende Verschiebung von Zensur in den privaten Raum, ohne dass die betroffenen Nutzer effektive Rechtsschutzmöglichkeiten haben.
Die Definition, was als „terroristisch“ eingestuft wird, bleibt dabei oft vage. Europol nennt Reden von Anführern und die Verherrlichung von Gewalt, führt aber auch allgemein „islamische Gesänge“ an. Hier wird es kompliziert: Naschids sind eine weitreichende kulturelle Tradition im Islam und beileibe nicht jeder religiöse Gesang ist extremistisch. Die Gefahr, dass durch algorithmische oder übereifrige manuelle Meldungen auch legitime religiöse oder politische Inhalte im digitalen Orkus verschwinden, ist real. Die Intransparenz des Verfahrens verstärkt dieses Unbehagen: Weder die Öffentlichkeit noch unabhängige Gerichte können im Detail prüfen, welche der 17.298 URLs tatsächlich eine unmittelbare Gefahr darstellten und welche lediglich unliebsame Meinungen oder religiöse Folklore waren.
Zudem stellt sich die Frage nach der Nachhaltigkeit solcher Löschwellen. Das Internet ist bekannt für den „Streisand-Effekt“ und das „Whac-A-Mole“-Prinzip: Wird ein Inhalt auf einer großen Plattform gelöscht, taucht er oft augenblicklich in verschlüsselten Messengern oder auf kleineren, weniger regulierten Servern wieder auf. Europol schreibt, dass die Löschquote bei dieser Aktion bei 77 Prozent lag. Doch ob dies die Radikalisierung an der Wurzel packt oder lediglich die Sichtbarkeit für Behörden erschwert, bleibt umstritten.
Stefan Krempl
Keine Kommentare:
Kommentar veröffentlichen