Digitale Gewalt / Interview

„Was wir für strafbar halten, ist den Plattformbetreibern häufig völlig egal“

Oberstaatsanwalt Hanno Wilk leitet das Team „Hate Speech“ in der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) in Frankfurt am Main. Im Gespräch mit „Forum Opferhilfe“ erklärt er, warum ihm TikTok und Telegram besonders große Bauchschmerzen bereiten und was passiert, wenn seine Ermittler im Netz „auf Streife“ gehen.

Foto: Christian Ahlers

Sind Hass und Hetze im Internet ein wachsendes Problem?

Was Studien bestätigen, erleben wir tagtäglich: Die Zahlen steigen immer weiter. Das ist auch darauf zurückzuführen, dass die Meldestellen bekannter werden und der Meldeweg einfacher geworden ist. Der muss aber noch viel einfacher werden. Uns erreichen über unsere Kooperationspartner sehr viele Meldungen von Instagram und Facebook. TikTok ist bei uns unterrepräsentiert angesichts der Masse an Hass und Hetze, die es da gibt. Eine Ursache ist sicher der Meldeweg, der nicht auf die Smartphone-affine, junge Zielgruppe von TikTok zugeschnitten ist.

Was würde helfen, besser gegen Hass und Hetze vorzugehen?

Es gibt innerhalb der Apps die Möglichkeit, den Plattformbetreibern Beiträge zu melden. Wenn ich eine Forderung an die Politik formulieren dürfte, dann würde ich mir innerhalb der App einen Meldebutton wünschen, der eine Exportdatei mit dem entsprechenden Beitrag, dem Profil und dem Kontext erzeugt, den Nutzer direkt an die Strafverfolgungsbehörden weiterleiten können. Es wäre sinnvoll, den Netzbetreibern so etwas aufzutragen. Natürlich wird die Masse der Meldungen händisch nicht zu bearbeiten sein, da müssen die Strafverfolgungsbehörden entsprechend digital aufgestellt werden.

Für Laien entsteht der Eindruck, dass die großen Plattformbetreiber sich mit ihren Community-Regeln quasi eigene Gesetze schaffen. Wie sehen Sie als Oberstaatsanwalt das?

Man muss das so offen sagen: Tatsächlich ist das, was wir für strafbar halten, den Plattformbetreibern häufig völlig egal. Wir haben da ein Rechtsdurchsetzungsproblem. Die oft weltweit geltenden Community-Richtlinien haben ganz andere Prinzipien als das deutsche Strafrecht. Und wir akzeptieren es als Gesellschaft anscheinend, dass sich die großen Plattformbetreiber nicht an unsere Regeln und Gesetze gebunden fühlen, wenn es um Hass und Hetze geht. Wir sehen das. Wir sprechen das an. Wir geben das an die entsprechenden politischen Gremien weiter. Mehr können wir nicht machen. Da ist der Gesetzgeber gefragt.

Welche Plattformen sind denn kooperativ und welche eher weniger?

Die meisten amerikanischen Plattformen sind kooperativ. Dass Twitter von Elon Musk gekauft und zu „X“ wurde, hat sich auf das Auskunftsverhalten gegenüber uns als Strafverfolgungsbehörde nicht negativ ausgewirkt. TikTok und Telegram bereiten uns Bauchschmerzen. Da gibt es sehr viel Hass und Hetze. Und da funktioniert die Strafverfolgung nicht darüber, dass wir die Bestandsdaten vom Betreiber bekommen. Es kommt vor, dass die Plattformen den Inhalt löschen, wenn wir an sie herantreten. Aber deshalb haben wir noch keine Auskunft über den Urheber des strafbaren Inhalts. Das erfordert klassische digital-forensische Recherchearbeit. Uns geht es darum, zeitnah zu reagieren und deutlich zu machen, dass es Grenzen des Umgangs im Netz gibt. Wichtig ist, dass klar wird: Wir sehen es. Wir verfolgen es. Wir klären es auf.

Oberstaatsanwalt Hanno Wilk leitet das Team „Hate Speech“ in der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) in Frankfurt am Main. Foto: Christian Ahlers

Wie erfolgreich sind Sie damit?

Wir klären in gut 50 Prozent der Fälle die Identität der Tatverdächtigen auf – bezogen auf alle kooperativen und nicht-kooperativen Online-Plattformen. So anonym, wie viele glauben, ist das Internet dann doch nicht. Und damit meine ich nicht die Facebook-Nutzer, die unter ihrem vollen Namen inklusive Kfz-Kennzeichen Hassbotschaften verbreiten. Solche Fälle fordern uns nicht heraus. Aber natürlich gehen auch solche Fälle, denn die gibt es, in unsere Statistik ein.

Was wäre rechtlich aus Ihrer Sicht notwendig?

Da ist die Politik gefragt, eine europäische Lösung zu finden. Deutschland hat es zuletzt versucht mit dem Netzwerkdurchsetzungsgesetz (NetzDG). Die Idee dahinter war, dass die Betreiber Inhalte aktiv löschen müssen, wenn diese gegen deutsches Recht verstoßen und sie davon Kenntnis erlangen. Dagegen haben die Plattformen geklagt und gewonnen. Das EU-Recht ist da eindeutig: Ein einzelnes Land darf diesen Plattformen keine Auskunftspflichten auflegen, die es nicht gesamteuropäisch hat. Das darf höchstens im Einzelfall geschehen.

Es gibt seit Anfang 2024 den Digital Services Act – gern auch das „Grundgesetz des Internets“ genannt. Wird jetzt alles besser?

Aber im Digital Services Act sind Hass und Hetze streng genommen kein Thema. Der DAS verlangt eine Meldung durch den Plattformbetreiber dann, wenn eine „Gefahr für Leib und Leben“ besteht. Das weiß auch der deutsche Gesetzgeber. In Deutschland ist nun wieder ein Gesetz in der Pipeline, das „Gesetz gegen digitale Gewalt“. Man wird sehen, ob und wie das europarechtskonform gestaltet werden kann.

Was macht die Arbeit am ZIT aus?

Das Besondere an unserem Job ist, wie nah wir am Zeitgeist agieren. Wenn ich abends online eine Meldung sehe, dann weiß ich schon, was für eine Welle an Hass und Hetze kommen wird. Dann rufe ich direkt bei unseren Kooperationspartnern wie „Hessen gegen Hetze“ an, um mich nach dem Stand der Dinge zu erkundigen, denn dann müssen wir schnell reagieren. Nach dem Überfall der Hamas auf Israel am 7. Oktober 2023 haben wir am nächsten Tag eine Internetstreife gefahren und einige Tausend Kommentare gesichtet. Daraus resultierten viele Ermittlungsverfahren, weil bestimmte Bevölkerungsteile diesen terroristischen Überfall im Netz doch tatsächlich gefeiert haben. Da haben wir nicht darauf gewartet, dass uns das gemeldet wird.

Das ist aber nicht alltäglich, dass Staatsanwaltschaften „auf Streife“ gehen.

Nein, wir gehen normalerweise nicht aktiv „auf Streife“. Das können wir rein personell auch gar nicht dauerhaft leisten. Wir sind auf Meldungen und Hinweise angewiesen, die in der Regel von unseren Kooperationspartnern und Meldestellen wie „Respect“ oder „Hessen gegen Hetze“ kommen. In seltenen Fällen durchforsten wir mit dem Bundeskriminalamt im Rahmen von Projekten frei zugängliche Internetseiten auf strafbare Inhalte – zuletzt im März 2024gegen Frauenfeindlichkeit im Internet. Da gibt es sehr irritierende Fälle, wie die Bewegung der „Incels“, die öffentliche Befürwortung von Vergewaltigungen und sexueller Nötigung sowie Folter- und Tötungsvideos, die öffentlich verbreitet wurden. Am Ende dieses bundesweiten Aktionstages standen strafprozessuale Maßnahmen gegen 45 Beschuldigte in elf Bundesländern.

Wie wichtig ist Ihnen die Perspektive der Opfer digitaler Gewalt?

Für uns ist es wichtig, dass die Opfer sehen, dass es da jemanden gibt, der sich ihrer Fälle annimmt und eben nicht sagt: Geh doch den Privatklageweg. Uns ist es sehr wichtig, die Perspektive der Opfer zu kennen. Uns erreichen sehr viele Meldungen vonseiten der Opfer, denen schulden wir natürlich eine Rückmeldung, wie wir damit umgehen.

Wie erleben Sie deren Perspektive?

Es gibt immer wieder Fälle, wo das Rechtsempfinden der Betroffenen mit den Strafgesetzen nicht unbedingt in Einklang steht. Das Strafrecht als Ultima Ratio des Rechts sollte nicht unnötig ausgeweitet werden. Die Abwägung zwischen dem, was noch als Meinungsfreiheit  zulässig ist, und dem, was dann schon strafbar ist, ist nicht immer einfach. Und wenn eine Deutung möglich ist, die noch mit der Meinungsfreiheit in Einklang steht, müssen wir diese wählen – zugunsten des Angeschuldigten. Auch das müssen wir kommunizieren – dafür hätten wir gerne manchmal mehr Zeit. Eines unserer nächsten Projekte soll ein Täter-Opfer- Ausgleich im Cyberraum sein, wenn wir das finanziert bekommen. Täter und Opfer sind ja im digitalen Raum räumlich oft weit auseinander, ein Treffen per Videokonferenz wäre ortsunabhängig möglich.

Christoph Klemp