Viel mehr als nur Löschen

Wie kann der Kampf gegen Rechtsverstöße im Netz effektiver, schneller und zielgerichteter werden? Indem wir sorgfältig arbeiten – und neue Methoden etablieren. Wir haben ein KI-Tool entwickeln lassen, das Hasskriminalität so zuverlässig wie nie aufdeckt.

Hass im Netz kann vielfältig sein. Angriffe auf die Menschenwürde gibt es in vielen Ausprägungen. „Wird man ja noch sagen dürfen“ oder „Ist ja nur ein Bild“ hört man in diesem Zusammenhang oft. Es gibt jedoch klare Grenzen, was die Menschenwürde verletzt: Gewaltdarstellungen oder Terrorpropaganda – auf Websites, auf Plattformen oder in sozialen Medien. Das Internet ist kein rechtsfreier Raum – und hier aktiv zu sein, ist ein zentraler gesetzlicher Auftrag der Landesanstalt für Medien NRW. Wir kontrollieren, verfolgen, bringen Verstöße zur Strafanzeige, arbeiten eng mit der Staatsanwaltschaft und Polizei zusammen.

Nur: Wie reagiert man zeitgemäß in einem digitalen Umfeld, das täglich wächst und viele scheinbar als rechtsfrei sehen? Wir arbeiten an modernen ­Methoden und Tools, um Verstöße schneller zu entdecken und zum Beispiel Meldungen an die Behörden zu vereinfachen. Die Zusammenarbeit zwischen uns als Medienaufsicht, der Staatsanwaltschaft, der Polizei und den Medienhäusern ist ein Vorbild für vergleichbare Initiativen in anderen Bundesländern. So lassen sich Rechtsverstöße im Netz effizient verfolgen, statt einfach nur löschen.

Wir haben uns im Frühjahr 2020 nach einer Machbarkeitsanalyse darauf verständigt, ein Werkzeug basierend auf künstlicher Intelligenz zu entwickeln. Es sollte automatisch nach potenziellen Rechtsverstößen im Netz suchen und unseren Mitarbeiterinnen und Mitarbeitern vorarbeiten. Innerhalb eines halben Jahres konnten wir einen Prototyp mit den wichtigsten Verstoßkategorien präsentieren und dann Kanal für Kanal ausrollen. Von Twitter und YouTube bis zu russischen Plattformen wie VK und Telegram kann das Tool täglich 10.000 Seiten automatisch durchsuchen. Dabei kann es auch trainierte Verstoßkategorien erkennen – zum Beispiel auf welchen internationalen Kanälen die Nutzerinnen und Nutzer auf Deutsch angesprochen werden. So kann das Tool mutmaßliche Verstöße erkennen, die für Mediennutzerinnen und -nutzer in unserem Zuständigkeitsbereich re­levant sind – und deswegen kommen schon jetzt Anfragen aus anderen europäischen Ländern, die das Tool ebenfalls nutzen wollen.

Das Ergebnis ist nicht nur eine flächendeckend bessere Erkennbarkeit von Verstößen und schlicht drastisch mehr Ergebnisse, sondern auch ein deutlich erhöhter Schutz für unsere Mitarbeiterinnen und Mitarbeiter: Bevor sie einen Inhalt öffnen, wissen sie schon, zu welcher Kategorie er wahrscheinlich gehört. Sie können außerdem festlegen, welche möglicherweise verstörenden Inhalte zunächst unscharf dargestellt werden sollen – was gerade bei Gewaltdarstellungen wie Tötungsvideos die psychische Belastung mindern kann. 

Schon nach wenigen Wochen Einsatz war abzusehen, dass die entdeckten Verstöße dank des KI-Tools in die Höhe schnellen. Und: Die Strafanzeigen konnten zu früheren Vergleichsmonaten verdoppelt werden. Die Trefferquote des KI-Tools liegt im Bereich Pornografie derzeit bei 94 Prozent – Tendenz steigend, weil es dank des Feedbacks der Kolleginnen und Kollegen täglich die automatisierte Suchpraxis verbessert. Und durch Werkzeuge wie das KI-Tool werden auch wir Medienanstalten im Kampf gegen Rechts­verstöße im Netz immer besser. 

Wieso ist Hassrede so gefährlich für die Gesellschaft? Und was kann man sonst noch dagegen tun?

Weiterlesen zum Umgang mit Hass im Netz: