10.12.2020

„Unsichtbare Stimmen – Ausschluss und Rückzug aus Online-Diskursen“

Siebte Ausgabe des Forschungsmonitors Intermediäre veröffentlicht

Das Jahr geht zu Ende und hinterlässt doch die meisten von uns mit gemischten Gefühlen. Wir stecken mitten in einer globalen Krise und auch die Forschung muss sich dem natürlich widmen. Desinformation, Verschwörungstheorien und Hass sind zu weltweit wiederkehrenden Kennzeichen der Online-Diskurse geworden. Informationsintermediäre und die Gesellschaft reagieren auf diese neuen Herausforderungen mit verschiedenen Strategien: einerseits versuchen Plattformen durch eine striktere Umsetzung ihrer Richtlinien extreme Stimmen aus ihren Netzwerken auszuschließen, dies geschieht zunehmend automatisiert. Außerdem kommt es vermehrt zur organisierten Gegenrede, um den Diskurs zu deeskalieren. Andererseits beobachten wir, dass viele Nutzerinnen und Nutzer von dem harschen Ton abgeschreckt sind und sich aus dem Diskurs zurückziehen – dies betrifft vorrangig gesellschaftliche Minderheiten. Stimmen werden unsichtbar durch Ausschluss oder Rückzug aus Online-Diskursen. 

So beobachten wir beispielsweise die Verlagerung von extremen Online-Diskursen in private Messengerdienste. Diese entzieht die Inhalte häufig einer wissenschaftlichen Betrachtung sowie aufsichts- und strafrechtlichen Bewertung. Verschiedene Untersuchungen stellen fest: Desinformation, Verschwörungstheorien und Hass verbreiten sich immer öfter auch über Messengerdienste wie etwa WhatsApp oder Telegram und verlagern sich damit heraus aus öffentlich zugänglichen Informationsintermediären und hinein in private Gruppenchats. Dieser Vorgang nennt sich Deplatforming. Personen, die in klassischen sozialen Medien gegen geltendes Recht oder Plattformregeln verstoßen, werden von ihnen ausgeschlossen und ziehen sich in geschütztere Räume zurück, in dem Glauben, dass sie dort unbeobachtet ihre extremen Inhalte an ihr Zielpublikum tragen können. Dies stellt sowohl die Wissenschaft als auch die Aufsichtspraxis vor neue Herausforderungen, wie sie mit diesen (gefährlichen) unsichtbaren Stimmen in Zukunft umgehen soll.

Dabei sind private Gruppen bei Messengerdiensten wie WhatsApp oder dem Facebook Messenger häufig Orte der Gegenrede. Hier finden vermehrt Korrekturen falscher Nachrichten durch Nutzerinnen und Nutzer statt – häufiger dort als in (halb-)öffentlichen sozialen Netzwerken. Gleichzeitig weisen Studienergebnisse darauf hin, dass viele Nutzerinnen und Nutzer sich nicht mehr trauen, ihre Meinung im Internet frei zu äußern.

Außerdem möchten wir Sie auf ein klassisches „Intermediärs-Phänomen“ aufmerksam machen, das mit den aktuellen Entwicklungen einhergeht und im vorliegenden Forschungsmonitor analysiert wird: die automatisierte Inhaltemoderation. Sie umfasst beispielsweise das Sortieren, Filtern, Sperren oder Löschen von Inhalten durch die Anbieter sozialer Netzwerke. Damit garantieren die Plattformen zwar zum einen den Ausschluss solcher Personen, die falsche oder gar illegale Inhalte verbreiten, gleichzeitig können sie dies jedoch auch zur ökonomisch optimierten Verbreitung von Informationen nutzen. Ein Dilemma, dem nicht zuletzt Journalistinnen und Journalisten bei ihren Recherchen ausgesetzt sind – welche Inhalte werden ihnen überhaupt angezeigt und welche Inhalte produzieren sie im Anschluss? Sind diese auch getrieben vom Wunsch, eine möglichst hohe Reichweite zu erzielen?

Diese und viele weitere spannende Fragen werden in diesem siebten Forschungsmonitor Intermediäre mit dem Titel „Unsichtbare Stimmen – Ausschluss und Rückzug aus Online-Diskursen“ behandelt. Wir wünschen Ihnen viel Freude bei der Lektüre und stehen für Rückfragen gerne zur Verfügung.