Online Medien bieten nicht nur zahllose Möglichkeiten zur Teilhabe, für einen flexiblen Wechsel zwischen Kommunikator- und Rezipientenrolle und für mehr Öffentlichkeit für wichtige Themen – sie haben auch unerwünschte Nebenwirkungen. Eine davon ist Inzivilität, also Hassrede, beleidigende, verleumdende, nicht jugendfreie oder andere rechtswidrige Inhalte. Eine besondere Form davon sind Shitstorms, so nennt man kollektive Empörung oder Kritik, die innerhalb eines begrenzten Zeitraums und auf ein Ziel gerichtet stattfindet. Im Gegensatz dazu ist Trolling ein Normverstoß in der persönlichen Interaktion. Dabei stören einzelne User den Diskurs auf eine besonders disruptive Art. Meist ohne inhaltlichen Grund wird es auch „Stören um des Störens willen“ genannt.
HINWEIS: Dies hier ist eine Viertverwertung eines Themas, das will ich ganz transparent machen. Zuerst sprach ich darüber im Powerpointabend zur interdisziplinären Verständigung zwischen Wirtschaftsinformatikerinnen, Politikwissenschaftlerinnen, Mathematikerinnen und Publizistinnen (aka Freundinnenskypecall). Dann wurde eine Hausarbeit daraus. Und wegen einem unvorsichtigen Nebensatz im Büro kam dann noch eine kleine Präsentation auf der Arbeit dazu. Warum also kein Blogartikel?
Was passiert gerade?
Wir bemerken mehr Inzivilität in Online Medien. Wenn man plötzlich mehr von etwas findet, kann das daran liegen, dass es vermehrt auftritt. Im Falle von inzivilen Kommentaren spielen aber auch Wahrnehmungseffekte eine Rolle. Das ist zum Ersten die gesteigerte Sichtbarkeit und öffentliche Zugänglichkeit von Debatten und Diskursen. Weil die Menschen nicht nur die Inhalte der Medienbeiträge verfolgen, sondern auch die Gedanken der anderen Nutzenden sehen können. Außerdem ist die schnelle und weite Verbreitung durch die technischen Möglichkeiten stark vereinfacht worden. Nicht nur aber auch wegen den Algorithmen der Sozialen Medien werden emotional aufgeladenen Inhalte wesentlich schneller und weiter distribuiert. Die Algorithmen analysieren nämlich das „engagement“ eines Posts, also wieviel die Nutzenden damit interagieren in Form von Likes, Shares und Kommentaren. Und eben diese emotional aufgeladenen Inhalte, die Angst auslösen, Ärger erregen oder polarisieren, rufen besonders viel „engagement“ hervor.
Aber ausgehend von dieser Emotionalität, die nah an krassen Kommentaren liegt, gibt es auch Hinweise, dass negatives Kommentarverhalten tatsächlich mehr auftritt, aufgrund veränderter Kommunikationsbedigungen und (Gruppen-) Normen. So trägt die Anonymität als Grundprinzip des Internets entschieden zur Enthemmung der Nutzenden bei. Anonymität und Deindividualisierung haben auch außerhalb der Onlinekommunikation ein verringertes Verantwortungsbewusstsein zur Folge, diese Prozesse wurden schon in den Achtzigerjahren psychologisch erforscht. Die Effekte werden noch weiter verstärkt durch die fehlenden sozialen Hinweisreize, die in der Face-to-face-Kommunikation mit Gestiken, Mimik und Intonation regulieren. Ein weiterer Grund für mehr Inzivilität sind motivationale Aspekte und Persönlichkeitsmerkmale. Die meisten davon können mit emotionalen Prozessen erklärt werden. Negative Kommentare zu schreiben kann nämlich dabei helfen, angestauten negativen Emotionen Raum zu machen, die in der Passivität der Rezeption unangenehm auf den Nutzenden lasten. Außerdem dient die gezielte und kollektive Inzivilität dazu, sich der von einer Fremdgruppe abzugrenzen und darum den eigenen Gruppenzusammenhalt zu stärken. Zusätzlich dazu können einige Persönlichkeitsmerkmale Inzivilität erklären.
Welche Wirkungen hat das, was passiert?
Bei den Wirkungen von Inzivilität in den sozialen Online-Medien unterscheidet man vier Bereiche: Wirkungen auf Einstellungen, Meinungen und Verhalten, Wirkungen auf Stimmungen und Emotionen, sowie Wirkungen auf Vorstellungen und Wissen. All diese Bereiche wirken aber auch wechselseitig aufeinander. Generell können nur solche Inhalte Wirkungen entfalten, die die Aufmerksamkeit der User*innen erregen. Diese Relevanzbeurteilung geschieht oft innerhalb der Sekunden, in denen Nutzende entscheiden, ob sie weiterscrollen oder nicht. Ein positiver Faktor in diesem Urteil ist eine hohe Anzahl an Kommentaren, Aufrufen oder Shares. Auch Kontroverse wirkt sich positiv auf das Relevanzurteil aus. Allerdings wird ein Beitrag mit vielen inzivilen Kommentaren eher als qualitativ minderwertig wahrgenommen. Dieser Effekt gilt nicht in die andere Richtung: die Präsenz ziviler Kommentare führt nicht zu einer höheren Qualitätsbeurteilung.
In der Forschung zur Definition von Inzivilität konnte festgestellt werden, dass vor allem die Androhung von Gewalt und beleidigende Sprache von vielen als Inzivilität beurteilt wurden, während inhaltliche Kritik eher als zivil wahrgenommen wird. Außerdem konnten Ausstrahlungseffekte gefunden werden; die negativen Emotionen der Kommentare übertragen sich quasi auf die Lesenden und können so zu noch mehr inzivilen Kommentaren führen.
Journalist*innen und andere Medienschaffende sind oft die Adressat*innen inziviler Kommentare. Das kann dazu führen, dass sie sich eingeschüchtert fühlen und konfliktreiche Darstellungen und Berichte vermeiden wollen. Besonders Frauen sind Leidtragende von Online-Inzivilität; sowohl Userinnen als auch Journalistinnen werden oft Opfer inziviler Kommentare und entscheiden deshalb oft sich selbst zu zensieren oder sich aus den sozialen Netzwerken zurück zu ziehen. Hate Speech kann traumatische Effekte hervorrufen.
Was kann man gegen das, was da passiert, tun?
Es gibt verschiedene Methoden Inzivilität in Onlinemedien zu begegnen, sowohl präventive als auch repressive Strategien. Letztere ermöglicht etwa das Netz-Durchsetzungsgesetz, aufgrund dessen einzelne Kommentare gelöscht und Nutzer*innen blockiert werden können. Das gilt dann aber nur für strafrechtliche relevante Inhalte und nicht für die vielen Fälle im Graubereich, die aber trotzdem von anderen Nutzenden als inzivil wahrgenommen werden. Hier wird viel mit Moderation und Community Management gearbeitet, also eher vorbeugend wirkenden Maßnahmen.
Dabei gibt es die Kollaborative Moderation, die oft den anderen Nutzenden die Möglichkeit gibt, problematische Kommentare zu flaggen und sich dann vorbehält, diese zu löschen. Bei der inhaltlichen Moderation löschen professionelle Moderator*innen alle Kommentare, die ihnen unangemessen erscheinen. Entweder geschieht diese Prüfung vor der Veröffentlichung der Kommentare oder danach. Hier wird oft mit Netiquetten gearbeitet, also öffentlich einsehbare „Spielregeln“, an denen die Nutzenden sehen können, welche Kommentare okay sind und welche entfernt werden. Die interaktive Moderation zeichnet sich dadurch aus, dass ihre Moderator*innen an der Diskussion in der Kommentarspalte teilnehmen. Entweder geben sie in einer Helferrolle Komplimente oder Zusatzinfos, oder sie vermitteln zwischen Nutzenden in einer Art Regulatorrolle.
Alternativ können die Verantwortlichen Inzivilität mit aktiver Gegenrede bekämpfen. Dabei wird die die Hassrede oder Falschinformation mit Argumentation „entlarvt“ und entkräftet. Allerdings bleiben die anderen Nutzenden oft eher passiv als einzugreifen, was auch am „Bystander-Effekt“ liegen kann, also dem Umstand, dass unbeteiligte Beisteher*innen seltener eingreifen, wenn sie Teil einer großen Gruppe sind und sich dadurch weniger verantwortlich fühlen.
Auch Gegenbotschaften treten der Inzivilität aktiv entgegen, in Form von professionellen Antwortbeiträgen. Diese werden oft aber erneut Gegenstand neuer Inzivilität und können einen Kreislauf der negativen Kommentare auslösen. Geeigneter ist da ein systemischer Ansatz, bei dem man dem Problem mit Medienkompetenz zuvorzukommen versucht.
Aus meiner persönlichen Erfahrung in meinem Nebenjob weiß ich, dass die Grenze zwischen dem Löschen und dem Stehenlassen eines Kommentars oft schmerzhaft ist. Besonders als öffentlich-rechtlicher Kanal scheint man es niemandem recht machen zu können. Wird ein Kommentar gelöscht riskiert man erboste Zensurvorwürfe und schlimmstenfalls einen Shitstorm von Gleichgesinnten, die sich in ihrem Glauben an die Lügenpresse und Staatsmedien bestätigt sehen. Aber man hat auch eine Verantwortung gegenüber den Protagonistinnen eines Beitrags, die sich für den Kanal verletzlich exponiert haben und geschützt werden müssen vor persönlichen Angriffen. Erweitert gilt diese Verantwortung auch gegenüber den anderen Rezipientinnen, die von Fake News in die Irre geleitet, von beleidigender Sprache verletzt werden und Außerdem können fiese Kommentare die Community eines Kanals zerstören, die anderen Nutzenden eher vom Kommentieren abbringen und somit mehrfach negative Wirkungen haben. Deswegen ist gutes Community Management unabdinglich und obwohl nicht die ideale, in meinen Augen die beste Lösung. Je nach Art des Kanals ist eine kollaborative, inhaltliche oder interaktive Moderation am geeignetsten.