Moderation: Wie Hass im Netz begegnen?

Schwarze Tastatur

Seit Bestehen des Internets findet im digitalen Raum Kommunikation statt: via Mail, in Foren, Videokonferenzen oder auf sozialen Netzwerken. Kommunikation im Netz kann konstruktiv, informativ oder wohlwollend sein – ebenso aber auch hasserfüllt und verletzend. Die gute Nachricht ist: Das World Wide Web ist kein rechtsfreier Raum und wir als Moderierende können und müssen Einfluss darauf nehmen, wie im Rahmen unserer Projekte und auf unseren eigenen Plattformen diskutiert wird. Um Ihnen das Thema Hate Speech näher zu bringen, haben wir uns selbst einige Fragen gestellt, die wir im Laufe dieses Artikels beantworten.

Was ist Hate Speech?

Für den Begriff Hate Speech gibt es zahlreiche, konkurrierende Definitionen. So wie wir das Wort gebrauchen, passt die deutsche Übersetzung „Hassrede“ recht gut. Denn es ist genau das: Die bewusste Verbreitung von Hass und Hetze mit dem Ziel, Worte und Bilder als Waffe gegen bestimmte Personen einzusetzen. Dabei ist es egal, ob ganz analog auf der Straße oder in einem Online Forum. Weshalb Hate Speech vor allem in Bezug zu Sozialen Netzwerken erwähnt wird: Facebook und Co. ermöglichen es, Hass auf Knopfdruck zu publizieren und sie einem großen Publikum sichtbar zu machen.


Was viele nicht wissen: Hate Speech liegt jenseits der freien Meinungsäußerung – ist also in vielen Fällen strafbar. So ist „Hate Speech“ zwar kein eigener Straftatbestand, fällt aber meistens unter andere Tatbestände wie „Volksverhetzung“, „Beleidigung“ oder „Nötigung“.


Aber Achtung: Nicht jeder toxische oder bösartige Kommentar ist gleich Hate Speech. Wenn mich jemand in einer Twitter-Diskussion „beknackt“ nennt, dann ist das zwar nicht nett – aber auch keine Hassrede.

Hate Speech umfasst ganz konkret:

  • Drohungen
  • Nötigungen
  • Verunglimpfungen
  • Aufforderungen zu Straftaten
  • Volksverhetzung
  • Verfassungsfeindlichkeit

Dabei bezieht sich Hate Speech häufig auf Menschengruppen, die bereits gesellschaftlicher Diskriminierung ausgesetzt sind, oder auf Leute, die sich mit diesen Menschen solidarisieren. „Gruppenbezogene Menschenfeindlichkeit“ in Form von Hate Speech kann sich dabei auf die Religion, ethnische Herkunft, nationale Herkunft, Geschlecht, Behinderung, sexuelle Orientierung oder Geschlechtsidentität einer Person beziehen.


Wenn mir also eine Person androht, meinen Wohnort aufzusuchen und mich aufgrund meines Geschlechts zu missbrauchen, dann ist das Hate Speech und sollte auf jeden Fall angezeigt werden.

In welchen Kontexten werden wir bei ifok mit Hassrede konfrontiert?

Wir bei ifok sind Moderatorinnen und Moderatoren. Bei jedem Infomarkt schreiten wir ein, wenn ein Teilnehmer anfängt, eine andere Person wüst zu beschimpfen und zu diffamieren. Hier kann es so weit gehen, dass wir der Person Platz- bzw. Hausverbot erteilen.
Auch online sind wir Moderatorinnen und Moderatoren – von Blogs, von Social-Media-Kanälen. Und auch hier ist es unsere Pflicht aktiv zu moderieren und Hate Speech komplett aus unseren Kanälen zu verbannen.

Was tun wir, um Hate Speech zu verhindern und Betroffene zu schützen?

Ganz klar: Wer Hate Speech begegnet, soll sie anzeigen – zum Beispiel via Online Strafanzeige. Analog ist das manchmal schwierig, da Personen oft genauso schnell von der Bildfläche verschwinden, wie sie aufgetaucht sind. Im Netz allerdings verbreiten viele Menschen nachweisbaren Hass – und das zum Teil unter ihrem Klarnamen.


Mit dem Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken nimmt der Gesetzgeber die Netzwerke selbst in die Verantwortung. Facebook und Co. sind dazu verpflichtet Hass und andere rechtswidrige Kommentare zu löschen sowie auf Beschwerden einzugehen. Das entbindet uns als Kanalinhaber aber nicht von der Moderationsverantwortung.


Was konkret zu tun ist, wenn Hate Speech auf eigenen Plattformen geäußert wird, haben zudem die neuen deutschen medienmacher*innen auf ihrem Helpdesk zusammengefasst.

Was tun wir, um eine angenehme Diskussionskultur zu fördern?

Wie eben beschrieben, ist es unsere Pflicht vor Hassrede zu schützen. Darüber hinaus liegt es außerdem bei der Moderation ein angenehmes Diskussionsklima herzustellen. Denn: Toxische Kommentare veranlassen User dazu die Diskussion zu verlassen – und genau das wollen wir auf keinen Fall. Wir möchten aktive und lebendige Beteiligung. Und wir möchten, dass Menschen gerne auf unseren Kanälen bleiben und mitreden.


Die Herausforderung: transparente Moderation ist ein schmaler Grat. Denn: Moderieren wir zu lasch, verlassen genervte User die Diskussion. Moderieren wir zu streng, könnte dies als Reglementierung oder gar „Zensur“ empfunden werden. Egal was wir tun: Wir müssen begründen warum wir es tun. Und dafür ist es essenziell, dass wir uns auf ein feststehendes Regelwerk berufen können.


Einer der ersten Schritte beim Aufsetzen eines gelungenen Online-Dialoges ist deshalb die Erstellung einer Netiquette. Für eine richtig strenge Netiquette empfehle ich einen Blick auf die großen Medienhäuser. Bei Bild, FAZ und Co. überflutet regelmäßig Hass die Kommentarspalten. Diese Medienhäuser kennen daher schon einiges und passen ihre Texte regelmäßig an.

Moderation von Kommentaren

Bei einem Kommentar, der gegen unsere Netiquette verstößt, haben wir folgende Möglichkeiten:

  • Kommentar kürzen oder entfernen
  • Userinnen/User von der Diskussion ausschließen

Um Zeit zu sparen, haben sich die folgenden Methoden bewährt:

  • Textbausteine für (kritische) Moderation anlegen
  • Auf Userinnen/User vertrauen, die Dinge melden
  • Nur Kommentare von neuen Usern systematisch prüfen
  • Nur bei provokanten Themen mitlesen
  • Klare Zuständigkeiten in der Moderation / Schichtplan aufstellen

Bei heißen Themen, die ohne Grund immer wieder hochkochen, können wir auf unseren eigenen Medien:

  • die Kommentarfunktion im Verlauf abschalten
  • von Beginn an Kommentare unterbinden

Wo finde ich weitere Informationen?

Das Thema Hatespeech ist für Medienschaffende im Netz brisant. Darum gibt es zu Hass und Hetze im Netz ein breites Angebot – unter anderem auf diesen Internetseiten:

Sie haben Fragen oder Anregungen? Sprechen Sie uns gerne an!

Ihre Ansprechpartnerin

Portrait Sonja Petrullat

Sonja Sauer

Consultant | Kommunikation

Telefon+49 6251 8263-131
E-Mailsonja.sauer@ifok.de

Zurüch nach oben