Was tun gegen Hassrede im Netz?
06. Juni 2017
Hass-Rede in den sozialen Medien eindämmen - das will Bundesjustizminister Heiko Maas (SPD) mit dem geplanten "Netzdurchsetzungsgesetz" (NetzDG) erreichen, das sich bereits in parlamentarischer Beratung befindet. So sehr sie die Motivation dahinter auch verstehen, sagen die Kritiker dennoch: Das Gesetz ist der falsche Ansatz. Denn: Die Rechtssprechung dürften nicht Plattformbetreiber übernehmen. Was könnte man stattdessen - insbesondere als Kirche - noch gegen "Hate Speech" tun?
"Was hier kommt und als Flüchtlinge deklariert auf unser Volk losgelassen wird, sind mehr Tiere als Menschen". Das schrieb ein 67-Jähriger als Facebook-Kommentar. Seine Hassbotschaft blieb nicht unbemerkt: Er wurde schließlich vom Amtsgericht in Elmshorn wegen Volksverhetzung zu einer Geldstrafe verurteilt. Doch ein solches Verfahren ist noch immer die Ausnahme.
Hasskommentare im Netz, die einzelne Personen oder ganze Gruppen herabsetzen und diffamieren, sind ein wachsendes Problem - nicht nur für die Social Media Manager von Seiten in sozialen Netzwerken. Deshalb soll nun ein Gesetz her, dass das Problem eindämmen soll.
Worum geht es eigentlich?
Mit dem Netzdurchsetzungsgesetz will Maas Betreiber sozialer Netzwerke dazu verpflichten, rechtswidrige Inhalte schneller und konsequenter zu löschen. "Offensichtlich strafbare Inhalte", die von anderen Nutzern gemeldet wurden, sollen binnen 24 Stunden gelöscht werden. Zudem sollen Unternehmen wie Facebook darüber Auskunft geben, wie sie gegen strafbare Inhalte vorgehen und sowie gut erreichbare Beschwerdestellen für Nutzer schaffen. Verstöße gegen diese Pflichten können Maas' Plänen zufolge mit einer Geldbuße in Höhe von mehreren Millionen Euro geahndet werden.
Wo liegt das Problem?
Verschiedene Rechtswissenschaftler, Organisationen, Stiftungen und Verbände, darunter unter anderem bitkom und der Deutschen Journalisten-Verband, sehen den Gesetzesentwurf jedoch sehr kritisch. Sie haben eine gemeinsame "Deklaration für die Meinungsfreiheit" in Reaktion auf Verabschiedung des Netzdurchsetzungsgesetzes durch das Bundeskabinett am 5. April unterzeichnet. Darin wird vor allem folgender Grundsatz verdeutlicht: Die Entscheidung, ob ein Inhalt rechtswidrig oder strafrechtlich relevant ist, kann nur der Staat mit allen gebotenen und ihm zur Verfügung stehenden Mitteln entscheiden - nicht aber die Plattformen selbst. "Internetdiensteanbietern kommt bei der Bekämpfung rechtswidriger Inhalte eine wichtige Rolle zu, indem sie diese löschen bzw. sperren", heißt es in der Erklärung. "Sie sollten jedoch nicht mit der staatlichen Aufgabe betraut werden, Entscheidungen über die Rechtmäßigkeit von Inhalten zu treffen." Kurzum: Die Verantwortung darf nicht auf private Anbieter abgeschoben werden.
Ein "Sog des Löschens" könnte drohen
Der Hintergrund ist: Bis heute ist in großen Teilen unklar, nach welchen Kriterien Anbieter wie Facebook Inhalte löschen. Das Gesetz könnte einen "Sog des Löschens" hervorrufen, meint Ingo Dachwitz, Journalist bei netzpolitik.org. "Wenn es eine Verpflichtung gibt, Straftaten binnen 24 Stunden zu löschen, weil sonst empfindlich hohe Strafen drohen, wird im Zweifelsfall eher noch mehr als weniger gelöscht." Da Facebook-Moderatoren in der Regel nur wenige Sekunden Zeit haben, um über einen Beitrag zu entscheiden, könnte ein großer Teil der Inhalte überhaupt nicht richtig erfasst werden. "Da gibt es hochkomplexe Fälle, ob etwas über die Meinungsfreiheit abgedeckt ist oder nicht", sagt Dachwitz. "Und die müssten ausgehandelt werden, damit die Meinungsfreiheit nicht beschädigt wird."
"Demokratie nährt sich an einem pluralistischen Meinungsbild"
Darauf geht auch die Deklaration ein. "Sie [Die Meinungsfreiheit] geht so weit, dass eine Gesellschaft auch Inhalte aushalten muss, die nur schwer erträglich sind, sich aber im Rahmen der gesetzlichen Regelungen bewegen", heißt es in dem Text. "Die Demokratie nährt sich an einem pluralistischen Meinungsbild." Damit argumentiert auch Dachwitz: "Das Grundphänomen Hass bekommt man nicht in den Griff, wenn man bestimmte Dinge von der öffentlichen Plattform verdrängt", sagt der Journalist. "Es geht darum, sich als eine demokratische Zivilgesellschaft stark zu machen und entschieden zu widersprechen."
"Das Gesetz ist zu ungenau"
Nicht zuletzt Facebook selbst beschwert sich in einer Stellungnahme, dass das Gesetz in vielen Fällen unscharf sei: Weder sei genau geklärt, welche Dienste unter die Regelung fallen noch regele das Gesetz, wann ein Inhalt genau als "Hate Speech" bzw. "Fake News" zu klassifizieren sei. Zumal es laut Reporter ohne Grenzen schwierig ist, den Wahrheitsgehalt bei journalistischen Berichten zu prüfen, deren Quellen öffentlich nicht zugänglich sind.
Das Fazit der Kritiker ist kurzum: Das Gesetz ist gut gemeint, schießt aber weit über das Ziel hinaus.
Gibt es auch etwas Positives an dem Gesetz?
Trotz der massiven Kritik an dem Gesetzesentwurf gibt es auch zumindest einen positiven Aspekt: "Die Arbeit von Strafverfolgungsbehörden wird erleichtert, indem die Plattformbetreiber dann die Verpflichtung haben einen Briefkasten oder eine Meldestelle einzurichten, sodass gleich klar ist, an wen sie sich wenden können", sagt Ingo Dachwitz. Wenn man den Gesetzesentwurf verbessern wollte, müsste mindestens eine Regelung darin stehen, dass die Pflicht nicht nur darin besteht, strafbare Inhalte zu löschen, sondern auch ein Verbot beinhaltet, die nicht-strafbaren Inhalte zu löschen.
"Grundsätzlich bin ich aber der Meinung, dass das Gesetz der falsche Weg ist“, so der Journalist. "Die notwendigen Investitionen in Personal, Schulung und Technik bei Staatsanwaltschaften und Gerichten sind aber natürlich teurer für den Staat, als die Verantwortung auf Plattformbetreiber abzuschieben."
Stärkung von Gegenrede und Medienkompetenz
Auch die Deklaration der Meinungsfreiheit schließt mit dem Satz: "Wir setzen uns daher für eine gesamtgesellschaftliche Lösung ein, durch die strafwürdiges Verhalten konsequent verfolgt wird, Gegenrede und Medienkompetenz gestärkt werden und ein die Meinungsfreiheit respektierender Rechtsrahmen für die Löschung oder Sperrung rechtswidriger Inhalte erhalten bleibt."
Was kann man stattdessen tun?
Info
Neben der viel genannten Forderung, dass Justizapparat und Staatsanwaltschaften technisch und personell so ausgestattet werden sollten, um auf entsprechende Fälle schnell reagieren zu können, gibt es auch Tipps für die Nutzerseite. Christiane Germann, die unter "Amt 2.0" öffentliche Verwaltungen in Fragen zu den sozialen Netzwerken berät, sagt zwar, dass weder Journalisten noch erfahrene Social Media Manager derzeit eine Lösung für das Phänomen parat haben. "Der kleinste gemeinsame Nenner, auf den sich alle einigen konnten ist: Ignorieren ist keine Lösung", so Germann. "Daher sehe ich auch äußerst kritisch, dass Medien wie der Spiegel oder die Süddeutsche die Kommentarspalten ihrer Online-Präsenzen abgeschafft haben oder Diskussionen nur noch zu ausgewählten Themen zulassen."
"Fight the trolls"
Das Community Management müsse daher mit ausreichend Personal ausgestattet sein, dem es möglich ist, alle Kommentare zu lesen, um diffamierende oder beleidigende Einträge, die gegen die Diskussionsrichtlinien verstoßen, zu löschen und/oder sogar zu melden - sich aber mit kritischen Beiträgen auch inhaltlich auseinanderzusetzen. "Antworten Sie, falls der Beitrag eine sachliche Frage statt nur rhetorischer Anmerkungen enthält", rät Germann. Es gelte nun nicht mehr "Don't feed the trolls" - gib den Trollen, also den Verbreitern von Hasskommentaren, keine Nahrung, sondern (überspritzt): "Fight the trolls". Da helfe manchmal auch, mit Ironie zu reagieren.
Digitale Nächstenliebe
Unter dem Hashtag #ichbinhier setzen sich zudem Nutzer, die auch eine Facebook-Gruppe gegründet haben, für eine bessere Diskussionskultur im Netz ein. "Sie versuchen eine Art Gegenwehr mit positiven Kommentaren zu organisieren an den Stellen, wo andere Nutzer Hilfe brauchen", sagt Dachwitz. Seiner Meinung wäre das auch eine gute Strategie für Kirchen, also etwa Pfarrerinnen und Pfarrer so zu schulen und zu vernetzen, dass sie in den sozialen Medien an den entsprechenden Stellen auf Hasskommentare reagieren können. "Wenn jemand in der Kirchengemeinde menschenverachtende Parolen rufen würde, würde man dem ja auch widersprechen", so Dachwitz. "Es müsste mehr 'digitale Nächstenliebe' geben."
Worum geht es überhaupt?
Mit dem Gesetz will Maas Betreiber sozialer Netzwerke mit mehr als zwei Millionen Nutzern dazu verpflichten, rechtswidrige Inhalte schneller und konsequenter zu löschen. "Offensichtlich strafbare Inhalte", die von anderen Nutzern gemeldet wurden, sollen binnen 24 Stunden von den Plattformen verschwinden. Zudem sollen Unternehmen wie Facebook oder Twitter darüber Auskunft geben, wie sie gegen strafbare Inhalte vorgehen und sowie gut erreichbare Beschwerdestellen für Nutzer schaffen. Verstöße gegen diese Pflichten können Maas' Plänen zufolge mit einer Geldbuße in Höhe von mehreren Millionen Euro geahndet werden.
Wo liegt das Problem?
Verschiedene Rechtswissenschaftler, Organisationen, Stiftungen und Verbände, darunter unter anderem bitkom und der Deutschen Journalisten-Verband sehen den Gesetzesentwurf sehr kritisch. Sie haben eine gemeinsame "Deklaration für die Meinungsfreiheit" in Reaktion auf Verabschiedung des Netzdurchsetzungsgesetzes durch das Bundeskabinett am 5. April unterzeichnet. Darin wird vor allem folgender Grundsatz verdeutlicht: Die Entscheidung, ob ein Inhalt rechtswidrig oder strafrechtlich relevant ist, kann nur der Staat mit allen gebotenen und ihm zur Verfügung stehenden Mitteln entscheiden - nicht aber die Plattformen selbst. "Internetdiensteanbietern kommt bei der Bekämpfung rechtswidriger Inhalte eine wichtige Rolle zu, indem sie diese löschen bzw. sperren", heißt es in der Erklärung. "Sie sollten jedoch nicht mit der staatlichen Aufgabe betraut werden, Entscheidungen über die Rechtmäßigkeit von Inhalten zu treffen."
Der Hintergrund ist: Bis heute ist in großen Teilen unklar, nach welchen Kriterien Anbieter wie Facebook Inhalte löschen. Das Gesetz könnte einen "Sog des Löschens" hervorrufen, meint Ingo Dachwitz, Journalist bei netzpolitik.org. "Wenn es eine Verpflichtung gibt, Straftaten binnen 24 Stunden zu löschen, weil sonst empfindlich hohe Strafen drohen, wird im Zweifelsfall eher noch mehr als weniger gelöscht." Da Facebook-Moderatoren in der Regel nur wenige Sekunden Zeit haben, um über einen Beitrag zu entscheiden, könnte ein großer Teil der Inhalte überhaupt nicht richtig erfasst werden. "Da gibt es hochkomplexe Fälle, ob etwas über die Meinungsfreiheit abgedeckt ist oder nicht", sagt Dachwitz. "Und die müssten ausgehandelt werden, damit die Meinungsfreiheit nicht beschädigt wird."
Darauf geht auch die Deklaration ein. "Sie [Die Meinungsfreiheit] geht so weit, dass eine Gesellschaft auch Inhalte aushalten muss, die nur schwer erträglich sind, sich aber im Rahmen der gesetzlichen Regelungen bewegen", heißt es in dem Text. "Die Demokratie nährt sich an einem pluralistischen Meinungsbild." Damit argumentiert auch Dachwitz: "Das Grundphänomen Hass bekommt man nicht in den Griff, wenn man bestimmte Dinge von der öffentlichen Plattform verdrängt", sagt der Journalist. "Es geht darum, sich als eine demokratische Zivilgesellschaft stark zu machen und entschieden zu widersprechen."
Nicht zuletzt Facebook selbst beschwert sich in einer Stellungnahme, dass das Gesetz in vielen Fällen unscharf sei: Weder sei genau geklärt, welche Dienste unter die Regelung fallen noch regele das Gesetz, wann ein Inhalt genau als "Hate Speech" bzw. "Fake News" zu klassifizieren sei. Zumal es laut Reporter ohne Grenzen schwierig ist, den Wahrheitsgehalt bei journalistischen Berichten zu prüfen, deren Quellen öffentlich nicht zugänglich sind.
Das Fazit der Kritiker ist kurzum: Das Gesetz schießt über das Ziel hinaus.
Gibt es auch etwas Positives an dem Gesetz?
Trotz der massiven Kritik an dem Gesetzesentwurf gibt es auch zumindest einen positiven Aspekt: "Die Arbeit von Strafverfolgungsbehörden wird erleichtert, indem die Plattformbetreiber dann die Verpflichtung haben einen Briefkasten oder eine Meldestelle einzurichten, sodass gleich klar ist, an wen sie sich wenden können", sagt Ingo Dachwitz. Wenn man den Gesetzesentwurf verbessern wollte, müsste mindestens eine Regelung darin stehen, dass die Pflicht nicht nur darin besteht, strafbare Inhalte zu löschen, sondern auch ein Verbot enthält, die nicht-strafbaren Inhalte zu löschen. "Grundsätzlich sind wir aber der Meinung, dass das der falsche Weg ist“, so der Journalist. Auch die Deklaration der Meinungsfreiheit schließt mit dem Satz: "Wir setzen uns daher für eine gesamtgesellschaftliche Lösung ein, durch die strafwürdiges Verhalten konsequent verfolgt wird, Gegenrede und Medienkompetenz gestärkt werden und ein die Meinungsfreiheit respektierender Rechtsrahmen für die Löschung oder Sperrung rechtswidriger Inhalte erhalten bleibt."
Was kann man stattdessen tun?
Neben der viel genannten Forderung, dass Justizapparat und Staatsanwaltschaften technisch und personell so ausgestattet werden sollten, um auf entsprechende Fälle schnell reagieren zu können, gibt es auch Tipps für die Nutzerseite. Christiane Germann, die öffentliche Verwaltungen in Fragen zu den sozialen Netzwerken berät, sagt zwar, dass weder Journalisten noch erfahrene Social Media Manager derzeit eine Lösung für das Phänomen parat haben. "Der kleinste gemeinsame Nenner, auf den sich alle einigen konnten ist: Ignorieren ist keine Lösung", so Germann. "Daher sehe ich auch äußerst kritisch, dass Medien wie der Spiegel oder die Süddeutsche die Kommentarspalten ihrer Online-Präsenzen abgeschafft haben oder Diskussionen nur noch zu ausgewählten Themen zulassen."
Das Community Management müsse daher mit ausreichend Personal ausgestattet sein, dem es möglich ist, alle Kommentare zu lesen, um diffamierende oder beleidigende Einträge, die gegen die Diskussionsrichtlinien verstoßen, zu löschen und/oder sogar zu melden - sich aber mit kritischen Beiträgen auch inhaltlich auseinanderzusetzen. "Antworten Sie, falls der Beitrag eine sachliche Frage statt nur rhetorischer Anmerkungen enthält", rät Germann. Es gelte nun nicht mehr "Don't feed the trolls" - gib den Trollen, also den Verbreitern von Hasskommentaren, keine Nahrung, sondern (überspritzt) "Fight the trolls".
Unter dem Hashtag #ichbinhier setzen sich zudem Nutzer, die auch eine Facebook-Gruppe gegründet haben, für eine bessere Diskussionskultur im Netz ein. "Sie versuchen eine Art Gegenwehr mit positiven Kommentaren zu organisieren an den Stellen, wo andere Nutzer Hilfe brauchen", sagt Dachwitz. Seiner Meinung wäre das auch eine gute Strategie für Kirchen, also etwa Pfarrerinnen und Pfarrer so zu schulen und zu vernetzen, dass sie in den sozialen Medien an den entsprechenden Stellen auf Hasskommentare reagieren können. "Wenn jemand in der Kirchengemeinde menschenverachtende Parolen rufen würde, würde man dem ja auch widersprechen", so Dachwitz. "Es müsste mehr 'digitale Nächstenliebe' geben."