Was ist das Problem mit dem Gesetz gegen Hasskommentare im Internet?

In der Rubrik „Aussenansicht“ der heutigen Süddeutschen Zeitung argumentiert Maram Stern, stellvertretender Geschäftsführer des Jüdischen Weltkongresses, die Kritik an Heiko Maas‘ Gesetzentwurf gegen Hass im Internet sei oft unfair. Seine Argumente sind ein wichtiger Beitrag zur Debatte, insbesondere weil in ihnen klar wird, wie uninformiert die politische Diskussion über die Regulierung des Internets auch fünfundzwanzig Jahre nach dessen „Erfindung“ noch geführt wird. Zwei Aspekte sind es besonders, die die Debatte belasten, und die auch exemplarisch im Beitrag von Maram Stern deutlich werden.

Der erste Aspekt ist, dass auf einer strafjuristischen Detailebene argumentiert wird, die verfassungsrechtliche Grundprinzipien – in diesem Fall die notwendige Abwägung gegen andere Rechtsgüter – vollkommen ausblendet. Die Norm des Grundgesetzartikels 5, die Medien- und Kommunikationsfreiheiten fänden „ihre Grenzen in den Schranken der allgemeinen Gesetze“ – also z.B. der Verleumdung, Beleidigung, Hasspropaganda etc. – ist keine absolute Unterwerfung der Verfassung unter Detailregeln des Strafrechts, sondern eine Forderung nach einer Abwägung von Grundrechten. In jedem speziellen Einzelfall muss geprüft werden, ob das Interesse der Öffentlichkeit an einer offenen Debatte über ein wichtiges gesellschaftliches Thema höher zu gewichten ist als Grenzüberschreitungen im Ton von Debattenbeiträgen. Und dabei geht es gar nicht darum, ob man solche grenzüberschreitenden Beiträge dulden muss, sondern darum, welche Folgen eine Nicht-Duldung für ganz normale Meinungsäußerungen hat. Das Bundesverfassungsgericht und auch die meisten deutschen Gerichte halten sich mit der Verfolgung von Kommunikationsinhalten mit guten Gründen zurück. Das Verfassungsgericht hat mehrmals in seinen Entscheidungen zur Vorratsdatenspeicherung festgehalten, dass solche Maßnahmen der Verfolgung von Kommunikation nicht nur Illegales verhindern kann, sondern durch die Angst davor, eventuell verfolgt zu werden, viele Menschen auch davon abhalten kann, völlig legitime und auch legale Äußerungen zu machen. Das übliche Argument, es würden ja nur die wirklich bösen Dinge gelöscht und verfolgt (und wer nichts zu verbergen oder nichts Falsches getan habe, habe deswegen nichts zu befürchten), greift hier also nicht, weil alleine die Drohung erhebliche negative Folgen für den politischen Diskurs haben kann, die die positiven Folgen weit überwiegen können. Dies ist eines der Hauptargumente der Gegner des Gesetzentwurfes, gegen das ich bisher keine überzeugende Gegenrede gesehen habe, erst recht nicht im Beitrag von Maram Stern.

Das zweite Problem und eine wesentliche Ursache dafür, dass die Politik seit zwanzig Jahren nicht in der Lage ist, digitale Medien regulatorisch in den Griff zu bekommen, ist der Umstand, dass man sich mit den medialen Strukturen dieser neuen Technologien, Plattformen und Unternehmen nicht auseinandersetzt oder auseinandersetzen will. So wird sehr häufig nur von den „Unternehmen“ und deren Verantwortung gesprochen, ohne genau zu benennen, was das eigentlich für Unternehmen sind. Es werden – auch hier von Herrn Stern – untaugliche Vergleiche hergestellt mit Unternehmen aus der alten Medienwelt: Jeder Chefredakteur müsse ja auch für das gerade stehen, was in seiner Publikation veröffentlicht wird. Natürlich, denn er ist für alle Inhalte verantwortlich, die von seinen bezahlten Mitarbeitern produziert werden; Facebook produziert aber gar keine Inhalte. Sondern? Die Frage, was eigentlich die genaue Leistung einer solchen Plattform in unseren heutigen Medienlandschaften ist, hat die Politik bisher nie definiert, meist wird nur darauf verwiesen, sie würden mit Inhalten irgendwie Geld verdienen. Plattformen wie Facebook liegen als sogenannte „neue Intermediäre“ irgendwo zwischen alten Medienunternehmen wie Verlagen und Fernsehsendern einerseits und reinen Infrastrukturanbietern wie der Telekom oder den Kabelnetzbetreibern andererseits. Erstere sind für alle Inhalte selbstverständlich voll verantwortlich, weil sie sie alle selbst einkaufen, produzieren und verbreiten, letztere sind für Inhalte nicht verantwortlich, weil sie keinerlei Möglichkeit haben, jedes Bit an Daten in ihren Netzen zu überprüfen. Das Feld dazwischen ist bis heute eine regulatorische Wüste – hier müsste die deutsche und europäische Politik tätig werden, etwa indem man die Rolle dieser Unternehmen im Konzert der Medien definiert und deren Funktionen und Verantwortlichkeiten beschreibt.

Würde man das tun, würde man vermutlich auf ein Monopolproblem stoßen, das solche Vergleiche von Facebook mit anderen Medienunternehmen aus einem anderen Grund besonders gefährlich macht. Denn die Presse in Deutschland – und auch der privatwirtschaftliche Rundfunk – sind nach dem Prinzip des Aussenpluralismus organisiert, bei dem es jedem Unternehmen freigestellt ist, seinen Inhalt so zusammenzustellen wie es will und dabei ganz nach Wunsch Themen und Beiträge auszuschließen, die andere Publikationen eventuell berichten wollen. Am Ende ist in der Summe in der gesamten Presselandschaft doch meist jeder Aspekt irgendwo vertreten und auffindbar. Genau dies ist aber anzuzweifeln, würde man – nach einer entsprechenden politischen Debatte und Gesetzgebung – Social Media als einen eigenständigen Medienmarkt definieren. Facebook hatte in Deutschland auf einem solchen Markt wohl Marktanteile, die in Rundfunk oder Presse alle Alarmglocken schrillen lassen würden. Es gibt kaum einen ernstzunehmenden Konkurrenten zum Facebook-WhatsApp-Konglomerat, immer mehr junge Menschen beziehen ihre politischen Informationen nur noch über diese Netzwerke. Die Kuratierung dieses Informationsmenüs alleine einem Quasi-Monopolunternehmen (das ja nach wie vor aus einer sehr kleinen Truppe kalifornischer Jungunternehmer mit ein paar zugekauften Tech-Experten besteht) zu überlassen, inklusive der Entscheidung, was gelöscht werden soll, ist deshalb nicht in erster Linie eine juristische oder moralische Frage, sondern eine Frage, in der entschieden wird, wie die politische Öffentlichkeit in unserem Land zukünftig organisiert werden soll.

Zum Schluss, das ist aber ein Randaspekt, überrascht mich insbesondere die Aussage von Herrn Stern, man müsse sich dem gesellschaftlichen Phänomen des Hasses im Netz widmen, denn: „früher gab es das nicht“; natürlich gab es das früher nicht, soweit es sich auf „das Netz“ bezieht, denn das Netz gibt es erst seit den 1990er Jahren. Dass es das gesellschaftliche Problem des Hasses und insbesondere des Antisemitismus früher nicht gab, kann er allerdings kaum meinen. Dass ausgerechnet Herr Stern eine solch einfache Löschung von Kommentaren favorisiert, die das Problem als gesellschaftliche Herausforderung sicherlich nicht lösen wird, sondern der unseligen Tradition des Ausblendens und Wegschauens folgt, finde ich irritierend und auch enttäuschend.

Die Behauptung schließlich, Kritikern – wie mir und vielen anderen – „geht es offensichtlich um etwas anderes – wirtschaftliche Interessen„, ist angesichts der oben dargelegten Argumente abwegig. Selbstverständlich verdient Facebook mit seinen Angeboten zur öffentlichen Kommunikation viel Geld – um das zu verhinden jedoch wesentliche Grundpfeiler demokratischer Öffentlichkeit einzureißen, schüttet das Kind mit dem Bade aus, um mal ein altertümliches Sprachbild zu bemühen.

Abschließend will ich festhalten, dass ich mich keinesfalls gegen einen Kampf gegen Hass im Internet stelle, im Gegenteil, wir beginnen gerade mit einem großen, dreijährigen Forschungsprojekt, das sich exakt damit beschäftigen wird: wie können Hassbeiträge im Netz erkannt und klassifiziert werden und welche redaktionellen Gegenstrategien können auf dieser Basis erfolgreich sein – ein Projekt, das Hassbeiträge nicht zensieren und ausblenden, sondern aktiv beobachten und inhaltlich substanziell bekämpfen helfen soll.

Berichterstattung über den Berliner „U-Bahn-Treter“

Ich bin vergangene Woche zum Fall des sog. Berliner U-Bahn-Treters von dpa interviewt worden, und zwar zur Frage, was das Video von der Tat so attraktiv macht und zu dessen großer Verbreitung geführt hat. In der Folge bin ich in manchen Medien mit der Aussage zitiert worden, „Es spielt aber sicher auch eine Rolle, dass am Ende ja zum Glück nichts so Dramatisches passiert ist“, wodurch der Eindruck entstand, ich würde mich in zynischer oder unmenschlicher Weise über das Opfer äußern und dessen Leid nicht anerkennen.

Das ist selbstverständlich nicht richtig; ich halte die Tat wie jeder andere vernünftige Mensch für ungeheuerlich und das Opfer hat mein ganzes Mitgefühl. Meine Aussage beschreibt nicht meine persönliche Haltung zur Tat, sondern den Umgang des normalen Mediennutzers mit dem Video von der Tat in einer normalen Nutzungssituation (wobei ich selbstkritisch zugebe, dass ich wie jede/r Andere in meiner täglichen Mediennutzung oft genug ebenso unreflektiert handle). Und da ist es nun mal leider so, dass die Bilder der Tat für Nutzerinnen und Nutzer erstens sehr „attraktiv“ sind, weil sie viele Indentifikationsmöglichkeiten (mit dem Opfer, gegen die personalisierten Täter) bieten und zweitens sozial hemmende Faktoren, wie etwa das Leid des Opfers in Großaufnahme, Blut oder auch das Wissen darüber, dass das Opfer dramatische Folgen bis hin zum Tod erlitten hat, darin nicht unmittelbar sichtbar sind. Was zu meiner zitierten Aussage also gehört, wäre die Einschränkung „… aus Sicht von Nutzern in der konkreten Nutzungssituation …“. Die gesamte längere Interviewpassage, aus der der Satz stammt, dreht sich eigentlich ausschließlich um die Analyse der Situation aus Nutzerperspektive, so dass mir bei Abnahme des Interviews (die dpa mir durchaus erlaubt hat) nicht aufgefallen ist, wie die Aussage ohne Kontext wirken würde; ohne diesen Kontext, wie sie aber leider in mehreren Medien aufgetaucht ist, hat sie eine Schlagseite, die so meine Haltung nicht ausdrückt und von der ich mich selbstverständlich distanziere.

Als Hintergrund kann ich hier vielleicht auch noch anmerken, dass es im Rahmen von Interviews mit Journalisten häufig zu einem längeren Aushandlungsprozess kommt, bei dem Journalisten möglichst klare, prägnante Aussagen haben wollen („Die Medien haben die Wirkung XY“), während man als Wissenschaftler auf den verschiedensten Gültigkeitsbedingungen für Aussagen bestehen muss („in der Regel“, „soweit wir bisher wissen“, „eine mögliche Schlussfolgerung wäre“, „unter der Annahme, dass“). Verkompliziert wird das Ganze noch dadurch, dass die Umfangsrestriktionen von Medien nur begrenzt Raum lassen für detaillierte Erläuterungen (und viele Menschen Details auch gar nicht hören/lesen wollen). Das Ergebnis ist, dass man nach einem Interview oft sehr stark verkürzte Zusammenfassungen der eigenen Aussagen zu sehen bekommt, die man dann versucht, in eine für den Wissenschaftler erträgliche Kompromissvariante zurechtzurücken. Ich persönlich bin dabei meist eher zurückhaltend, weil ich der Ansicht bin, dass es besser ist, wenn trotz gelegentlicher Verkürzung kommunikationswissenschaftliche Befunde ab und zu eine breitere Öffentlichkeit erreichen, als wenn man aus Angst vor verkürzter Darstellung unsere Arbeit im Elfenbeinturm einschließt. Aber manchmal geht das eben auch schief.

Open-Access als „verordneter Gezeitenwechsel“?

Der Jeaner Kollege und Geschichtswissenschaftler Norbert Frei äußert sich heute im Meinungsteil der Süddeutschen Zeitung über die Open-Access-Strategie der Bundesbildungsministerin Johanna Wanka. Als Geschichtswissenschaftler stammt er aus einer Fachtradition, die eher längere Zeiträume im Blick hat, in der das schnelle Publizieren neuer Erkenntnisse keine besondere Priorität hat, die häufiger in konkreten kulturellen und nationalen Kontexten forscht und die deshalb von den Entwicklungen der Digitalisierung (schnelle, globale Verfügbarkeit von Informationen) im Publikationswesen deutlich weniger profitiert als andere Fächer, etwa die Naturwissenschaften. Aus seiner Perspektive hat er Grund, gewisse Entwicklungen im Publikationswesen zu kritisieren, allerdings geht es in seinem Beitrag um diese spezifischen Probleme kaum. Drei Dinge muss man an seinem Beitrag kritisieren:

Erstens: die zum Teil unsachliche, manipulative und gehässige Argumentationsweise, die ich für unangemessen halte und die ich als politischer Kommunikationsforscher besonders kritikwürdig finde. So zitiert Norbert Frei in längeren Passagen Positionen der Bildungsministerin sowie der Piratenpartei, ohne sie inhaltlich wirklich zu widerlegen; stattdessen werden deren Argumente pauschal damit abqualifiziert, dass es sich bei letzterer um eine „im Untergang begriffene“ Partei von „Freibeutern“ handele: wer will sich schon mit diesen Verlierern solidarisieren, indem er „bei solchen Sätzen natürlich begeistert [applaudiert]“? Ebenso geht es Frau Wanka: Sie fördert so lächerliche Dinge wie „Lehrstühle für Mathematik in Afrika“ – kann man eine solche Ministerin noch ernst nehmen, wenn sie über andere Themen wie Open-Access spricht (egal, welche Argumente sie hat)? Und wie lächerlich ist eigentlich der Begriff „Grüner Weg des Open-Access„? „Grün“ im Sinne von „ökologisch“ ist Open-Access ja gar nicht automatisch; Haha! Ironische Zitate ersetzen den sachlichen Beleg und transportieren nichts außer der Drohung sozialer Isolation.

Zweitens: Absichtlich oder unabsichtlich vermengt Norbert Frei die Dimensionen „digital vs. Papier“ sowie „Journal- vs. Monographie-Publikation“ und spitzt sie darüber hinaus noch auf zwei unvereinbare Alternativen zu. Beides trifft aber nicht zu: erstens bedeutet Open-Access natürlich nicht automatisch, dass Texte nur noch online auf dem Bildschirm lesbar sind; wie Frei (in seiner eigenen Argumentation etwas widersprüchlich) selbst zugesteht, kann man alles natürlich auch ausdrucken oder parallel gar als echtes Buch mit Hardcover und Goldschnitt vertreiben, selbst auf dem „Goldenen Weg“ des Open-Access. Praktisch ist es aber nun einmal so, dass digitale Veröffentlichung die Nutzung wissenschaftlicher Texte erheblich steigert, weshalb es auch für Historiker sinnvoll ist, digitale Zugänglichkeit als zusätzlichen Zugangsweg zu fördern; jeder, der es möchte, kann seinen digitalen Text weiterhin auch gedruckt vertreiben; wie das zu organisieren ist, zeigt z.B. unsere Open-Access-Buchreihe „Digital Communication Research“ unter dem Dach der DGPuK-Fachgruppe „Digitale Kommunikation“. Dieses Beispiel zeigt außerdem, dass Open-Access für Monographien genauso funktionieren kann wie für Journals. Zwar ist richtig, dass Open-Access aufgrund der bereits existierenden Strukturen im Wissenschafts- und Publikationswesen für Journals besser organisierbar ist und die positiven Effekte (Schnelligkeit, Verbreitung, Globalität) unmittelbarer wirken können; umgekehrt sehe ich aber nicht, dass das Publizieren in Monographie-Form durch die digitale Publikationsform erschwert würde. Open-Access-Initiativen zu unterstellen, sie würden Geisteswissenschaftlern ihre traditionellen Publikationswege wegnehmen und sie zur Journal-Publikationsweise zwingen wollen, ist deshalb meiner Ansicht nach schlicht nicht begründbar (zumindest nicht mit wissenschaftsbezogenen Argumenten; aus kommerzieller Perspektive sieht das evtl. anders aus, s. dazu weiter unten).

Drittens: Das eigentliche Problem, das durch Open-Access behoben werden soll, ist die mittlerweile dramatische Behinderung der Verbreitung von Wissen durch quasi-monopolistische Großverlage, die – das beschreibt Norbert Frei ganz richtig – mit wenig eigenem Einsatz viel Geld verdienen, indem sie kostenlose Eigenleistungen von Wissenschaftlern (als Herausgeber, Autoren und Gutachter) und bereits mehrfach vom Steuerzahler finanzierten Content (als Befunde aus z.B. steuerfinanzierter Grundlagenforschung) den vom Steuerzahler finanzierten Universitäten nochmal ganz neu verkaufen, als hätten sie selbst irgendwas produziert. Frei beschreibt dieses Problem anhand der kommerziellen Open-Access-Modelle eben dieser Großverlage; diese haben dieses unanständige Geschäftsmodell aber schon vor langer Zeit in der noch analogen Publikationswelt entwickelt und perfektioniert und versuchen nun, z.T. durchaus erfolgreich, es in die digitale Welt zu transferieren. Genau an diesem Punkt müssten Debatten innerhalb der Wissenschaften eigentlich ansetzen: Wie lässt sich, mit Hilfe neuer digitaler Technologien, die Sichtbarkeit und Nutzbarkeit wissenschaftlicher Befunde erhöhen und dabei die Verschwendung von Steuergeldern stoppen?

Dabei müssten dann auch die Interessen der beteiligten Fächer und Fachkollegen transparent auf den Tisch. Zu diesen gehört, dass Geisteswissenschaftler – und darunter Historiker nicht zuletzt – nicht nur andere Publikationstraditionen haben, sondern mit ihren Büchern häufiger auch außerhalb des kleinen Kreises von Fachwissenschaftlern ein größeres Publikum erreichen. Damit haben sie auch ein stärkeres kommerzielles Interesse an Buchpublikationen und den Vertriebsstrukturen klassischer Verlage als Forscher aus anderen Fächern: Die überwiegende Mehrzahl der Wissenschaftler verdient so oder so nichts an ihren Publikationen. Auch das würde zur Ehrlichkeit der Debatte gehören.