Was ist das Problem mit dem Gesetz gegen Hasskommentare im Internet?

In der Rubrik „Aussenansicht“ der heutigen Süddeutschen Zeitung argumentiert Maram Stern, stellvertretender Geschäftsführer des Jüdischen Weltkongresses, die Kritik an Heiko Maas‘ Gesetzentwurf gegen Hass im Internet sei oft unfair. Seine Argumente sind ein wichtiger Beitrag zur Debatte, insbesondere weil in ihnen klar wird, wie uninformiert die politische Diskussion über die Regulierung des Internets auch fünfundzwanzig Jahre nach dessen „Erfindung“ noch geführt wird. Zwei Aspekte sind es besonders, die die Debatte belasten, und die auch exemplarisch im Beitrag von Maram Stern deutlich werden.

Der erste Aspekt ist, dass auf einer strafjuristischen Detailebene argumentiert wird, die verfassungsrechtliche Grundprinzipien – in diesem Fall die notwendige Abwägung gegen andere Rechtsgüter – vollkommen ausblendet. Die Norm des Grundgesetzartikels 5, die Medien- und Kommunikationsfreiheiten fänden „ihre Grenzen in den Schranken der allgemeinen Gesetze“ – also z.B. der Verleumdung, Beleidigung, Hasspropaganda etc. – ist keine absolute Unterwerfung der Verfassung unter Detailregeln des Strafrechts, sondern eine Forderung nach einer Abwägung von Grundrechten. In jedem speziellen Einzelfall muss geprüft werden, ob das Interesse der Öffentlichkeit an einer offenen Debatte über ein wichtiges gesellschaftliches Thema höher zu gewichten ist als Grenzüberschreitungen im Ton von Debattenbeiträgen. Und dabei geht es gar nicht darum, ob man solche grenzüberschreitenden Beiträge dulden muss, sondern darum, welche Folgen eine Nicht-Duldung für ganz normale Meinungsäußerungen hat. Das Bundesverfassungsgericht und auch die meisten deutschen Gerichte halten sich mit der Verfolgung von Kommunikationsinhalten mit guten Gründen zurück. Das Verfassungsgericht hat mehrmals in seinen Entscheidungen zur Vorratsdatenspeicherung festgehalten, dass solche Maßnahmen der Verfolgung von Kommunikation nicht nur Illegales verhindern kann, sondern durch die Angst davor, eventuell verfolgt zu werden, viele Menschen auch davon abhalten kann, völlig legitime und auch legale Äußerungen zu machen. Das übliche Argument, es würden ja nur die wirklich bösen Dinge gelöscht und verfolgt (und wer nichts zu verbergen oder nichts Falsches getan habe, habe deswegen nichts zu befürchten), greift hier also nicht, weil alleine die Drohung erhebliche negative Folgen für den politischen Diskurs haben kann, die die positiven Folgen weit überwiegen können. Dies ist eines der Hauptargumente der Gegner des Gesetzentwurfes, gegen das ich bisher keine überzeugende Gegenrede gesehen habe, erst recht nicht im Beitrag von Maram Stern.

Das zweite Problem und eine wesentliche Ursache dafür, dass die Politik seit zwanzig Jahren nicht in der Lage ist, digitale Medien regulatorisch in den Griff zu bekommen, ist der Umstand, dass man sich mit den medialen Strukturen dieser neuen Technologien, Plattformen und Unternehmen nicht auseinandersetzt oder auseinandersetzen will. So wird sehr häufig nur von den „Unternehmen“ und deren Verantwortung gesprochen, ohne genau zu benennen, was das eigentlich für Unternehmen sind. Es werden – auch hier von Herrn Stern – untaugliche Vergleiche hergestellt mit Unternehmen aus der alten Medienwelt: Jeder Chefredakteur müsse ja auch für das gerade stehen, was in seiner Publikation veröffentlicht wird. Natürlich, denn er ist für alle Inhalte verantwortlich, die von seinen bezahlten Mitarbeitern produziert werden; Facebook produziert aber gar keine Inhalte. Sondern? Die Frage, was eigentlich die genaue Leistung einer solchen Plattform in unseren heutigen Medienlandschaften ist, hat die Politik bisher nie definiert, meist wird nur darauf verwiesen, sie würden mit Inhalten irgendwie Geld verdienen. Plattformen wie Facebook liegen als sogenannte „neue Intermediäre“ irgendwo zwischen alten Medienunternehmen wie Verlagen und Fernsehsendern einerseits und reinen Infrastrukturanbietern wie der Telekom oder den Kabelnetzbetreibern andererseits. Erstere sind für alle Inhalte selbstverständlich voll verantwortlich, weil sie sie alle selbst einkaufen, produzieren und verbreiten, letztere sind für Inhalte nicht verantwortlich, weil sie keinerlei Möglichkeit haben, jedes Bit an Daten in ihren Netzen zu überprüfen. Das Feld dazwischen ist bis heute eine regulatorische Wüste – hier müsste die deutsche und europäische Politik tätig werden, etwa indem man die Rolle dieser Unternehmen im Konzert der Medien definiert und deren Funktionen und Verantwortlichkeiten beschreibt.

Würde man das tun, würde man vermutlich auf ein Monopolproblem stoßen, das solche Vergleiche von Facebook mit anderen Medienunternehmen aus einem anderen Grund besonders gefährlich macht. Denn die Presse in Deutschland – und auch der privatwirtschaftliche Rundfunk – sind nach dem Prinzip des Aussenpluralismus organisiert, bei dem es jedem Unternehmen freigestellt ist, seinen Inhalt so zusammenzustellen wie es will und dabei ganz nach Wunsch Themen und Beiträge auszuschließen, die andere Publikationen eventuell berichten wollen. Am Ende ist in der Summe in der gesamten Presselandschaft doch meist jeder Aspekt irgendwo vertreten und auffindbar. Genau dies ist aber anzuzweifeln, würde man – nach einer entsprechenden politischen Debatte und Gesetzgebung – Social Media als einen eigenständigen Medienmarkt definieren. Facebook hatte in Deutschland auf einem solchen Markt wohl Marktanteile, die in Rundfunk oder Presse alle Alarmglocken schrillen lassen würden. Es gibt kaum einen ernstzunehmenden Konkurrenten zum Facebook-WhatsApp-Konglomerat, immer mehr junge Menschen beziehen ihre politischen Informationen nur noch über diese Netzwerke. Die Kuratierung dieses Informationsmenüs alleine einem Quasi-Monopolunternehmen (das ja nach wie vor aus einer sehr kleinen Truppe kalifornischer Jungunternehmer mit ein paar zugekauften Tech-Experten besteht) zu überlassen, inklusive der Entscheidung, was gelöscht werden soll, ist deshalb nicht in erster Linie eine juristische oder moralische Frage, sondern eine Frage, in der entschieden wird, wie die politische Öffentlichkeit in unserem Land zukünftig organisiert werden soll.

Zum Schluss, das ist aber ein Randaspekt, überrascht mich insbesondere die Aussage von Herrn Stern, man müsse sich dem gesellschaftlichen Phänomen des Hasses im Netz widmen, denn: „früher gab es das nicht“; natürlich gab es das früher nicht, soweit es sich auf „das Netz“ bezieht, denn das Netz gibt es erst seit den 1990er Jahren. Dass es das gesellschaftliche Problem des Hasses und insbesondere des Antisemitismus früher nicht gab, kann er allerdings kaum meinen. Dass ausgerechnet Herr Stern eine solch einfache Löschung von Kommentaren favorisiert, die das Problem als gesellschaftliche Herausforderung sicherlich nicht lösen wird, sondern der unseligen Tradition des Ausblendens und Wegschauens folgt, finde ich irritierend und auch enttäuschend.

Die Behauptung schließlich, Kritikern – wie mir und vielen anderen – „geht es offensichtlich um etwas anderes – wirtschaftliche Interessen„, ist angesichts der oben dargelegten Argumente abwegig. Selbstverständlich verdient Facebook mit seinen Angeboten zur öffentlichen Kommunikation viel Geld – um das zu verhinden jedoch wesentliche Grundpfeiler demokratischer Öffentlichkeit einzureißen, schüttet das Kind mit dem Bade aus, um mal ein altertümliches Sprachbild zu bemühen.

Abschließend will ich festhalten, dass ich mich keinesfalls gegen einen Kampf gegen Hass im Internet stelle, im Gegenteil, wir beginnen gerade mit einem großen, dreijährigen Forschungsprojekt, das sich exakt damit beschäftigen wird: wie können Hassbeiträge im Netz erkannt und klassifiziert werden und welche redaktionellen Gegenstrategien können auf dieser Basis erfolgreich sein – ein Projekt, das Hassbeiträge nicht zensieren und ausblenden, sondern aktiv beobachten und inhaltlich substanziell bekämpfen helfen soll.

Berichterstattung über den Berliner „U-Bahn-Treter“

Ich bin vergangene Woche zum Fall des sog. Berliner U-Bahn-Treters von dpa interviewt worden, und zwar zur Frage, was das Video von der Tat so attraktiv macht und zu dessen großer Verbreitung geführt hat. In der Folge bin ich in manchen Medien mit der Aussage zitiert worden, „Es spielt aber sicher auch eine Rolle, dass am Ende ja zum Glück nichts so Dramatisches passiert ist“, wodurch der Eindruck entstand, ich würde mich in zynischer oder unmenschlicher Weise über das Opfer äußern und dessen Leid nicht anerkennen.

Das ist selbstverständlich nicht richtig; ich halte die Tat wie jeder andere vernünftige Mensch für ungeheuerlich und das Opfer hat mein ganzes Mitgefühl. Meine Aussage beschreibt nicht meine persönliche Haltung zur Tat, sondern den Umgang des normalen Mediennutzers mit dem Video von der Tat in einer normalen Nutzungssituation (wobei ich selbstkritisch zugebe, dass ich wie jede/r Andere in meiner täglichen Mediennutzung oft genug ebenso unreflektiert handle). Und da ist es nun mal leider so, dass die Bilder der Tat für Nutzerinnen und Nutzer erstens sehr „attraktiv“ sind, weil sie viele Indentifikationsmöglichkeiten (mit dem Opfer, gegen die personalisierten Täter) bieten und zweitens sozial hemmende Faktoren, wie etwa das Leid des Opfers in Großaufnahme, Blut oder auch das Wissen darüber, dass das Opfer dramatische Folgen bis hin zum Tod erlitten hat, darin nicht unmittelbar sichtbar sind. Was zu meiner zitierten Aussage also gehört, wäre die Einschränkung „… aus Sicht von Nutzern in der konkreten Nutzungssituation …“. Die gesamte längere Interviewpassage, aus der der Satz stammt, dreht sich eigentlich ausschließlich um die Analyse der Situation aus Nutzerperspektive, so dass mir bei Abnahme des Interviews (die dpa mir durchaus erlaubt hat) nicht aufgefallen ist, wie die Aussage ohne Kontext wirken würde; ohne diesen Kontext, wie sie aber leider in mehreren Medien aufgetaucht ist, hat sie eine Schlagseite, die so meine Haltung nicht ausdrückt und von der ich mich selbstverständlich distanziere.

Als Hintergrund kann ich hier vielleicht auch noch anmerken, dass es im Rahmen von Interviews mit Journalisten häufig zu einem längeren Aushandlungsprozess kommt, bei dem Journalisten möglichst klare, prägnante Aussagen haben wollen („Die Medien haben die Wirkung XY“), während man als Wissenschaftler auf den verschiedensten Gültigkeitsbedingungen für Aussagen bestehen muss („in der Regel“, „soweit wir bisher wissen“, „eine mögliche Schlussfolgerung wäre“, „unter der Annahme, dass“). Verkompliziert wird das Ganze noch dadurch, dass die Umfangsrestriktionen von Medien nur begrenzt Raum lassen für detaillierte Erläuterungen (und viele Menschen Details auch gar nicht hören/lesen wollen). Das Ergebnis ist, dass man nach einem Interview oft sehr stark verkürzte Zusammenfassungen der eigenen Aussagen zu sehen bekommt, die man dann versucht, in eine für den Wissenschaftler erträgliche Kompromissvariante zurechtzurücken. Ich persönlich bin dabei meist eher zurückhaltend, weil ich der Ansicht bin, dass es besser ist, wenn trotz gelegentlicher Verkürzung kommunikationswissenschaftliche Befunde ab und zu eine breitere Öffentlichkeit erreichen, als wenn man aus Angst vor verkürzter Darstellung unsere Arbeit im Elfenbeinturm einschließt. Aber manchmal geht das eben auch schief.

Open-Access als „verordneter Gezeitenwechsel“?

Der Jeaner Kollege und Geschichtswissenschaftler Norbert Frei äußert sich heute im Meinungsteil der Süddeutschen Zeitung über die Open-Access-Strategie der Bundesbildungsministerin Johanna Wanka. Als Geschichtswissenschaftler stammt er aus einer Fachtradition, die eher längere Zeiträume im Blick hat, in der das schnelle Publizieren neuer Erkenntnisse keine besondere Priorität hat, die häufiger in konkreten kulturellen und nationalen Kontexten forscht und die deshalb von den Entwicklungen der Digitalisierung (schnelle, globale Verfügbarkeit von Informationen) im Publikationswesen deutlich weniger profitiert als andere Fächer, etwa die Naturwissenschaften. Aus seiner Perspektive hat er Grund, gewisse Entwicklungen im Publikationswesen zu kritisieren, allerdings geht es in seinem Beitrag um diese spezifischen Probleme kaum. Drei Dinge muss man an seinem Beitrag kritisieren:

Erstens: die zum Teil unsachliche, manipulative und gehässige Argumentationsweise, die ich für unangemessen halte und die ich als politischer Kommunikationsforscher besonders kritikwürdig finde. So zitiert Norbert Frei in längeren Passagen Positionen der Bildungsministerin sowie der Piratenpartei, ohne sie inhaltlich wirklich zu widerlegen; stattdessen werden deren Argumente pauschal damit abqualifiziert, dass es sich bei letzterer um eine „im Untergang begriffene“ Partei von „Freibeutern“ handele: wer will sich schon mit diesen Verlierern solidarisieren, indem er „bei solchen Sätzen natürlich begeistert [applaudiert]“? Ebenso geht es Frau Wanka: Sie fördert so lächerliche Dinge wie „Lehrstühle für Mathematik in Afrika“ – kann man eine solche Ministerin noch ernst nehmen, wenn sie über andere Themen wie Open-Access spricht (egal, welche Argumente sie hat)? Und wie lächerlich ist eigentlich der Begriff „Grüner Weg des Open-Access„? „Grün“ im Sinne von „ökologisch“ ist Open-Access ja gar nicht automatisch; Haha! Ironische Zitate ersetzen den sachlichen Beleg und transportieren nichts außer der Drohung sozialer Isolation.

Zweitens: Absichtlich oder unabsichtlich vermengt Norbert Frei die Dimensionen „digital vs. Papier“ sowie „Journal- vs. Monographie-Publikation“ und spitzt sie darüber hinaus noch auf zwei unvereinbare Alternativen zu. Beides trifft aber nicht zu: erstens bedeutet Open-Access natürlich nicht automatisch, dass Texte nur noch online auf dem Bildschirm lesbar sind; wie Frei (in seiner eigenen Argumentation etwas widersprüchlich) selbst zugesteht, kann man alles natürlich auch ausdrucken oder parallel gar als echtes Buch mit Hardcover und Goldschnitt vertreiben, selbst auf dem „Goldenen Weg“ des Open-Access. Praktisch ist es aber nun einmal so, dass digitale Veröffentlichung die Nutzung wissenschaftlicher Texte erheblich steigert, weshalb es auch für Historiker sinnvoll ist, digitale Zugänglichkeit als zusätzlichen Zugangsweg zu fördern; jeder, der es möchte, kann seinen digitalen Text weiterhin auch gedruckt vertreiben; wie das zu organisieren ist, zeigt z.B. unsere Open-Access-Buchreihe „Digital Communication Research“ unter dem Dach der DGPuK-Fachgruppe „Digitale Kommunikation“. Dieses Beispiel zeigt außerdem, dass Open-Access für Monographien genauso funktionieren kann wie für Journals. Zwar ist richtig, dass Open-Access aufgrund der bereits existierenden Strukturen im Wissenschafts- und Publikationswesen für Journals besser organisierbar ist und die positiven Effekte (Schnelligkeit, Verbreitung, Globalität) unmittelbarer wirken können; umgekehrt sehe ich aber nicht, dass das Publizieren in Monographie-Form durch die digitale Publikationsform erschwert würde. Open-Access-Initiativen zu unterstellen, sie würden Geisteswissenschaftlern ihre traditionellen Publikationswege wegnehmen und sie zur Journal-Publikationsweise zwingen wollen, ist deshalb meiner Ansicht nach schlicht nicht begründbar (zumindest nicht mit wissenschaftsbezogenen Argumenten; aus kommerzieller Perspektive sieht das evtl. anders aus, s. dazu weiter unten).

Drittens: Das eigentliche Problem, das durch Open-Access behoben werden soll, ist die mittlerweile dramatische Behinderung der Verbreitung von Wissen durch quasi-monopolistische Großverlage, die – das beschreibt Norbert Frei ganz richtig – mit wenig eigenem Einsatz viel Geld verdienen, indem sie kostenlose Eigenleistungen von Wissenschaftlern (als Herausgeber, Autoren und Gutachter) und bereits mehrfach vom Steuerzahler finanzierten Content (als Befunde aus z.B. steuerfinanzierter Grundlagenforschung) den vom Steuerzahler finanzierten Universitäten nochmal ganz neu verkaufen, als hätten sie selbst irgendwas produziert. Frei beschreibt dieses Problem anhand der kommerziellen Open-Access-Modelle eben dieser Großverlage; diese haben dieses unanständige Geschäftsmodell aber schon vor langer Zeit in der noch analogen Publikationswelt entwickelt und perfektioniert und versuchen nun, z.T. durchaus erfolgreich, es in die digitale Welt zu transferieren. Genau an diesem Punkt müssten Debatten innerhalb der Wissenschaften eigentlich ansetzen: Wie lässt sich, mit Hilfe neuer digitaler Technologien, die Sichtbarkeit und Nutzbarkeit wissenschaftlicher Befunde erhöhen und dabei die Verschwendung von Steuergeldern stoppen?

Dabei müssten dann auch die Interessen der beteiligten Fächer und Fachkollegen transparent auf den Tisch. Zu diesen gehört, dass Geisteswissenschaftler – und darunter Historiker nicht zuletzt – nicht nur andere Publikationstraditionen haben, sondern mit ihren Büchern häufiger auch außerhalb des kleinen Kreises von Fachwissenschaftlern ein größeres Publikum erreichen. Damit haben sie auch ein stärkeres kommerzielles Interesse an Buchpublikationen und den Vertriebsstrukturen klassischer Verlage als Forscher aus anderen Fächern: Die überwiegende Mehrzahl der Wissenschaftler verdient so oder so nichts an ihren Publikationen. Auch das würde zur Ehrlichkeit der Debatte gehören.

Können wir bitte etwas ehrlicher über die Finanzierung von Journalismus diskutieren?

Ich habe eine gedruckte Papier-Tageszeitung abonniert. Im Jahr 1992 habe ich, kurz nachdem ich in München mein Studium der Kommunikationswissenschaft aufgenommen hatte, an einem Straßenstand einen Abonnementvertrag mit der Süddeutschen Zeitung abgeschlossen, und seitdem lese und bezahle ich diese Zeitung. Ich stelle das voran, um von vorneherein klarzumachen, dass ich kein egoistischer Kostenlos-Internetnutzer bin, der erwartet, dass mir alle Journalisten ihre Leistungen umsonst schenken.

Aber da der Chefredakteur der SZ heute in seiner wöchentlichen Abonnenten-E-Mail mal wieder mit untauglichen „für Ihren Kaffee bezahlen Sie ja auch“-Vergleichen versucht, Lesern, die journalistische Texte nutzen, ohne dafür zu bezahlen, ein schlechtes Gewissen zu machen, muss ich hier dieser einfach falschen und unehrlichen Darstellung einmal zwei sachliche Argumente entgegensetzen:

  1. Tatsache ist, dass der Print-Journalismus die Kostenlos-Kultur selbst maßgeblich entwickelt und über fast zwei Jahrhunderte sehr gut davon gelebt hat. Seit Entstehung der Massenpresse im 19. Jahrhundert wurden Presseerzeugnisse praktisch IMMER von Werbung mitfinanziert, kaum ein Leser hat jemals für eine Zeitung tatsächlich (anders als bei seinem Kaffee) die vollen Kosten durch den Kaufpreis getragen (der deckte früher nur ca. 30 % der tatsächlichen Produktionskosten); im Gegenteil gibt es bis heute – in manchen Ländern der Welt deutlich stärker als in Deutschland – viele völlig kostenlose, rein werbefinanzierte Zeitungsangebote. Ich finde es unehrlich und unverschämt, jetzt so zu tun als sei das alles eine Erfindung der geizigen und egoistischen Internetnutzer.
  2. Tatsache ist auch, dass dieses Geschäftsmodell heute nicht mehr für alle Medien funktioniert. Das liegt aber nur zu einem geringen Teil daran, dass Menschen aufhören, Zeitungen zu kaufen und stattdessen kostenlos im Internet lesen (die, die bisher Zeitung gelesen haben, machen das überwiegend auch weiterhin, sie werden nur immer älter und sterben irgendwann, während Menschen aus jüngeren Alterskohorten gar nicht mehr mit Zeitunglesen anfangen; entsprechende Daten habe ich hier schon veröffentlicht). Das Problem liegt viel stärker darin, dass die jahrhundertealten Werbeträger-Monopole der Verlage sich in der Digitalisierung aufgelöst haben und ins Internet abgewandert sind: Immobilien-  und Autoverkäufer kaufen heute keine Kleinanzeigen mehr in Zeitungen, sondern inserieren in Online-Portalen. Das ist weitgehend eine Folge der neuen technischen Möglichkeiten im Zuge der Digitalisierung und damit des Wandels der Vertriebswege der Werbung und nicht die Schuld der Zeitungsleser.

Ich bin ein großer Freund der Süddeutschen Zeitung, ich wünsche ihr alles Gute und hoffe, dass es sie noch lange gibt, es macht mich aber ausgesprochen ärgerlich und ich empfinde es persönlich auch als Unverschämtheit, wenn diese Tatsachen immer wieder ignoriert und die Schuld für diese durch verschiedenste Faktoren ausgelöste Misere der alten Medien so vereinfachend und auch unzutreffend den Nutzern in die Schuhe geschoben wird. Es ist aber natürlich auch schockierend, denn das zeigt, dass die SZ wie alle anderen Verlage immer noch vollkommen ratlos ist und offenbar nicht den geringsten Plan hat, wie es in Zukunft weiter gehen soll. Die Strategie der Verlage besteht heute offenbar nur darin, erstens ihre (potenziellen) Leser zu bedrohen, einzuschüchtern und ihnen ein schlechtes Gewissen machen und zweitens ihr Vertriebsmodell, das früher auf möglichst große und kostengünstige (werbefinanzierte) Verbreitung der eigenen Inhalte gesetzt hat, in ein geschlossenes System zu verwandeln, in dem man so wenig wie möglich sichtbar ist und die eigenen Angebote hinter Leistungsschutz- und Paywall-Schranken versteckt.

So wird das nichts mehr mit der Presse; ich habe zwar auch keine Patentlösung (könnte aber durchaus ein paar wissenschaftlich basierte Ratschläge geben), ich habe es aber satt, als Leser, der auch im Internet gelegentlich kostenlos etwas liest, ständig zum Alleinschuldigen an der Misere der Verlage gemacht zu werden, denn das bin ich nicht.

Unsere neue Buchreihe „Digital Communication Research“ im Open Access ist da!

Endlich ein Anlass, um dem Blog wieder Leben einzuhauchen! Ein Projekt, das Christian Strippel und mich gemeinsam mit weiteren Kollegen aus der Kommunikationswissenschaft (Christina Schumann, Jens WollinLogo_kleing, Monika Taddicken, Martin Welker) seit mehr als zwei Jahren beschäftigt hat, ist seit heute vorläufig abgeschlossen: Unsere Online-Buchreihe „Digital Communication Research“ ist da – eine Reihe, in der alle Bücher und (sofern es sich um Sammelbände handelt) auch alle Einzelbeiträge online frei zugänglich und über Bibliothekskataloge und Online-Datenbanken recherchierbar und abrufbar sind. DCR ist die offizielle Publikationsreihe der DGPuK-Fachgruppe „Computervermittelte Kommunikation“ (organisiert in Zusammenarbeit mit der Deutschen Gesellschaft für Online-Forschung DGOF) und hat selbstverständlich eine eigene Website, auf der viele Informationen und auch die Beiträge des ersten Bandes zugänglich sind: digitalcommunicationresearch.de.

Im Vergleich zu herkömmlichen Buchreihen erscheint unsere nicht bei einem Verlag, sondern sie wird durch die beteiligten Wissenschaftler selbst veröffentlicht. Da es in der Wissenschaft ohnehin üblich ist, dass die Erstellung der Texte und auch die Qualitätsprüfung in Peer-Review-Verfahren durch die Autoren und Fachkollegen selbst organisiert und vorgenommen wird, ist der zusätzliche Aufwand hierfür relativ begrenzt. Der Vorteil dabei ist, dass wir uns nicht vertraglich einer bestimmten Verlagspolitik unterwerfen und die Rechte an den Werken nicht abgeben müssen (sie werden stattdessen als Creative Commons zur freien Nutzung lizensiert – CC BY 4.0). Und da die Bücher und Texte online veröffentlicht werden, ist auch eine Druckerei nicht mehr wirklich nötig; wer aber trotzdem noch ein gedrucktes Buch haben will, kann sich das Buch per Print-on-Demand aber natürlich trotzdem ins Regal stellen.

Der größte Vorteil dieser digitalen Veröffentlichung aber ist für uns, dass die Texte sofort weltweit für jedermann und jederfrau lesbar sind, und nicht nur für diejenigen, die Zugang zu einer Bibliothek haben, die das Buch auch gekauft hat. Alle Beiträge werden mit digitalen Identifizierungsnummern versehen und über internationale Repositorien archiviert und verlinkt, so dass sie darüber sowohl in Literaturdatenbanken und Online-Bibliothekskataloge aufgenommen werden und dort dann sofort im Volltext verfügbar sind. Genauere Infos hierzu haben wir auf der DCR-Website zusammengestellt.

Eine genauso wichtige Meldung ist natürlich, dass damit auch der erste Band der Reihe erschienen ist, der von Christian Strippel und mit herausgegeben wurde: es ist der Band zur Tagung „Kommunikationspolitik und Medienregulierung in der digitalen Gesellschaft“, die wir im Februar 2014 in Berlin veranstaltet haben. dcr.v1.0Unter dem etwas verkürzten Titel „Kommunikationspolitik für die digitale Gesellschaft“ versammelt er elf Beiträge, die in ähnlicher Form auf der Tagung präsentiert wurden oder die zusätzlich aufgrund thematischer Passung in den Band aufgenommen wurden. So steht am Anfang ein Beitrag von Carsten Brosda, dem Medienbevollmächtigten des Hamburger Senats, der sich mit den grundsätzlichen aktuellen medienpolitischen Herausforderungen beschäftigt und dabei auch auf die Rolle der Kommunikationswissenschaft eingeht. Neben weiteren theoretischen Auseinandersetzungen mit Digitalisierung und Medienkonvergenz (etwa von Gerhard Vowe und Philipp Henn aus Düsseldorf) gibt es international vergleichende Analysen von Medienpolitiken und auch Fallstudien zu einzelnen Problemfeldern wie etwa zum Leistungsschutzrecht oder der öffentlichen Debatte über das ACTA-Abkommen. Aber da ja alle Beiträge und auch kurze Abstracts online über die Website des ersten Bandes zugänglich sind, muss ich hier keine besondere Werbung machen; jeder ist eingeladen, sich die Texte selbst anzusehen!

Buch erschienen

titel_authentizitätNach arbeitsbedingt relativ langer Bloggingpause hier kurz ein Hinweis auf ein aktuelles Arbeitsergebnis: vor ein paar Tagen ist das von mir gemeinsam mit Alexander Filipovic, Jan Schmidt und Ingrid Stapf herausgegebene Buch „Echtheit, Wahrheit, Ehrlichkeit – Authentizität in der Online-Kommunikation“ (Beltz-Juventa) herausgekommen. Es dokumentiert die zentralen Beiträge einer Tagung aus dem letzten Jahr, die von den DGPuK-Fachgruppen „Kommunikations- und Medienethik“ und „Computervermittelte Kommunikation“ sowie dem Netzwerk Medienethik in München veranstaltet wurde.

Das Buch enthält Beiträge zu drei Aspekten des Authentizitäts-Problems in der Online-Welt: In einem ersten Abschnitt setzen sich mehrere Autoren auf rein theoretischer und philosophischer Ebene mit Authentizität auseinander. Dabei geht es sowohl um eine begriffliche Klärung wie auch normative Verortung des Konzepts, sowohl generell wie auch mit Bezug zur Online-Kommunikation.

Ein zweiter Abschnitt diskutiert dann die konkreten Herausforderungen, die sich durch digitale Medien und Internet für authentische Kommunikation ergeben. Dabei werden sowohl Teilaspekte von Authentizität in den Blick genommen als auch konkrete Fallbeispiele (z.B. die „Anonymous“-Bewegung) oder Anwendungsfelder (z.B. Forschungsethik) disktutiert.

In einem dritten Abschnitt werden empirische Analysen vorgestellt, die konkrete Kommunikationsbeziehungen unter der Perspektive von Authentizität untersuchen, etwa das Reputationsmanagement von Organisationen, die Selbstdarstellung von Mitgliedern gesellschaftlicher Subkulturen oder auch Politikern im Netz.

Weitere Informationen gibt es über diesen Link auf der Verlagsseite.

Demoskopie und Demoskopie-Journalismus

Die SZ hat kürzlich ein paar Mal (Mitte Januar, hm, auch schon wieder ein paar Tage her …) über die Probleme von Demoskopie und Meinungsforschung berichtet: Einmal in einer Rezension des aktuellen Buchs von Nate Silver, zweitens in einem ganzseitigen Beitrag von Christopher Schrader auf der „Wissen“-Seite (wie häufig leider nicht online), der sich ganz fundiert und basierend auf Gesprächen mit Wissenschaftlern mit den oft übersehenen Details und Schwierigkeiten der Meinungsforschung auseinandersetzt.

Neben den wissenschaftlichen gibt es aber in der öffentlichen Wahrnehmung demoskopischer Ergebnisse auch einige Probleme, die mit deren journalistischer Aufarbeitung zu tun haben:

In Berichten über Nate Silver zum Beispiel ist es nicht wirklich sachgerecht, dessen sehr exakte Vorhersagen den weniger exakten der jeweiligen Meinungsforschungsinstitute gegenüberzustellen. Denn es ist ein ganz einfaches statistisches Gesetz, dass ein Mittelwert aus mehreren unabhängigen Stichproben dem „wahren“ Wert höchstwahrscheinlich näher kommt als jede einzelne dieser Stichproben. Den Meinungsforschungsinstituten vorzuwerfen, dass ihre einzelnen Umfragen nicht so exakt sind wie die Summe aus mehreren, die Nate Silver berechnet, ist also etwas unfair (dass er u.U. durchaus ein paar weitere innovative Parameter in seine Modelle aufnimmt, die damit „klassischen“ Modellen überlegen sind, mag natürlich trotzdem zutreffen).

Ein zweites Problem mit demoskopischen Befunden, über das Christopher Schrader in der SZ schrieb, ließe sich relativ leicht durch Journalisten in der Berichterstattung kontrollieren, nämlich wenn sie wüssten, was das „Konfidenzintervall“ ist: der Umstand, dass die Ergebnisse von Umfragen nicht so exakt sind, wie sie auf den ersten Blick aussehen. Da alle auf Stichproben basierenden Schätzungen – z.B. des Wähleranteils der FDP bei einer potenziell nächsten Bundestagswahl – mit einer gewissen Unsicherheit behaftet sind, geben Forschungsinstitute in der Regel einen Unsicherheitsbereich an, der üblicherweise zwischen +/-3% (in der Verteilungsmitte, dort wo etwa die CDU-Ergebnisse von 30-40% liegen) und +/-1,5% (am Verteilungsrand, wo Kleinparteien wie die FDP mit einstelligen Prozentergebnissen üblicherweise landen) liegt. Wenn die FDP im Politbarometer also von 5% in der Vorwoche auf 4% sinkt, verbieten sich Schlagzeilen wie „FDP sinkt unter 5%“, weil die Politbarometer-Umfrage streng genommen nur sagt, dass die FDP in der Vorwoche höchstwahrscheinlich zwischen 3,5 und 6,5% lag, und jetzt höchstwahrscheinlich irgendwo zwischen 2,5 und 5,5%. Ein Rückgang um einen Prozentpunkt in einer stichprobenbasierten Umfrage kann nicht belegen, dass der Wähleranteil tatsächlich zurückgegangen ist (die Daten lassen durchaus auch die Möglichkeit offen, dass er tatsächlich von 4 auf 5% gestiegen ist).

Das Demoskopie-Bashing (wie kürzlich wieder durch die CSU) ist deshalb zumindest zum Teil unbegründet: ein wenig Statistik-Kenntnisse in der Politik und im Journalismus (und dort die Disziplin, sie nicht wegen der Möglichkeit einer knackigen Schlagzeile zu ignorieren), würden sehr dabei helfen, Umfragedaten richtig zu interpretieren.