h1

Können wir bitte etwas ehrlicher über die Finanzierung von Journalismus diskutieren?

11. September 2015

Ich habe eine gedruckte Papier-Tageszeitung abonniert. Im Jahr 1992 habe ich, kurz nachdem ich in München mein Studium der Kommunikationswissenschaft aufgenommen hatte, an einem Straßenstand einen Abonnementvertrag mit der Süddeutschen Zeitung abgeschlossen, und seitdem lese und bezahle ich diese Zeitung. Ich stelle das voran, um von vorneherein klarzumachen, dass ich kein egoistischer Kostenlos-Internetnutzer bin, der erwartet, dass mir alle Journalisten ihre Leistungen umsonst schenken.

Aber da der Chefredakteur der SZ heute in seiner wöchentlichen Abonnenten-E-Mail mal wieder mit untauglichen „für Ihren Kaffee bezahlen Sie ja auch“-Vergleichen versucht, Lesern, die journalistische Texte nutzen, ohne dafür zu bezahlen, ein schlechtes Gewissen zu machen, muss ich hier dieser einfach falschen und unehrlichen Darstellung einmal zwei sachliche Argumente entgegensetzen:

  1. Tatsache ist, dass der Print-Journalismus die Kostenlos-Kultur selbst maßgeblich entwickelt und über fast zwei Jahrhunderte sehr gut davon gelebt hat. Seit Entstehung der Massenpresse im 19. Jahrhundert wurden Presseerzeugnisse praktisch IMMER von Werbung mitfinanziert, kaum ein Leser hat jemals für eine Zeitung tatsächlich (anders als bei seinem Kaffee) die vollen Kosten durch den Kaufpreis getragen (der deckte früher nur ca. 30 % der tatsächlichen Produktionskosten); im Gegenteil gibt es bis heute – in manchen Ländern der Welt deutlich stärker als in Deutschland – viele völlig kostenlose, rein werbefinanzierte Zeitungsangebote. Ich finde es unehrlich und unverschämt, jetzt so zu tun als sei das alles eine Erfindung der geizigen und egoistischen Internetnutzer.
  2. Tatsache ist auch, dass dieses Geschäftsmodell heute nicht mehr für alle Medien funktioniert. Das liegt aber nur zu einem geringen Teil daran, dass Menschen aufhören, Zeitungen zu kaufen und stattdessen kostenlos im Internet lesen (die, die bisher Zeitung gelesen haben, machen das überwiegend auch weiterhin, sie werden nur immer älter und sterben irgendwann, während Menschen aus jüngeren Alterskohorten gar nicht mehr mit Zeitunglesen anfangen; entsprechende Daten habe ich hier schon veröffentlicht). Das Problem liegt viel stärker darin, dass die jahrhundertealten Werbeträger-Monopole der Verlage sich in der Digitalisierung aufgelöst haben und ins Internet abgewandert sind: Immobilien-  und Autoverkäufer kaufen heute keine Kleinanzeigen mehr in Zeitungen, sondern inserieren in Online-Portalen. Das ist weitgehend eine Folge der neuen technischen Möglichkeiten im Zuge der Digitalisierung und damit des Wandels der Vertriebswege der Werbung und nicht die Schuld der Zeitungsleser.

Ich bin ein großer Freund der Süddeutschen Zeitung, ich wünsche ihr alles Gute und hoffe, dass es sie noch lange gibt, es macht mich aber ausgesprochen ärgerlich und ich empfinde es persönlich auch als Unverschämtheit, wenn diese Tatsachen immer wieder ignoriert und die Schuld für diese durch verschiedenste Faktoren ausgelöste Misere der alten Medien so vereinfachend und auch unzutreffend den Nutzern in die Schuhe geschoben wird. Es ist aber natürlich auch schockierend, denn das zeigt, dass die SZ wie alle anderen Verlage immer noch vollkommen ratlos ist und offenbar nicht den geringsten Plan hat, wie es in Zukunft weiter gehen soll. Die Strategie der Verlage besteht heute offenbar nur darin, erstens ihre (potenziellen) Leser zu bedrohen, einzuschüchtern und ihnen ein schlechtes Gewissen machen und zweitens ihr Vertriebsmodell, das früher auf möglichst große und kostengünstige (werbefinanzierte) Verbreitung der eigenen Inhalte gesetzt hat, in ein geschlossenes System zu verwandeln, in dem man so wenig wie möglich sichtbar ist und die eigenen Angebote hinter Leistungsschutz- und Paywall-Schranken versteckt.

So wird das nichts mehr mit der Presse; ich habe zwar auch keine Patentlösung (könnte aber durchaus ein paar wissenschaftlich basierte Ratschläge geben), ich habe es aber satt, als Leser, der auch im Internet gelegentlich kostenlos etwas liest, ständig zum Alleinschuldigen an der Misere der Verlage gemacht zu werden, denn das bin ich nicht.

h1

Unsere neue Buchreihe „Digital Communication Research“ im Open Access ist da!

4. März 2015

Endlich ein Anlass, um dem Blog wieder Leben einzuhauchen! Ein Projekt, das Christian Strippel und mich gemeinsam mit weiteren Kollegen aus der Kommunikationswissenschaft (Christina Schumann, Jens WollinLogo_kleing, Monika Taddicken, Martin Welker) seit mehr als zwei Jahren beschäftigt hat, ist seit heute vorläufig abgeschlossen: Unsere Online-Buchreihe „Digital Communication Research“ ist da – eine Reihe, in der alle Bücher und (sofern es sich um Sammelbände handelt) auch alle Einzelbeiträge online frei zugänglich und über Bibliothekskataloge und Online-Datenbanken recherchierbar und abrufbar sind. DCR ist die offizielle Publikationsreihe der DGPuK-Fachgruppe „Computervermittelte Kommunikation“ (organisiert in Zusammenarbeit mit der Deutschen Gesellschaft für Online-Forschung DGOF) und hat selbstverständlich eine eigene Website, auf der viele Informationen und auch die Beiträge des ersten Bandes zugänglich sind: digitalcommunicationresearch.de.

Im Vergleich zu herkömmlichen Buchreihen erscheint unsere nicht bei einem Verlag, sondern sie wird durch die beteiligten Wissenschaftler selbst veröffentlicht. Da es in der Wissenschaft ohnehin üblich ist, dass die Erstellung der Texte und auch die Qualitätsprüfung in Peer-Review-Verfahren durch die Autoren und Fachkollegen selbst organisiert und vorgenommen wird, ist der zusätzliche Aufwand hierfür relativ begrenzt. Der Vorteil dabei ist, dass wir uns nicht vertraglich einer bestimmten Verlagspolitik unterwerfen und die Rechte an den Werken nicht abgeben müssen (sie werden stattdessen als Creative Commons zur freien Nutzung lizensiert – CC BY 4.0). Und da die Bücher und Texte online veröffentlicht werden, ist auch eine Druckerei nicht mehr wirklich nötig; wer aber trotzdem noch ein gedrucktes Buch haben will, kann sich das Buch per Print-on-Demand aber natürlich trotzdem ins Regal stellen.

Der größte Vorteil dieser digitalen Veröffentlichung aber ist für uns, dass die Texte sofort weltweit für jedermann und jederfrau lesbar sind, und nicht nur für diejenigen, die Zugang zu einer Bibliothek haben, die das Buch auch gekauft hat. Alle Beiträge werden mit digitalen Identifizierungsnummern versehen und über internationale Repositorien archiviert und verlinkt, so dass sie darüber sowohl in Literaturdatenbanken und Online-Bibliothekskataloge aufgenommen werden und dort dann sofort im Volltext verfügbar sind. Genauere Infos hierzu haben wir auf der DCR-Website zusammengestellt.

Eine genauso wichtige Meldung ist natürlich, dass damit auch der erste Band der Reihe erschienen ist, der von Christian Strippel und mit herausgegeben wurde: es ist der Band zur Tagung „Kommunikationspolitik und Medienregulierung in der digitalen Gesellschaft“, die wir im Februar 2014 in Berlin veranstaltet haben. dcr.v1.0Unter dem etwas verkürzten Titel „Kommunikationspolitik für die digitale Gesellschaft“ versammelt er elf Beiträge, die in ähnlicher Form auf der Tagung präsentiert wurden oder die zusätzlich aufgrund thematischer Passung in den Band aufgenommen wurden. So steht am Anfang ein Beitrag von Carsten Brosda, dem Medienbevollmächtigten des Hamburger Senats, der sich mit den grundsätzlichen aktuellen medienpolitischen Herausforderungen beschäftigt und dabei auch auf die Rolle der Kommunikationswissenschaft eingeht. Neben weiteren theoretischen Auseinandersetzungen mit Digitalisierung und Medienkonvergenz (etwa von Gerhard Vowe und Philipp Henn aus Düsseldorf) gibt es international vergleichende Analysen von Medienpolitiken und auch Fallstudien zu einzelnen Problemfeldern wie etwa zum Leistungsschutzrecht oder der öffentlichen Debatte über das ACTA-Abkommen. Aber da ja alle Beiträge und auch kurze Abstracts online über die Website des ersten Bandes zugänglich sind, muss ich hier keine besondere Werbung machen; jeder ist eingeladen, sich die Texte selbst anzusehen!

h1

Buch erschienen

26. September 2013

titel_authentizitätNach arbeitsbedingt relativ langer Bloggingpause hier kurz ein Hinweis auf ein aktuelles Arbeitsergebnis: vor ein paar Tagen ist das von mir gemeinsam mit Alexander Filipovic, Jan Schmidt und Ingrid Stapf herausgegebene Buch „Echtheit, Wahrheit, Ehrlichkeit – Authentizität in der Online-Kommunikation“ (Beltz-Juventa) herausgekommen. Es dokumentiert die zentralen Beiträge einer Tagung aus dem letzten Jahr, die von den DGPuK-Fachgruppen „Kommunikations- und Medienethik“ und „Computervermittelte Kommunikation“ sowie dem Netzwerk Medienethik in München veranstaltet wurde.

Das Buch enthält Beiträge zu drei Aspekten des Authentizitäts-Problems in der Online-Welt: In einem ersten Abschnitt setzen sich mehrere Autoren auf rein theoretischer und philosophischer Ebene mit Authentizität auseinander. Dabei geht es sowohl um eine begriffliche Klärung wie auch normative Verortung des Konzepts, sowohl generell wie auch mit Bezug zur Online-Kommunikation.

Ein zweiter Abschnitt diskutiert dann die konkreten Herausforderungen, die sich durch digitale Medien und Internet für authentische Kommunikation ergeben. Dabei werden sowohl Teilaspekte von Authentizität in den Blick genommen als auch konkrete Fallbeispiele (z.B. die „Anonymous“-Bewegung) oder Anwendungsfelder (z.B. Forschungsethik) disktutiert.

In einem dritten Abschnitt werden empirische Analysen vorgestellt, die konkrete Kommunikationsbeziehungen unter der Perspektive von Authentizität untersuchen, etwa das Reputationsmanagement von Organisationen, die Selbstdarstellung von Mitgliedern gesellschaftlicher Subkulturen oder auch Politikern im Netz.

Weitere Informationen gibt es über diesen Link auf der Verlagsseite.

h1

Demoskopie und Demoskopie-Journalismus

3. Februar 2013

Die SZ hat kürzlich ein paar Mal (Mitte Januar, hm, auch schon wieder ein paar Tage her …) über die Probleme von Demoskopie und Meinungsforschung berichtet: Einmal in einer Rezension des aktuellen Buchs von Nate Silver, zweitens in einem ganzseitigen Beitrag von Christopher Schrader auf der „Wissen“-Seite (wie häufig leider nicht online), der sich ganz fundiert und basierend auf Gesprächen mit Wissenschaftlern mit den oft übersehenen Details und Schwierigkeiten der Meinungsforschung auseinandersetzt.

Neben den wissenschaftlichen gibt es aber in der öffentlichen Wahrnehmung demoskopischer Ergebnisse auch einige Probleme, die mit deren journalistischer Aufarbeitung zu tun haben:

In Berichten über Nate Silver zum Beispiel ist es nicht wirklich sachgerecht, dessen sehr exakte Vorhersagen den weniger exakten der jeweiligen Meinungsforschungsinstitute gegenüberzustellen. Denn es ist ein ganz einfaches statistisches Gesetz, dass ein Mittelwert aus mehreren unabhängigen Stichproben dem „wahren“ Wert höchstwahrscheinlich näher kommt als jede einzelne dieser Stichproben. Den Meinungsforschungsinstituten vorzuwerfen, dass ihre einzelnen Umfragen nicht so exakt sind wie die Summe aus mehreren, die Nate Silver berechnet, ist also etwas unfair (dass er u.U. durchaus ein paar weitere innovative Parameter in seine Modelle aufnimmt, die damit „klassischen“ Modellen überlegen sind, mag natürlich trotzdem zutreffen).

Ein zweites Problem mit demoskopischen Befunden, über das Christopher Schrader in der SZ schrieb, ließe sich relativ leicht durch Journalisten in der Berichterstattung kontrollieren, nämlich wenn sie wüssten, was das „Konfidenzintervall“ ist: der Umstand, dass die Ergebnisse von Umfragen nicht so exakt sind, wie sie auf den ersten Blick aussehen. Da alle auf Stichproben basierenden Schätzungen – z.B. des Wähleranteils der FDP bei einer potenziell nächsten Bundestagswahl – mit einer gewissen Unsicherheit behaftet sind, geben Forschungsinstitute in der Regel einen Unsicherheitsbereich an, der üblicherweise zwischen +/-3% (in der Verteilungsmitte, dort wo etwa die CDU-Ergebnisse von 30-40% liegen) und +/-1,5% (am Verteilungsrand, wo Kleinparteien wie die FDP mit einstelligen Prozentergebnissen üblicherweise landen) liegt. Wenn die FDP im Politbarometer also von 5% in der Vorwoche auf 4% sinkt, verbieten sich Schlagzeilen wie „FDP sinkt unter 5%“, weil die Politbarometer-Umfrage streng genommen nur sagt, dass die FDP in der Vorwoche höchstwahrscheinlich zwischen 3,5 und 6,5% lag, und jetzt höchstwahrscheinlich irgendwo zwischen 2,5 und 5,5%. Ein Rückgang um einen Prozentpunkt in einer stichprobenbasierten Umfrage kann nicht belegen, dass der Wähleranteil tatsächlich zurückgegangen ist (die Daten lassen durchaus auch die Möglichkeit offen, dass er tatsächlich von 4 auf 5% gestiegen ist).

Das Demoskopie-Bashing (wie kürzlich wieder durch die CSU) ist deshalb zumindest zum Teil unbegründet: ein wenig Statistik-Kenntnisse in der Politik und im Journalismus (und dort die Disziplin, sie nicht wegen der Möglichkeit einer knackigen Schlagzeile zu ignorieren), würden sehr dabei helfen, Umfragedaten richtig zu interpretieren.

h1

Dinge, die ich in Abschlussarbeiten ungern lese (1): Die Relevanzbegründungs-Klippe

4. Dezember 2012

Da im Moment wieder Abschlussarbeits-Korrekturzeit ist, nutze ich mal die Gelegenheit, um in loser Folge auf ein paar immer wiederkehrende Fehler in solchen Arbeiten hinweisen – in der Hoffnung, dann nicht immer wieder in jedem Kolloquium und jeder Sprechstunde individuell darüber sprechen zu müssen. (Ich weiß, dass das eine höchstwahrscheinlich unbegründete Hoffnung ist; aber trotzdem).

Ein Problem, dem man meist gleich am Anfang in der Einleitung begegnet, ist die „Relevanzbegründungs-Klippe“ (zu der ich letztes Jahr schon mal kurz etwas geschrieben habe). Sie besteht darin, dass zwar zu Beginn der Einleitung auf ein mehr oder weniger relevantes Problem im Zusammenhang mit dem Titel der Arbeit eingegangen wird (z.B. ein konkretes Praxisbeispiel, ein Ereignis o,ä.), dass aber der inhaltliche Abstand zwischen diesem beispielhaften Problem und der meist sehr spezifischen Forschungsfrage dadurch nicht überbrückt werden kann. Kurz: es wird trotz länglichen Räsonnierens über die Relevanz nicht ausreichend begründet, warum in der Arbeit das bearbeitet wird, was bearbeitet wird. Ein klassisches Beispiel aus meiner Lehrpraxis ist folgendes:

Die Einleitung beginnt mit der Beschreibung der großen Bedeutung, die das Internet für öffentliche Kommunikation heute hat. Dabei wird auf verschiedenste Indikatoren verwiesen, etwa auf den Anteil der Internetnutzer, Umsatzzahlen von Google und Facebook und anderes. Nach etwa einer Seite, wenn dem Leser klar ist, dass das Internet eine wichtige Sache ist, folgt eine Forschungsfrage wie diese: „Vor diesem Hintergrund soll in dieser Arbeit untersucht werden, ob die Berichterstattung in journalistischen Online-Medien anderen Nachrichtenwerten folgt als die Berichterstattung in herkömmlichen Medien.“

Wo ist das Problem? Das Problem ist, dass ich als Leser zuerst auf eine relativ hohe Relevanz-Klippe hinaufgeschoben wurde (das Internet ist ganz wichtig) um dann von dort oben auf die Niederungen einer konkreten Forschungsfrage herabzublicken ohne zu wissen, wie ich da hinunterkommen soll. Denn die Frage beschäftigt sich nur mit einem Teilaspekt medialer Kommunikation (dem Journalismus), nur mit einer explanativen Perspektive (Erklärung von Medieninhalten durch ein theoretisches Konzept) und auch nur mit einer von mehreren prinzipiell möglichen Theorien (Nachrichtenwerttheorie). Und die Relevanz all dieser einzelnen Aspekte ist noch überhaupt nicht begründet.

 Wenn man also eine Frage wie die im obigen Beispiel beantworten will, sollte man nicht bei Adam und Eva (dem Internet als solches) anfangen, sondern möglichst mit der Thematisierung von Problemen im gewählten Realitätsausschnitt; man kann z.B. darauf hinweisen, dass das Internet die Arbeitsbedingungen im Journalismus verändert (da gäbe es zahlreiche praktische Beispiele) und dass deshalb die Frage im Raum steht, ob sich diese strukturellen Veränderungen auch in den Inhalten niederschlagen. Dies würde relativ knapp aber trotzdem sachlich gut nachvollziehbar zur obigen Frage nach möglichen inhaltlichen Unterschieden im Online- und Offline-Journalismus führen. Dass für die Analyse ein ganz bestimmter Zugang – die Nachrichtenwerttheorie – gewählt wird, muss noch nicht bis ins Detail begründet sein, aber ein Verweis darauf, dass diese Theorie eine hierfür naheliegende und in der Forschung bereits häufiger eingesetzte ist, sollte als Relevanz-Hinweis trotzdem auch in der Einleitung stehen.

Eine kleine ad-hoc-Dimensionsanalyse der Forschungsfrage kann dabei helfen, die zentralen Aspekte zu identifizieren, die in der Forschungsfrage stecken. Und für jeden Aspekt sollte in der Einleitung dann klar gemacht werden, warum eine Beschäftigung mit ihm sinnvoll ist.

h1

Tagesschau-App: Realitätsferne Debatten

28. September 2012

Als Wissenschaftler, der sich seit vielen Jahren mit Mediennutzung beschäftigt, lerne ich gerne immer mal was dazu. Besonders interessant heute: Das Landgericht Köln meint (nach Darstellung von Claudia Tieschky in der SZ), dass die Tagesschau-App „aus Sicht der Nutzer geeignet ist, als Ersatz für die Lektüre von Zeitungen oder Zeitschriften zu dienen“. Mir ist sowas neu, denn es widerspricht völlig dem empirischen Forschungsstand: Wie ich nicht nur hier in meinem Blog sondern auch in zahlreichen wissenschaftlichen Veröffentlichungen wiederholt deutlich gemacht habe, gibt es keine überzeugenden Belege dafür, dass Nutzer die Zeitung durch (kostenlose) Informationen aus dem Internet ersetzen würden.

Dabei ist dem Gericht eigentlich kaum ein Vorwurf zu machen: Es hat, durch die Beschränkung des Urteils auf die „Ausgabe“ (für ein sich ständig aktualisierendes Online-Angebot ein eigentlich sinnloser Begriff) vom 15.06.2011 ebenso wie durch eine Reihe früherer Äußerungen, versucht die Parteien davon zu überzeugen, dass diese Auseinandersetzung nicht vor Gericht gehört. Es ist wirklich ein Trauerspiel, nun schon über so viele Jahre zu beobachten, wie die gesamte „alte“ Medienbranche sich in eine realitätsferne Traumwelt zurückzieht und gegen nur eingebildete Windmühlen kämpft, während sich die Welt da draußen weiterdreht. In einer digitalisierten Welt – die in den nächsten Jahren auch das alte Fernsehen so in sich aufsaugen wird wie im letzten Jahrzehnt die Print-Medien – sind Begriffe wie „Fernsehen“ oder „Presse“ zur Beschreibung von Branchen/Berufen/individuellem Handeln untauglich geworden, und Hilfskonstruktionen wie „sendungsbezogen“ oder „presseähnlich“ lösen keinerlei Probleme, sondern sind nur ein Ausdruck von Ratlosigkeit. Auch aus Sorge um von mir sehr geschätzte Medien wie die Süddeutsche Zeitung (die ich trotz meiner intensiven Online-Nutzung seit über zwanzig Jahren abonniert habe) hoffe ich inständig, dass sich die relevanten Unternehmen und auch die Politik bald einmal Gedanken über die Gestaltung ihrer und unserer digitalen Zukunft machen, statt zu versuchen, sie aufzuhalten.

h1

Aus alt mach‘ neu: Zitate-Recycling

12. September 2012

In jüngster Zeit bin ich ein paar Mal auf ein spezielles Problem mit wissenschaftlichem Zitieren gestoßen, das – auch wenn es nicht so spektakulär ist wie manche Plagiatsfälle der jüngsten Zeit – ein ernsthaftes Problem für die Qualität wissenschaftlicher Arbeit darstellt, weswegen ich es hier einmal kurz umreißen will:

In meiner kleinen Auseinandersetzung mit Stephan Eisel über die wissenschaftliche Qualität seines Buches „Internet und Demokratie“ entstand eine Kontroverse um meine Kritik daran, dass Teile seiner Darstellungen auf veralteten Quellen basierten und den aktuellen Forschungsstand weitgehend ingnorieren. Er hat darauf geantwortet, dass ein wesentlicher Teil der von ihm angegebenen Quellen aus den letzten acht Jahren stammen würde und seine Darstellungen deshalb sehr wohl aktuell seien. Ein zweites Beispiel ist eine studentische Hausarbeit, die ich kürzlich gelesen habe, in der ich für die Erläuterung theoretischer Begrifflichkeiten und Modelle eines nicht mehr ganz neuen Theorieansatzes (Framing) fast ausschließlich sehr junge Quellen aus den letzten zwei Jahren vorfand. Das hat mich auf den ersten Blick elektrisiert, weil ich den Eindruck bekam, als hätte es jüngst ganz neue Entwicklungen gegeben, die mir bisher entgangen waren. Eine Prüfung der Quellen – und zwar in beiden Fällen – hat dann aber ein anderes Bild ergeben: Es wurden jeweils zwar ganz aktuelle Publikationen herangezogen und zitiert, diese bezogen sich inhaltlich selbst wiederum aber nur auf wesentlich ältere, schon bestehende Begriffe und Befunde, ohne diesen substanziell etwas hinzuzufügen. Und damit sind zwei Probleme verbunden:

1. Die wissenschaftliche Leistung, z.B. der Begriffsdefinition von „Framing“, wird einer neueren Quelle zugesprochen, die diese Leistung aber eigentlich gar nicht erbracht hat, sondern die sich selbst wiederum nur auf ältere Quellen beruft – und diese müssten dann eigentlich korrekterweise zitiert werden.

2. Es entsteht ein unzutreffender Eindruck von der Aktualität einer Aussage: Wenn ein Autor 2011 eine Aussage aus dem Jahr 2005 zitiert, die sich wiederum aus einem Text aus dem Jahr 1999 speist, handelt es sich eben um eine Aussage mit dem Stand 1999 – wie neu das Publikationsdatum des X-ten Zitats auch sein mag.

Für solche Unsauberkeiten kann es verschiedene Gründe geben: Im Falle der Hausarbeit war es ein diffuses Gefühl des Autors, „nicht immer den gleichen alten Kram“ zitieren zu wollen, sondern möglichst aktuelle Quellen zu verwenden, um auf dem aktuellsten Stand der Forschung zu arbeiten. Dabei ist aber aus dem Blick geraten, dass ein jüngeres Publikationsdatum nicht unbedingt auch mit einer jüngeren, echten „Quelle“ gleichgesetzt werden kann. Wichtiger als der Blick aufs Publikationsdatum ist es in der Wissenschaft, immer möglichst mit den „Primärquellen“ zu arbeiten, also mit den Ursprungsquellen einer Definition oder einer Aussage. Im Falle von Begriffen oder Theorien ist es eher normal, dass die Quellen etwas älter sind (in den Naturwissenschaften z.T. ja bereits ein paar hundert Jahre). Nach dem neuesten Material sollte man dagegen vor allem suchen, wenn es um den empirischen Forschungsstand geht.

Eine andere Ursache für solche Unsauberkeiten kann eine oberflächliche Arbeitsweise sein: Ein Autor sucht sich zu seinem Thema ein paar aktuelle Publikationen – z.B. aktuelle Dissertationen, die in der Regel einen Theoriebestand umfassend aufarbeiten und zugleich oft auch empirisch gehaltvoll sind. Aus diesen Arbeiten werden dann sowohl Begriffsdefinitionen wie auch empirische Befunde zitiert; den Aufwand, die Primärquellen zur Theorie zu besorgen, aufzuarbeiten und zu zitieren, spart man sich einfach. Und zuletzt kann eine solche Zitierweise natürlich auch Absicht sein, etwa um Lücken in einer Recherche oder einer Argumentation zu verdecken oder gar – was hier ausdrücklich niemandem unterstellt werden soll – ganz absichtlich den Forschungsstand zu manipulieren.

Egal aus welchen Gründen so gearbeitet wird, es entsteht daraus letztendlich nicht nur eine eher schlechte, weil wissenschaftlich mangelhaft fundierte Arbeit. Da die Relevanz wissenschaftlicher Publikationen sich heute immer stärker nach der Zahl der Zitierungen einer solchen Publikation durch andere Wissenschaftler bemisst, wird dadurch im Extremfall auch Einfluss genommen auf die in der Wissenschaft wahrgenommene Relevanz einzelner Quellen, und zwar nicht gerade zum Besseren.

Den Rest des Beitrags lesen »

Folgen

Erhalte jeden neuen Beitrag in deinen Posteingang.