Demoskopie und Demoskopie-Journalismus

Die SZ hat kürzlich ein paar Mal (Mitte Januar, hm, auch schon wieder ein paar Tage her …) über die Probleme von Demoskopie und Meinungsforschung berichtet: Einmal in einer Rezension des aktuellen Buchs von Nate Silver, zweitens in einem ganzseitigen Beitrag von Christopher Schrader auf der „Wissen“-Seite (wie häufig leider nicht online), der sich ganz fundiert und basierend auf Gesprächen mit Wissenschaftlern mit den oft übersehenen Details und Schwierigkeiten der Meinungsforschung auseinandersetzt.

Neben den wissenschaftlichen gibt es aber in der öffentlichen Wahrnehmung demoskopischer Ergebnisse auch einige Probleme, die mit deren journalistischer Aufarbeitung zu tun haben:

In Berichten über Nate Silver zum Beispiel ist es nicht wirklich sachgerecht, dessen sehr exakte Vorhersagen den weniger exakten der jeweiligen Meinungsforschungsinstitute gegenüberzustellen. Denn es ist ein ganz einfaches statistisches Gesetz, dass ein Mittelwert aus mehreren unabhängigen Stichproben dem „wahren“ Wert höchstwahrscheinlich näher kommt als jede einzelne dieser Stichproben. Den Meinungsforschungsinstituten vorzuwerfen, dass ihre einzelnen Umfragen nicht so exakt sind wie die Summe aus mehreren, die Nate Silver berechnet, ist also etwas unfair (dass er u.U. durchaus ein paar weitere innovative Parameter in seine Modelle aufnimmt, die damit „klassischen“ Modellen überlegen sind, mag natürlich trotzdem zutreffen).

Ein zweites Problem mit demoskopischen Befunden, über das Christopher Schrader in der SZ schrieb, ließe sich relativ leicht durch Journalisten in der Berichterstattung kontrollieren, nämlich wenn sie wüssten, was das „Konfidenzintervall“ ist: der Umstand, dass die Ergebnisse von Umfragen nicht so exakt sind, wie sie auf den ersten Blick aussehen. Da alle auf Stichproben basierenden Schätzungen – z.B. des Wähleranteils der FDP bei einer potenziell nächsten Bundestagswahl – mit einer gewissen Unsicherheit behaftet sind, geben Forschungsinstitute in der Regel einen Unsicherheitsbereich an, der üblicherweise zwischen +/-3% (in der Verteilungsmitte, dort wo etwa die CDU-Ergebnisse von 30-40% liegen) und +/-1,5% (am Verteilungsrand, wo Kleinparteien wie die FDP mit einstelligen Prozentergebnissen üblicherweise landen) liegt. Wenn die FDP im Politbarometer also von 5% in der Vorwoche auf 4% sinkt, verbieten sich Schlagzeilen wie „FDP sinkt unter 5%“, weil die Politbarometer-Umfrage streng genommen nur sagt, dass die FDP in der Vorwoche höchstwahrscheinlich zwischen 3,5 und 6,5% lag, und jetzt höchstwahrscheinlich irgendwo zwischen 2,5 und 5,5%. Ein Rückgang um einen Prozentpunkt in einer stichprobenbasierten Umfrage kann nicht belegen, dass der Wähleranteil tatsächlich zurückgegangen ist (die Daten lassen durchaus auch die Möglichkeit offen, dass er tatsächlich von 4 auf 5% gestiegen ist).

Das Demoskopie-Bashing (wie kürzlich wieder durch die CSU) ist deshalb zumindest zum Teil unbegründet: ein wenig Statistik-Kenntnisse in der Politik und im Journalismus (und dort die Disziplin, sie nicht wegen der Möglichkeit einer knackigen Schlagzeile zu ignorieren), würden sehr dabei helfen, Umfragedaten richtig zu interpretieren.

Advertisements

Dinge, die ich in Abschlussarbeiten ungern lese (1): Die Relevanzbegründungs-Klippe

Da im Moment wieder Abschlussarbeits-Korrekturzeit ist, nutze ich mal die Gelegenheit, um in loser Folge auf ein paar immer wiederkehrende Fehler in solchen Arbeiten hinweisen – in der Hoffnung, dann nicht immer wieder in jedem Kolloquium und jeder Sprechstunde individuell darüber sprechen zu müssen. (Ich weiß, dass das eine höchstwahrscheinlich unbegründete Hoffnung ist; aber trotzdem).

Ein Problem, dem man meist gleich am Anfang in der Einleitung begegnet, ist die „Relevanzbegründungs-Klippe“ (zu der ich letztes Jahr schon mal kurz etwas geschrieben habe). Sie besteht darin, dass zwar zu Beginn der Einleitung auf ein mehr oder weniger relevantes Problem im Zusammenhang mit dem Titel der Arbeit eingegangen wird (z.B. ein konkretes Praxisbeispiel, ein Ereignis o,ä.), dass aber der inhaltliche Abstand zwischen diesem beispielhaften Problem und der meist sehr spezifischen Forschungsfrage dadurch nicht überbrückt werden kann. Kurz: es wird trotz länglichen Räsonnierens über die Relevanz nicht ausreichend begründet, warum in der Arbeit das bearbeitet wird, was bearbeitet wird. Ein klassisches Beispiel aus meiner Lehrpraxis ist folgendes:

Die Einleitung beginnt mit der Beschreibung der großen Bedeutung, die das Internet für öffentliche Kommunikation heute hat. Dabei wird auf verschiedenste Indikatoren verwiesen, etwa auf den Anteil der Internetnutzer, Umsatzzahlen von Google und Facebook und anderes. Nach etwa einer Seite, wenn dem Leser klar ist, dass das Internet eine wichtige Sache ist, folgt eine Forschungsfrage wie diese: „Vor diesem Hintergrund soll in dieser Arbeit untersucht werden, ob die Berichterstattung in journalistischen Online-Medien anderen Nachrichtenwerten folgt als die Berichterstattung in herkömmlichen Medien.“

Wo ist das Problem? Das Problem ist, dass ich als Leser zuerst auf eine relativ hohe Relevanz-Klippe hinaufgeschoben wurde (das Internet ist ganz wichtig) um dann von dort oben auf die Niederungen einer konkreten Forschungsfrage herabzublicken ohne zu wissen, wie ich da hinunterkommen soll. Denn die Frage beschäftigt sich nur mit einem Teilaspekt medialer Kommunikation (dem Journalismus), nur mit einer explanativen Perspektive (Erklärung von Medieninhalten durch ein theoretisches Konzept) und auch nur mit einer von mehreren prinzipiell möglichen Theorien (Nachrichtenwerttheorie). Und die Relevanz all dieser einzelnen Aspekte ist noch überhaupt nicht begründet.

 Wenn man also eine Frage wie die im obigen Beispiel beantworten will, sollte man nicht bei Adam und Eva (dem Internet als solches) anfangen, sondern möglichst mit der Thematisierung von Problemen im gewählten Realitätsausschnitt; man kann z.B. darauf hinweisen, dass das Internet die Arbeitsbedingungen im Journalismus verändert (da gäbe es zahlreiche praktische Beispiele) und dass deshalb die Frage im Raum steht, ob sich diese strukturellen Veränderungen auch in den Inhalten niederschlagen. Dies würde relativ knapp aber trotzdem sachlich gut nachvollziehbar zur obigen Frage nach möglichen inhaltlichen Unterschieden im Online- und Offline-Journalismus führen. Dass für die Analyse ein ganz bestimmter Zugang – die Nachrichtenwerttheorie – gewählt wird, muss noch nicht bis ins Detail begründet sein, aber ein Verweis darauf, dass diese Theorie eine hierfür naheliegende und in der Forschung bereits häufiger eingesetzte ist, sollte als Relevanz-Hinweis trotzdem auch in der Einleitung stehen.

Eine kleine ad-hoc-Dimensionsanalyse der Forschungsfrage kann dabei helfen, die zentralen Aspekte zu identifizieren, die in der Forschungsfrage stecken. Und für jeden Aspekt sollte in der Einleitung dann klar gemacht werden, warum eine Beschäftigung mit ihm sinnvoll ist.

Aus alt mach‘ neu: Zitate-Recycling

In jüngster Zeit bin ich ein paar Mal auf ein spezielles Problem mit wissenschaftlichem Zitieren gestoßen, das – auch wenn es nicht so spektakulär ist wie manche Plagiatsfälle der jüngsten Zeit – ein ernsthaftes Problem für die Qualität wissenschaftlicher Arbeit darstellt, weswegen ich es hier einmal kurz umreißen will:

In meiner kleinen Auseinandersetzung mit Stephan Eisel über die wissenschaftliche Qualität seines Buches „Internet und Demokratie“ entstand eine Kontroverse um meine Kritik daran, dass Teile seiner Darstellungen auf veralteten Quellen basierten und den aktuellen Forschungsstand weitgehend ingnorieren. Er hat darauf geantwortet, dass ein wesentlicher Teil der von ihm angegebenen Quellen aus den letzten acht Jahren stammen würde und seine Darstellungen deshalb sehr wohl aktuell seien. Ein zweites Beispiel ist eine studentische Hausarbeit, die ich kürzlich gelesen habe, in der ich für die Erläuterung theoretischer Begrifflichkeiten und Modelle eines nicht mehr ganz neuen Theorieansatzes (Framing) fast ausschließlich sehr junge Quellen aus den letzten zwei Jahren vorfand. Das hat mich auf den ersten Blick elektrisiert, weil ich den Eindruck bekam, als hätte es jüngst ganz neue Entwicklungen gegeben, die mir bisher entgangen waren. Eine Prüfung der Quellen – und zwar in beiden Fällen – hat dann aber ein anderes Bild ergeben: Es wurden jeweils zwar ganz aktuelle Publikationen herangezogen und zitiert, diese bezogen sich inhaltlich selbst wiederum aber nur auf wesentlich ältere, schon bestehende Begriffe und Befunde, ohne diesen substanziell etwas hinzuzufügen. Und damit sind zwei Probleme verbunden:

1. Die wissenschaftliche Leistung, z.B. der Begriffsdefinition von „Framing“, wird einer neueren Quelle zugesprochen, die diese Leistung aber eigentlich gar nicht erbracht hat, sondern die sich selbst wiederum nur auf ältere Quellen beruft – und diese müssten dann eigentlich korrekterweise zitiert werden.

2. Es entsteht ein unzutreffender Eindruck von der Aktualität einer Aussage: Wenn ein Autor 2011 eine Aussage aus dem Jahr 2005 zitiert, die sich wiederum aus einem Text aus dem Jahr 1999 speist, handelt es sich eben um eine Aussage mit dem Stand 1999 – wie neu das Publikationsdatum des X-ten Zitats auch sein mag.

Für solche Unsauberkeiten kann es verschiedene Gründe geben: Im Falle der Hausarbeit war es ein diffuses Gefühl des Autors, „nicht immer den gleichen alten Kram“ zitieren zu wollen, sondern möglichst aktuelle Quellen zu verwenden, um auf dem aktuellsten Stand der Forschung zu arbeiten. Dabei ist aber aus dem Blick geraten, dass ein jüngeres Publikationsdatum nicht unbedingt auch mit einer jüngeren, echten „Quelle“ gleichgesetzt werden kann. Wichtiger als der Blick aufs Publikationsdatum ist es in der Wissenschaft, immer möglichst mit den „Primärquellen“ zu arbeiten, also mit den Ursprungsquellen einer Definition oder einer Aussage. Im Falle von Begriffen oder Theorien ist es eher normal, dass die Quellen etwas älter sind (in den Naturwissenschaften z.T. ja bereits ein paar hundert Jahre). Nach dem neuesten Material sollte man dagegen vor allem suchen, wenn es um den empirischen Forschungsstand geht.

Eine andere Ursache für solche Unsauberkeiten kann eine oberflächliche Arbeitsweise sein: Ein Autor sucht sich zu seinem Thema ein paar aktuelle Publikationen – z.B. aktuelle Dissertationen, die in der Regel einen Theoriebestand umfassend aufarbeiten und zugleich oft auch empirisch gehaltvoll sind. Aus diesen Arbeiten werden dann sowohl Begriffsdefinitionen wie auch empirische Befunde zitiert; den Aufwand, die Primärquellen zur Theorie zu besorgen, aufzuarbeiten und zu zitieren, spart man sich einfach. Und zuletzt kann eine solche Zitierweise natürlich auch Absicht sein, etwa um Lücken in einer Recherche oder einer Argumentation zu verdecken oder gar – was hier ausdrücklich niemandem unterstellt werden soll – ganz absichtlich den Forschungsstand zu manipulieren.

Egal aus welchen Gründen so gearbeitet wird, es entsteht daraus letztendlich nicht nur eine eher schlechte, weil wissenschaftlich mangelhaft fundierte Arbeit. Da die Relevanz wissenschaftlicher Publikationen sich heute immer stärker nach der Zahl der Zitierungen einer solchen Publikation durch andere Wissenschaftler bemisst, wird dadurch im Extremfall auch Einfluss genommen auf die in der Wissenschaft wahrgenommene Relevanz einzelner Quellen, und zwar nicht gerade zum Besseren.

Weiterlesen

Wahnsinn mit Methode

Was das BILDblog da heute berichtet, gehört zum ungeheuerlichsten, was ich an forschungsmethodischem Unsinn je gesehen habe. In einer Auseinandersetzung zwischen den Nachrichtenagenturen dpa und dapd hat letztere versucht, die Qualität der eigenen Arbeit mit Hilfe einer quantitativen Untersuchung zu untermauern. Methodisch befindet sich diese „Untersuchung“ etwa auf dem Niveau eines Nachmittagsprojekts achtjähriger Grundschüler (die man natürlich für eine solche Leistung loben würde, ohne es ernsthaft als wissenschaftliche Untersuchung zu verkaufen); Lukas Heinser hat auf BILDblog den gesamten Irrsinn so gut beschrieben, dass ich das hier nicht nochmal wiederholen muss. Allen Interessierten, vor allem Studierenden sozialwissenschaftlicher Fächer, sei aber der atemberaubende Originalbericht, der bis jetzt (18.04. 21:20 Uhr) allen Ernstes immer noch auf der dapd-Website online steht, sehr ans Herz gelegt; sowas sieht man nicht oft. Wie die auftraggebenden Herrschaften der dapd Medien Holding so etwas zulassen können, ist mir rätselhaft, auch vor dem durchführenden Unternehmen muss man aus fachlicher Perspektive wohl dringend warnen.

„Die Einleitung schreibe ich ganz zum Schluss!“

… ist eine oft gehörte Strategie und auch ein oft gelesener Tipp in der einschlägigen Ratgeber-Literatur. Auch der anonyme Ghostwriter im kürzlichen ZEIT-online-Interview hat seine Arbeitsweise so beschrieben. Warum das sinnvoll sein kann, warum ich aber gerade Studierenden dringend davon abrate, möchte ich mal kurz darlegen:

Für die Strategie spricht, dass sich durch eine Formulierung der Einleitung am Schluss – also vor dem Hintergrund einer schon fertiggestellten Arbeit – der ganze Text gut in eine schlüssige Gesamtform bringen lässt; man kann in der Einleitung dann sehr genau das ankündigen, was am Ende auch wirklich im Text passiert. Da die Erfahrung zeigt, dass sich eine wissenschaftliche Arbeit im Zeitverlauf IMMER stark verändert und weiterentwickelt, geht das nicht so gut, wenn man die Einleitung am Anfang schreibt – und sie dann auch nie wieder anfassen würde. Allerdings ist das sowieso unrealistisch: Jede/r, der/die schon einmal eine solche Arbeit geschrieben hat, und sei es erst eine im ersten Semester, weiß natürlich, dass im Laufe der Arbeit daran viele Überarbeitungs- und Anpassungsschritte aufeinander folgen, die selbstverständlich auch immer eine Einleitung mit einbeziehen.

Selbst wenn man – in Kenntnis der Tatsache, dass die Einleitung, wenn man sie denn am Anfang schriebe, sich sowieso noch stark verändern würde – vollständig auf den Entwurf eines solchen Einleitungstextes verzichten würde, müsste man trotzdem eines auf alle Fälle erledigen: die Formulierung einer klaren Forschungsfrage, die es mit einer solchen Arbeit zu beantworten gilt. Und wer mich aus einer Lehrveranstaltung kennt, weiß, was ich mit Forschungsfrage meine: Einen Satz, der am besten mit mit einem W-Wort beginnt („Wer“, „Was“, „Wie“, „Welche …“, „Warum“, Ausnahmen natürlich möglich) und mit einem Fragezeichen endet – also eine echte Frage im Sinne der deutschen Grammatik. Sätze wie „Ich will mich mit X beschäftigen“ oder „Es soll das Phänomen Y untersucht werden“ sind KEINE ausreichenden Forschungsfragen, weil sie viel zu wenig eingrenzen und benennen, was am Ende herauskommen soll.

Und genau hier liegt das Problem im Zusammenhang mit der Frage, ob man am Anfang der Beschäftigung mit einem Thema den Aufwand einer ca. zweiseitigen Einleitung betreiben sollte. Denn wo diese Strategie für den erfahrenen Wissenschaftler oder Ghostwriter zeitsparend sein mag, führt das meiner mittlerweile langjährigen Erfahrung nach gerade bei unerfahrenen Autoren (dazu gehören Studierende während des Großteils ihres Studiums) dazu, dass damit zu oft die ausreichende Auseinandersetzung mit dem Ziel der Arbeit unterbleibt. Forschungsfragen bleiben zu oberflächlich und allgemein wie die oben beschriebenen, es wird nicht klar, wo genau das Problem liegt, warum die gewählten Theorien und das methodische Vorgehen für sinnvoll gehalten werden etc. Das sind genau die häufigen Probleme studentischer Arbeiten, die auch der zitierte anonyme Ghostwriter nennt. Und deshalb rate ich allen Autoren wissenschaftlicher Arbeiten, sich zu Beginn der Textproduktion doch zumindest an die Rohfassung einer Einleitung zu setzen, die folgende drei Elemente enthält:

1. Eine Begründung der Relevanz des (allgemeinen) Themas und AUCH der konkreten Fragestellung. Autoren sollten versuchen, potenziellen Lesern und damit auch sich selbst erst einmal klar zu machen, warum der Gegenstand eine wissenschaftliche Untersuchung rechtfertigt („es ist interessant“ ist zu subjektiv und deswegen nicht ausreichend). „Gegenstand“ heißt dabei „konkrete Forschungsfrage“; sehr oft lese ich zwei Seiten dazu, warum das Internet wichtig für unsere Gesellschaft ist, um dann übergangslos eine Forschungsfrage präsentiert zu bekommen wie „… deshalb soll hier untersucht werden, weshalb Blog-Autoren das Thema X intensiver behandeln als Thema Y“ – da besteht eine riesige Argumentationslücke zwischen „Internet ist wichtig“ und „Analyse der Themen in der Blogosphäre ist wichtig“.

2. Eine klare ForschungsFRAGE, die den oben beschriebenen Kriterien entspricht; kein allgemeines Thema „… soll die Berichterstattung über X untersucht werden“, sondern eine klare Frage, auf die am Ende eine klare Antwort gegeben werden kann, z.B. “ …welche Nachrichtenfaktoren prägen die Berichterstattung über die Themen X und Y?“

3. Die Offenlegung des geplanten Vorgehens, also auf welche theoretische Basis bezieht sich der Autor/die Autorin, soll nur theoretisch oder auch empirisch vorgegangen werden, welche Methoden sollen eingesetzt werden?

Die Grundstrategie sollte also sein: Beschäftigen Sie sich zu Beginn intensiv mit der Relevanz des Themas, mit der konkreten Zielrichtung Ihrer Fragestellung und damit, wie man die Fragestellung am sinnvollsten beantworten kann. Wenn Sie Ihre Gedanken dazu zu Papier bringen, haben Sie die Einleitung praktisch schon geschrieben. Dass das Ganze unterwegs sicher noch häufiger angepasst wird (auch Forschungsfragen können sich durchaus noch ändern) und am Ende natürlich nochmal in Form gebracht wird (z.B. durch ein aktuelles Beispiel zum Einstieg), ist selbstverständlich, sollte aber keinesfalls eine intensive Auseinandersetzung am Anfang verhindern!

Guttenberg: Zur Grenze zwischen Fehler und vorsätzlichem Betrug

Karl-Theodor zu Guttenberg, der nach der Aufdeckung seiner weitgehend abgeschriebenen Dissertation unter den Bürgern beliebter ist als je zuvor (siehe dazu → kognitive Dissonanz), entschuldigt sich damit, unter dem Druck seiner beruflichen und familiären Belastung den Überblick verloren und dabei Fehler bei der Setzung von Fußnoten gemacht zu haben. Auch bei seinen zwei Auftritten im Bundestag am 23.02. hat er diese Verteidigungslinie offensiv aufrecht erhalten. Strategisch ist das eine vielversprechende Argumentation, die ihm viel Verständnis einbringt: Wer wüsste nicht, wie viel Stress ein erfolgreiches Berufsleben und eine junge Familie mit sich bringen kann? Da kann man schon mal was übersehen. Wer allerdings selbst schon einmal eine wissenschaftliche Arbeit geschrieben hat, weiß, dass Plagiate wie die von Herrn zu Guttenberg (an vielen Stellen im Netz dokumentiert, z.B. hier im GuttenPlag Wiki) nicht reine Schlamperei sein können; drei wesentliche Umstände sprechen hier sehr deutlich für Vorsatz, die ich hier vor allem aus hochschulpädagogischen Gründen erläutern möchte:

  1. In theoretischen Arbeiten (oder Theorieteilen von empirischen Arbeiten) wird naturgemäß vor allem mit den Werken anderer Autoren gearbeitet. Dabei ist es Aufgabe des Autors/der Autorin, mit eigenen Worten deren Aussagen in die eigene Forschungsfrage einzuordnen und dem Leser deutlich zu machen, was für die eigene Forschungsfrage aus diesen Werken zu lernen ist: Was tragen diese Quellen zum Verständnis der eigenen, selbstgewählten Forschungsfrage bei? In der Regel passiert das durch „indirekte“ Übernahmen fremder Aussagen in eigenen Worten inklusive Verweis auf die entsprechenden Quellen.
    Wörtliche Übernahmen sind deshalb eine eher seltene Ausnahme, weil die entsprechenden Aussagen ja aus einem anderen Kontext mit z.T. ganz anderen Forschungsfragen kommen; ohne eine ausführliche Einordnung in den eigenen Text sind sie bestenfalls missverständlich. Das heißt: Wörtliche Zitate können immer nur kurze Ausschnitte sein, die man deshalb auswählt, weil sie sprachlich bzw. begrifflich einen Sachverhalt besonders gut auf den Punkt bringen, und dies bei einer Darstellung in eigenen Worten verloren ginge. Eine seitenweise Übernahme fremder Texte, wie sie die Arbeit von KTzG enthält, ist aus wissenschaftlichen Gründen nicht nötig und wäre aus den dargelegten Gründen sogar eher schädlich; sie ist außerdem in keinem Fach auch nur ansatzweise üblich. Würde man – wie der Autor dies als Unterlassung darstellt – diese seitenlangen Abschnitte in Anführungszeichen setzen und mit Fußnoten versehen, würde jeder inhaltliche Zusammenhang, den der Autor eigentlich herstellen müsste, verloren gehen und die komplette Sinnlosigkeit eines solchen Patchwork-Textes wäre jedem Leser (vor allem den Gutachtern der Doktorarbeit) sofort ins Auge gesprungen.
  2. Ein zweites Indiz für die vorsätzliche Manipulation sind die leichten Änderungen, die in die unbelegt übernommenen Abschnitte eingebaut wurden: Hätte es sich tatsächlich nur um vergessene Fußnoten gehandelt, hätten die Textabschnitte selbstverständlich entweder wörtlich und unverändert übernommen werden müssen, oder zusammengefasst in vollständig eigenen Worten. Die Tatsache, dass sie aber sprachlich nur so leicht angepasst wurden, dass sie sich gut in den eigenen Inhalt einfügen ließen, belegt, dass hier sehr gezielt fremde Versatzstücke zu einem neuen Text zusammengebaut wurden. Den intellektuellen Aufwand, diese fremden Texte zu lesen, zu verstehen und dann zusammengefasst, in eigenen Worten und mit eigener Schlussfolgerung und Quellenangabe versehen, in eine eigene Argumentation zu überführen, wollte oder konnte KTzG vermutlich nicht leisten.
  3. Der dritte, in den Medien bereits diskutierte Hinweis auf die völlige wissenschaftliche Substanzlosigkeit der vorgelegten Arbeit ist die Tatsache, dass selbst viele Stellen, an denen eigentlich gerade in einer theoretischen Arbeit die Eigenleistung des Autors hervorstechen sollte, auf die oben beschriebene Weise abgeschrieben wurde: Wo, wenn nicht in den Zusammenfassungs- und Schlussfolgerungskapiteln sollte denn die Eigenleistung des Autors deutlich werden? Selbst solche Stellen zu plagiieren zeigt, dass ganz offensichtlich kaum eine eigenständige Leistung in diesem Text enhalten ist, sondern es sich um eine gezielte Simulation oder Vorspiegelung von Wissenschaft handelt; auch hier kann von einer „Schlamperei“ keine Rede sein.

Beeindruckend ist an all dem nur, dass es dem Autor offenbar sehr kunstvoll gelungen ist, diese Versatzstücke zu einem Text zu amalgamieren, der in sich (als nicht-Jurist kann ich das selbst nur schwer beurteilen) so überzeugend wirkt, dass dessen Substanzlosigkeit selbst den renommierten Gutachtern nicht aufgefallen ist. Vermutlich ist so etwas tatsächlich nicht hundertprozentig zu verhindern. Die Wahrscheinlichkeit ließe sich aber verringern, indem z.B. die Betreuung und Zusammenarbeit mit den Doktoranden intensiviert wird, etwa durch regelmäßige Kolloquien, Vorträge und auch Publikationen während des Arbeitsprozesses. Dabei würde relativ schnell deutlich, wenn eine Person durch ihre Aufgabenstellung überfordert ist. Auch eine möglichst klare Absprache von Forschungsfragen und Themen wäre hilfreich, um die Eigenleistung der Kandidaten klarer zu definieren – was zugegebenermaßen etwas leichter ist bei Themen und Fächern, die empirisch ausgerichtet sind (und was deshalb insbesondere für die Rechtswissenschaft ein Problem darstellt).

Datenanalyse-Projekte zu politischer Online-Kommunikation

Dieses Semester stehen in meinen beiden Master-Kursen an der FU Berlin Sekundäranalysen der umfangreichen Befragungs-Datensätze aus dem langjährigen DFG-Projekt „Politische Online-Kommunikation“ auf dem Programm. Ziel ist, unsere Datenanalyse-Kompetenzen zu erproben und zu erweitern und dabei vielleicht auch den Daten – immerhin eine siebenwellige Panel-Befragung über sieben Jahre von etwa 1500 Personen – ein paar neue Erkenntnisse zu entlocken. Ich bin gespannt!