Die SZ hat kürzlich ein paar Mal (Mitte Januar, hm, auch schon wieder ein paar Tage her …) über die Probleme von Demoskopie und Meinungsforschung berichtet: Einmal in einer Rezension des aktuellen Buchs von Nate Silver, zweitens in einem ganzseitigen Beitrag von Christopher Schrader auf der „Wissen“-Seite (wie häufig leider nicht online), der sich ganz fundiert und basierend auf Gesprächen mit Wissenschaftlern mit den oft übersehenen Details und Schwierigkeiten der Meinungsforschung auseinandersetzt.
Neben den wissenschaftlichen gibt es aber in der öffentlichen Wahrnehmung demoskopischer Ergebnisse auch einige Probleme, die mit deren journalistischer Aufarbeitung zu tun haben:
In Berichten über Nate Silver zum Beispiel ist es nicht wirklich sachgerecht, dessen sehr exakte Vorhersagen den weniger exakten der jeweiligen Meinungsforschungsinstitute gegenüberzustellen. Denn es ist ein ganz einfaches statistisches Gesetz, dass ein Mittelwert aus mehreren unabhängigen Stichproben dem „wahren“ Wert höchstwahrscheinlich näher kommt als jede einzelne dieser Stichproben. Den Meinungsforschungsinstituten vorzuwerfen, dass ihre einzelnen Umfragen nicht so exakt sind wie die Summe aus mehreren, die Nate Silver berechnet, ist also etwas unfair (dass er u.U. durchaus ein paar weitere innovative Parameter in seine Modelle aufnimmt, die damit „klassischen“ Modellen überlegen sind, mag natürlich trotzdem zutreffen).
Ein zweites Problem mit demoskopischen Befunden, über das Christopher Schrader in der SZ schrieb, ließe sich relativ leicht durch Journalisten in der Berichterstattung kontrollieren, nämlich wenn sie wüssten, was das „Konfidenzintervall“ ist: der Umstand, dass die Ergebnisse von Umfragen nicht so exakt sind, wie sie auf den ersten Blick aussehen. Da alle auf Stichproben basierenden Schätzungen – z.B. des Wähleranteils der FDP bei einer potenziell nächsten Bundestagswahl – mit einer gewissen Unsicherheit behaftet sind, geben Forschungsinstitute in der Regel einen Unsicherheitsbereich an, der üblicherweise zwischen +/-3% (in der Verteilungsmitte, dort wo etwa die CDU-Ergebnisse von 30-40% liegen) und +/-1,5% (am Verteilungsrand, wo Kleinparteien wie die FDP mit einstelligen Prozentergebnissen üblicherweise landen) liegt. Wenn die FDP im Politbarometer also von 5% in der Vorwoche auf 4% sinkt, verbieten sich Schlagzeilen wie „FDP sinkt unter 5%“, weil die Politbarometer-Umfrage streng genommen nur sagt, dass die FDP in der Vorwoche höchstwahrscheinlich zwischen 3,5 und 6,5% lag, und jetzt höchstwahrscheinlich irgendwo zwischen 2,5 und 5,5%. Ein Rückgang um einen Prozentpunkt in einer stichprobenbasierten Umfrage kann nicht belegen, dass der Wähleranteil tatsächlich zurückgegangen ist (die Daten lassen durchaus auch die Möglichkeit offen, dass er tatsächlich von 4 auf 5% gestiegen ist).
Das Demoskopie-Bashing (wie kürzlich wieder durch die CSU) ist deshalb zumindest zum Teil unbegründet: ein wenig Statistik-Kenntnisse in der Politik und im Journalismus (und dort die Disziplin, sie nicht wegen der Möglichkeit einer knackigen Schlagzeile zu ignorieren), würden sehr dabei helfen, Umfragedaten richtig zu interpretieren.