Fritz Ulmer

Wahlprognosen und Meinungsumfragen

Schon kurze Zeit nach Schließung der Wahllokale am 25. Januar wird die erste Projektion auf die Endergebnisse vorliegen und mit recht guter Genauigkeit erkennen lassen, zu wessen Gunsten die Bundestagswahl ausgegangen ist - ein Triumph der Hochrechnung und der Datentechnik.
Wie aber steht es mit den Prognosen, die von verschiedenen Instituten in den Monaten und Wochen vor der Wahl gestellt werden? Geben sie schon verläßliche Hinweise auf den Ausgang der Wahl? In der Vergangenheit war das keineswegs immer der Fall.
Zum Beispiel das Allensbacher Institut für Demoskopie: Es erstellte vor den Bundestagswahlen sehr aufwendige Prognosen, die sich auf bis zu 6000 Interviews stützten - sind doch die in der Öffentlichkeit vorgestellten Wahlprognosen das beste Werbemittel für die Demoskopen, falls sie gelingen. 1983 etwa lag die Allensbacher Vorhersage wie bei den vorhergehenden Bundestagswahlen recht nahe am tatsächlichen Wahlergebnis:

CDU

47,0%

tatsächlich 48,8%

SPD

40,0%

tatsächlich 38,2%

FDP

6,2%

tatsächlich 7,0%

Grüne

6,5%

tatsächlich 5,6%

Doch bei der Landtagswahl im Saarland am 10. März 1985 lag die Prognose völlig daneben, wie die Leiterin des Instituts, die Demoskopie-Pionierin Prof. Dr. Elisabeth Noelle-Neumann, in einem Rechtsstreit mit dem Spiegel offenlegen mußte:

CDU

47,0%

tatsächlich 37,3%

SPD

44,2%

tatsächlich 49,2%

FDP

1,9%

tatsächlich 10,0%

Grüne

6,5%

tatsächlich 2,5%

Die im Auftrag der saarländischen CDU erstellte Prognose war auch nicht für die Öffentlichkeit bestimmt und basierte auf nur 474 Interviews. Das einträgliche Alltagsgeschäft der Prognose-Industrie, kommerziell motivierte Meinungsumfragen, basiert in der Regel auf einigen hundert bis tausend Interviews. Bei solchen Umfragen schlägt keine Stunde der Wahrheit, gibt es keine Wahl. Wollte ein Auftraggeber das gelieferte Produkt überprüfen, hätte er nur die Möglichkeit, nochmals einen vier- bis fünfstelligen Betrag auf den Tisch zu legen und ein Konkurrenz-Institut mit der gleichen Umfrage zu beauftragen.

Es gibt viele Gründe, warum Wahlprognosen sich nicht erfüllen. Beispielsweise können sich die Wähler noch bis zur letzten Minute anders besinnen. Es ist sogar möglich, daß sie gerade aufgrund einer Prognose ihr Verhalten ändern, beispielsweise um einer kleinen Partei doch noch über die 5%-Hürde zu helfen. Doch so sehr Gründe wie diese von den Demoskopen als Entschuldigung angeführt werden - und zweifellos auch eine Rolle spielen -: Es gibt ein Kernproblem, das damit nicht wegdiskutiert werden kann, und dies ist rein mathematischer, statistischer Natur.

Um dies ausführlicher zu erklären, ist es zweckmäßig, zwischen zwei grundlegend verschiedenen Problem-Ebenen der Demoskopie zu unterscheiden:
Da sind zunächst die soziologischen und psychologischen Aspekte. Wie kann man jemanden so befragen, daß er die " Wahrheit" antwortet? Selbst wenn man einen Original-Wahlzettel vorlegt und ankreuzen läßt, wird ein kleiner, vielleicht aber entscheidender Teil der Befragten sich am Wahlsonntag angesichts der Wahlurne doch anders entscheiden.
Nicht nur, weil er inzwischen Gespräche mit anderen geführt hat oder zwischenzeitliche Ereignisse ihn umstimmen. Allein die Umgebung, die Situation des Interviews, der Zusammenhang der Fragen spielen eine Rolle. Der ungebetene Interviewer mit seinem seitenlangen Fragebogen kann die Entscheidung beeinflussen, ohne es zu beabsichtigen. Die weitverbreitete Unkenntnis der Bedeutung von Erst- und Zweitstimmen und der Auswirkung des Stimmen-Splittings führt zu Verzerrungen, die wegen der geringen Zahlen statistisch nicht mehr erfaßbar sind.

Die zweite Ebene ist rein mathematisch-statistischer Natur. Denn es kann schon aus Kostengründen nur ein kleiner Teil der Bevölkerung - einer von 40000- befragt werden, ein sogenannter repräsentativer Querschnitt. Von diesem wird dann auf die Gesamtbevölkerung geschlossen. Das aber ist nur im statistischen Sinn möglich, enthält also einen bestimmten Fehler-Spielraum.
Genau hier liegt der Kern des Problems, der alle gängigen Wahlprognosen und erst recht kommerziell motivierte Meinungsumfragen als pseudowissenschaftliche Vorspiegelung exakter Zahlen entlarvt.
Zunächst: Was ist eigentlich ein repräsentativer Querschnitt von 1000 Wahlberechtigten? Die Wortwahl suggeriert, dies sei eine Art Miniaturbild der Bevölkerung, welches bezüglich wichtiger Merkmale wie Geschlecht, Alter, Familienstand, Beruf, Einkommen, Wohngegend (Stadt/Land) die tatsächlichen Verhältnisse widerspiegelt. Darum ergäbe eine Befragung dieser Gruppe ein ähnliches Resultat wie die Befragung der gesamten Bevölkerung. Und wenn man einen anderen repräsentativen Querschnitt befragte, so würde man im wesentlichen dieselben Resultate bekommen.
Diese Vorstellung ist falsch. Die Desinformation des Bürgers ist einerseits darauf zurückzuführen, daß die präzise Definition begrifflich nicht einfach ist, andererseits liegt es nicht im Geschäftsinteresse der Prognose-Industrie und ihrer Kunden in den Medien, Klarheit über diesen zentralen Begriff zu schaffen. Eine Klärung hätte nämlich zur Folge, daß viele Prognosen und die darauf aufgebauten, so populären Geschichten in sich zusammenbrechen würden.

Tatsächlich ist das einzig Repräsentative eines solchen Querschnitts die Absicht, daß jeder Wahlberechtigte die gleiche Chance hat, befragt zu werden. Die Zufallsauswahl gilt als Qualitätsmerkmal einer Umfrage, je zufälliger, desto besser. Das Verfahren wurde vom Arbeitskreis Deutscher Marktforschungs-Institute (ADM) entwickelt und wird als ADM-Mastersample bezeichnet. Es arbeitet in drei Stufen:

Damit wird angestrebt, daß jeder Wahlberechtigte mit gleicher Wahrscheinlichkeit in den repräsentativen Querschnitt kommt. Im Idealfall sollte die Auswahl so zufällig sein, als würde man für jeden Wahlberechtigten ein Los in eine Trommel legen und daraus 1000 Lose ziehen.
Doch durch die Dreistufigkeit des Verfahrens und seine praktische Durchführung ist die Realität von diesem Ideal weit entfernt. Beispielsweise werden durch das Verfahren stets Gruppen von sieben bis zehn Wahlberechtigten ausgesucht, die in unmittelbarer Nachbarschaft wohnen und damit oft eine bestimmte Präferenz für die gleiche Partei aufweisen: Zum Beispiel gibt es Stimmbezirke mit sehr hohen CDU/CSU-Anteilen oder sehr hohen SPD-Anteilen. Das führt zu unkontrollierbaren statistischen Abhängigkeiten mit der Folge, daß der repräsentative Querschnitt nicht die Information von 1000 unabhängigen Wahlberechtigten enthält, sondern von erheblich weniger.

Doch sehen wir von diesen Problemen ab und unterstellen ideale repräsentative Querschnitte. Die zentrale Frage lautet dann: Wie verläßlich sind Aussagen über eine 45-Millionen-Gruppe, die aus Querschnitten mit 1000 Mitgliedern gewonnen werden? Mit welchen Fehlern ist zu rechnen?
Das ist eine rein mathematische Frage. Die aus den soziopsychologischen Problemen resultierenden Fehler der Interviews kommen bei einer Wahlprognose dann additiv hinzu. Sie können weit größer sein - wie aus den eklatanten Fehlprognosen hervorgeht - und sind weder kontrollier- noch meßbar.
Gehen wir, um die Problemebenen klar zu trennen, von einem fiktiven, aber objektiven Sachverhalt aus: Die realen, am Wahltag abgegebenen Stimmzettel - rund 40 Millionen bei 90% Wahlbeteiligung und 45 Millionen Wahlberechtigten - seien in einer riesigen Trommel gut vermischt worden. 1000 davon werden nun nach einem Zufallsverfahren gezogen. Wie gut stimmt ein solcher Querschnitt mit dem Gesamtergebnis überein?
Um diese Frage mathematisch zu lösen, muß man zunächst einmal sämtliche Möglichkeiten überdenken, wie man aus 40 Millionen Stimmzetteln 1000 auswählen kann. Die entscheidende Frage lautet dann: Wie häufig wird ein Griff in die Original-Wahlstimmen-Trommel, ein repräsentativer Querschnitt also, mit dem wirklichen Ergebnis übereinstimmen, wie stark werden die Abweichungen sein?

Die Zahl der möglichen Querschnitte ist zwar unvorstellbar groß, aber relativ einfach zu berechnen. Es ist eine Zahl, die mit der Ziffer 2 beginnt und 5034 Stellen hat. Jeder dieser Querschnitte ist statistisch gleichberechtigt. Unter ihnen findet man exotische wie 1000 Stimmen für die FDP und 0 Stimmen für alle anderen Parteien. Doch solch extreme repräsentative Querschnitte kommen nur selten vor, die meisten liegen näher am "wahren" Stimmergebnis. Wie nahe ist das aber? Oder präziser: Welcher Bruchteil der repräsentativen Querschnitte kommt der wahren Stimmverteilung wie nahe?
Betrachten wir ein konkretes Beispiel: Angenommen die FDP hat 4,5% der Stimmen erhalten, also 1800000 Stimmzettel. Gibt es unter den repräsentativen Querschnitten welche, die der FDP fälschlicherweise einen Einzug in den Bundestag prophezeien, also einen Anteil von 50 oder mehr FDP-Stimmzetteln unter den gezogenen 1000 Stimmzetteln enthalten und damit einen Anteil von 5% oder mehr? Wieviele sind dies?
Die Antwort (siehe Tabelle Scheitern an der 5%-Hürde): 24%. In Worten: Jeder vierte repräsentative Querschnitt täuscht fälschlicherweise ein Überwinden der 5%-Hürde vor. Man muß sich bei diesem Ergebnis noch einmal klar machen, daß der Ausgangspunkt die vollzogene Wahl ist:
Jedes Prognose-Institut bekommt die zu seinem repräsentativen Querschnitt gehörenden wahren Stimmzettel. Allein aufgrund der Zufallsauswahl kommt es zu so starken Schwankungen, daß eine von vier Prognosen nicht einmal die wichtige Frage der 5%-Hürde richtig beantwortet, obwohl unterstellt ist, daß die FDP in "Wahrheit" mit 4,5% relativ weit darunter liegt.
Je näher der tatsächliche Stimmenanteil an die 5%-Marke gerät, desto schlechter werden die Chancen der Querschnitte, wie die Tabelle zeigt. Auch im umgekehrten Fall, daß die FDP in Wahrheit über 5% liegt, sieht es nicht besser aus (siehe Tabelle Überwinden der 5%-Hürde): Hat die FDP beispielsweise einen wahren Anteil von 5,5 %, also deutlich über der 5%-Grenze, dann behaupten etwa 22,5% aller repräsentativen Querschnitte fälschlicherweise, die FDP hätte den Einzug in den Bundestag nicht geschafft.

Das Problem liegt einfach in der viel zu geringen Zahl 1000. Das wird deutlich, wenn man dieselbe Überlegung mit anderen Querschnittsumfängen durchführt, wie sie in der Tabelle ebenfalls enthalten sind: Bei 500 "Interviews" sind die Ergebnisse vollends katastrophal. Um bei einem wahren Anteil von 4,9% das Verpassen der 5%-Hürde einigermaßen sicher zu diagnostizieren, müßte man fast 130000 Interviews führen.
Es grenzt deshalb an Verhältnis-Schwachsinn, wenn ein Meinungsforschungsinstitut auf der Basis von 1075 Interviews den Grünen mit 4,9% den Nichteinzug in einen Landtag prophezeit. Es sei denn, es handele sich um eine politisch motivierte Prognose, den Grünen auf Kosten von SPD-Zweitstimmen den Einzug in den Landtag zu ermöglichen. Demoskopie hat eben viele Anwendungsmöglichkeiten.

Doch zurück zu den Wahlprognosen mit 1000 Stimmzetteln. Ein Blick in die Tabellen zeigt, daß die Prognosen die Frage nach der 5%-Hürde nur dann verläßlich beantworten können, wenn das Wahlergebnis für die FDP entweder unter 4,0% oder über 6,2% liegt. Nur dann liefern 95% der Prognosen, also 19 von 20, die richtige Antwort. Bei Ergebnissen zwischen 4,0% und 6,2% haben die Prognosen keine Aussagekraft für oder gegen einen Einzug in den Bundestag. Gerade da aber wären sie von Interesse.

Ist das vielleicht ein Spezifikum der kleinen Partei: Sind wenigstens die Zahlen für die großen Parteien verläßlich? Auch hierzu eine typische Fragestellung: Gelingt es der CDU/CSU, gemeinsam mit der FDP eine Mehrheit zu erringen - ungeachtet der 5%-Problematik? Unterstellen wir, daß 51% der abgegebenen Stimmen auf diese Parteien entfallen, also 20400000 Stimmzettel für sie in der Trommel sind. Wie viele der denkbaren repräsentativen Querschnitte vom Umgang 1000 werden ein falsches Ergebnis, nämlich unterhalb 50% liefern, also maximal 499 Stimmzettel für die Koalition enthalten?
Die Tabelle Gewinnen der absoluten Mehrheit zeigt: Bei 1000 "Befragten" geben 23,5% der repräsentativen Querschnitte eine falsche Antwort. Jede vierte Wahlprognose muß bei diesem Wahlausgang allein aus statistischen Gründen zum qualitativ falschen Ergebnis kommen und den Regierungsparteien eine Wahlniederlage statt eines Sieges prophezeien.
Oder im umgekehrten Fall (Verlieren der absoluten Mehrheit): Bei 48% tatsächlichem Stimmanteil kommen noch immer 10,9% der Querschnitte zum falschen Ergebnis, die Koalition hätte die absolute Mehrheit gewonnen.
Wollte man 49,9% von 50,0% unterscheiden können, müßte man den Umfang des Querschnitts auf über 650000 erhöhen, und auch dann wäre noch jedes zwanzigste Ergebnis falsch.

Bei 1000 Befragungen muß der wahre Stimmenanteil für eine verläßliche Aussage über die Mehrheit entweder unter 47,5% liegen oder über 52,5%. Im Zwischenbereich dagegen sind keine verläßlichen Aussagen möglich, wenn man wieder verlangt, daß von 20 repräsentativen Querschnitten höchstens einer zum falschen Ergebnis kommt.

Bei diesem Spielraum kann man sich ebensogut auf sein Gefühl oder den Kaffeesatz verlassen und die bis zu fünfstelligen Beträge für eine Wahlprognose sparen.

Generell gilt: Je detaillierter die Auskunft einer Prognose sein soll, desto schlechter wird ihre statistische Zuverlässigkeit.

Begnügen sich die Wahlprognosen mit den Stimmen für die einzelnen Parteien, so versuchen alle Institute auch Trends über Monate hinweg aufzuzeigen.

Meines Wissens legt allein die Forschungsgruppe Wahlen e.V. auch Rohdaten - also die bei der Umfrage tatsächlich ermittelten Zahlen - offen dar, die sie für das "Politbarometer" des ZDF erfaßt. Darum stütze ich mich bei den folgenden Analysen auf sie. Es hat nämlich wenig Sinn, mit "korrigierten" Rohdaten Statistik zu betreiben.

Im "Politbarometer" werden die Parteienstärken über jeweils vier Monate hinweg miteinander verglichen. Bezugspunkt ist aber nicht etwa derselbe repräsentative Querschnitt, der immer wieder befragt wird, sondern es wird jedesmal ein neuer zusammengestellt.
In den Monaten Mai bis August ermittelte das Politbarometer folgende Zahlen (in Prozent):

Mai

Juni

Juli

August

SPD

44,0

46,0

43,0

43,0

CDU/CSU

39,0

42,0

44,0

44,0

FDP

5,0

4,0

5,0

4,0

Grüne

12,0

8,0

8,0

9,0

Im Kommentar dazu hieß es: "Zum erstenmal seit Januar dieses Jahres lag die SPD mit 43%, wenn auch knapp, hinter der CDU mit 44%. FDP: schwankend zwischen 5% und 4%, derzeit 4%." Diese Aussage und die graphische Trenddarstellung suggerieren eine Genauigkeit von ± 0,5%, denn nur dann haben sie einen Sinn.

Lassen wir wieder alle soziopsychologischen Probleme der Interviews außer acht und unterstellen, daß die obigen Zahlen die objektive Wahrheit seien, wie es das ZDF ja auch behauptet. Füllen wir für jeden der vier Monate eine Trommel mit entsprechend ausgefüllten Zetteln. Für den Mai beispielsweise sind das 15600000 CDU-, 17600000 SPD-, 2000000 FDP- und 4800000 Stimmen für die Grünen, zusammen 40000000.

Aus jeder der vier Trommeln ziehen wir nun nach einem Zufallsverfahren jeweils 1000 Stimmzettel als repräsentative Querschnitte. Wie viele dieser Querschnitte werden den behaupteten Trend reproduzieren, also die wahren Ergebnisse innerhalb von ±0,5% Genauigkeit liefern?
Das Ziehen der repräsentativen Querschnitte aus den Trommeln haben wir mit dem Computer simuliert. Die Ergebnisse sind im Kasten "Der zeitliche Trend der Parteienstärken" zusammengestellt.
Ergebnis: Lediglich einer von 100000 repräsentativen Querschnitten reproduziert alle sechzehn Einzelergebnisse mit ±0,5% Genauigkeit. Ein parallel durchgeführtes Politbarometer mit einem anderen Querschnitt wäre also zu einem ganz anderen Resultat gekommen.
Bei einem Spielraum von ±2% liegen noch immer 75,3% der repräsentativen Querschnitte außerhalb, das heißt bei drei von vier Politbarometern weichen einzelne der sechzehn angegebenen Parteistärken um mehr als ±2% von den wahren Werten ab.
Selbst bei einem Spielraum von ±3% für CDU/CSU und SPD beziehungsweise ±1,8% für die Grünen und ±1,2% für die FDP - entsprechend ihrer geringeren absoluten Anteile - gibt jedes zweite Politbarometer (51,4%) eine falsche Antwort, liegen also zumindest einzelne der sechzehn angegebenen Werte außerhalb des Spielraums.
Man müßte den Spielraum auf ±4% erhöhen, wenn man die übliche Sicherheit haben wollte, daß nur einer von 20 repräsentativen Querschnitten außerhalb des Spielraums liegt. Bei einem solchen Spielraum interessiert sich aber kein Mensch mehr für das Resultat, denn die Wählerbewegungen von Monat zu Monat gehen darin völlig unter.
Um den interessanten Spielraum von ±0,5% einhalten zu können, müßte man die Zahl der Befragten aber auf 70000 erhöhen.

Diese Zahlen machen deutlich, wie absurd es ist, eine zeitliche Entwicklung, die sich im Prozentbereich abspielt, mit einer Befragung von 4x 1000 "repräsentativ" Ausgewählten analysieren zu wollen.
Offenbar setzen sich die Demoskopen über solch elementare, mathematische Grundlagen ihrer Arbeit schlicht hinweg. Sie suggerieren, durch angeblich repräsentative Befragungen aussagekräftige Meinungsbilder produzieren zu können, wo doch allein der statistische Fehler ihnen keine Chance dazu läßt.

Erst bei 10000 oder besser noch 100000 Befragten könnten sie die Wahrheit einigermaßen sicher diagnostizieren. Doch wer sollte ihnen den entsprechenden Aufwand bezahlen?
Woher sollten sie die Heerscharen ausgebildeter Interviewer nehmen, wo doch bekannt ist, daß sich deren Objektivität nach acht oder höchstens zehn Befragungen erschöpft?
Es hätte allerdings wenig Sinn, derart umfangreiche Befragungen durchzuführen. Denn der ungleich größere Interview-Fehler wäre damit nicht aus der Welt geschafft. Man hätte lediglich das "letzte" statistische Haar aus der Suppe entfernt, der Balken im Auge aber bliebe erhalten. Es bleibt nur das Eingeständnis: Die Demoskopie ist nicht in der Lage, Trendaussagen über vier Monate zu machen, wenn die Bewegungen im Prozentbereich liegen. Man könnte noch mehrere Selbstüberschätzungen der Demoskopie aufzählen, zum Beispiel die beliebten Popularitätswerte von Politikern. Über weite Bereiche könnte man sie, vor allem ihr zeitliches Auf und Ab, ebenso gut mit dem Würfel bestimmen. Das wäre erstens billiger, und zweitens wäre klargestellt, um was es geht: um ein Unterhaltungsspiel im Fernsehen.

Aufgrund von Fehlprognosen haben die Meinungsforschungs-Institute in den letzten Jahren zu einem sehr riskanten Mittel gegriffen: der "Kunst" der Gewichtung. Es werden nicht die tatsächlich in der Umfrage ermittelten Werte veröffentlicht, sondern diese werden rein rechnerisch erhöht oder erniedrigt und nur dieses modifizierte Resultat publiziert.
Beispielsweise werden die erfragten Werte für die SPD und die Grünen erniedrigt, weil "erfahrungsgemäß" bis zum Wahlsonntag Wähler der SPD und der Grünen "ihre Meinung ändern". Oder es werden die ermittelten Werte für die FDP erhöht, weil sie "erfahrungsgemäß" am Wahltag Zweitstimmen von CDU-Wählern erhält.

Falls es sich um empirisch gesicherte Erkenntnisse und nicht um Stammtisch-Argumente handelt, sind solche Korrekturen zulässig. Sie können sogar nützlich sein. Aber sie müssen offen dargelegt und begründet werden, zusammen mit den Rohdaten. Das geschieht jedoch nicht, und die Abänderungen werden verschwiegen.
Die Meinungsforschungs-Institute schaffen sich hier einen Freiraum, von dessen Existenz die Öffentlichkeit keine Ahnung hat und der auch für Manipulationen mißbraucht werden kann.
Das Verschweigen der Gewichtungen kann handfeste politische Auswirkungen haben. Ist es zum Beispiel verantwortbar, der FDP Monat für Monat 6% bis 7% auf den Bildschirm zu projizieren, obwohl ihr bei den laufenden Umfragen ermittelter Zweitstimmenanteil deutlich unter 5% liegt?
Mit diesen Zahlen wird doch dem Wähler suggeriert, die FDP sei sicher über die 5%-Hürde. Wer garantiert aber, daß die Wähler am Wahltag für die "aus Erfahrung" hinzugerechneten 2% tatsächlich aufkommen? Etwa die Gewichtungs-Zauberlehrlinge?
Damit sollen die Anstrengungen der Demoskopen im sozialwissenschaftlichen Bereich keineswegs abgewertet werden, wo es beispielsweise um Fragetechniken geht, die dem Befragten nicht schon Antworten suggerieren.
Aber ein seriöses Institut sollte auch die statistische Verläßlichkeit seiner Umfragen nennen und auf die Interview-Fehler und das Gewichtungs-Dilemma hinweisen. Es sollte die Rohdaten offenlegen und nicht nur Zahlen, die es daraus durch eine geheimgehaltene Kosmetik gewinnt.
Die für die Öffentlichkeit bestimmten Wahlprognosen werden in aller Regel mit besonderem Aufwand betrieben, weil sie durch die Wahl selbst überprüft werden und ein Aushängeschild für die Qualität eines Instituts darstellen. Das einträgliche Alltagsgeschäft kommerzieller Umfragen aber könnte allenfalls durch Parallel-Aufträge überprüft werden, was aus Kostengründen kaum ein Auftraggeber tun wird.
Wehrlos allerdings ist ein Auftraggeber nicht. Er kann als Teil seines Auftrages verlangen, daß Wiederholungen der Befragung im Sinne dieses Beitrags simuliert werden. Bei den handelsüblichen Meinungsumfragen mit einigen hundert bis tausend Interviews werden dann viele der oft zu Dutzenden abgelieferten, angeblich so harten Zahlen wie Butter unter der Simulations-Sonne schmelzen.

Es ist einfach so, daß die Meinungsforschungs-Institute als Meßinstrument nur über eine Elle verfügen, nämlich über Tausender-Querschnitte, die nicht einmal nach einem sauberen Zufallsverfahren ausgewählt werden. Sie suggerieren aber, damit Millimeter-Bruchteile messen zu können, als hätten sie eine Schieblehre.
Daß mit großen Zahlen und demoskopischen Erkenntnissen verläßliche Aussagen möglich sind, werden die Hochrechnungen am Wahlabend beweisen. Sie basieren schon nach relativ kurzer Zeit auf Zehn- und Hunderttausenden von Stimmzetteln aus Wahlbezirken, deren demoskopische Eigenheiten bei der Auswertung berücksichtigt werden.

zurück

zum Archiv