Nochmals statistische Nachlese zur Bundespräsidenten-Wahlaufhebung

Posted by Erich Neuwirth on 8. Mai 2017 in Allgemein with Comments closed |

Ich habe meine statistischen Überlegungen zur Aufhebung des 2. Wahlgangs der Bundespräsidentenwahl jetzt in einem interaktiven Dokument
aufbereitet.

Gerhart-Bruckmann-Preis

Posted by Erich Neuwirth on 29. März 2017 in Allgemein with Comments closed |

Ich habe – worüber ich mich sehr freue – den Gerhart-Bruckmann-Preis 2017 „für Aktivitäten, die dazu beigetragen haben, den Stellenwert der Statistik in der Öffentlichkeit zu verbessern“ verliehen bekommen.

Hier das Link zu meinen Festvortrag und den Details zu diesem Preis

Ein kurzes Video (© Martin Troger) vom Ende der Laudatio, die Gerhart Bruckmann gehalten hat, gibts auch.

Brauchen wir spezielle Taschenrechner im Mathematik-Unterricht?

Posted by Erich Neuwirth on 6. Februar 2017 in Allgemein with Comments closed |

Vor einigen Tagen war ich auf Twitter eine Diskussion zum Thema „Schultaschenrechner” verwickelt.
Ausgangspunkt war ein Artikel auf heise.de

Dieses Thema hat zwei Aspekte; als erstes den, der in dem Artikel angesprochen wird:
Sind diese Rechner durch das Duopol der Hersteller nicht eigentlich viel zu teuer?

Das wichtigere Thema ist allerdings: ist diese Art von Taschenrechner überhaupt ein sinnvolles und zeitgemäßes Hilfsmittel?

Die anspruchsvollen Taschenrechner vom Casio und Texas Instruments,
die in der Sekundarstufe II verwendet werden, decken normalerweise
drei mathematische Teilbereiche ab:

  • Numerisches Rechnen, mit Winkel-, Exponential- und Logarithmusfunktionen
  • Funktionsschaubilder
  • algebraisches Rechnen (Termumformungen, Lösen von Gleichungen)

Auf den besonders gut ausgestatteten Geräten gibt es dann auch noch
Module zu dynamischer Geometrie.

Mit diesen Geräten gibt es aus didaktischer Sicht ein fundamentales Problem:
Außerhalb des Schulunterrichts werden sie praktisch nirgends verwendet.
Die Schule vermittelt also im Mathematikunterricht als eine der zentralen Botschaften: In Mathematik in der Schule verwenden wir Werkzeuge, die kein Mensch außerhalb der Schule je verwendet.

Dabei gibt es dieselben mathematischen Werkzeuge auch auf Geräten, die die meisten Schüler(innen)? schon haben: Smartphones und Tablets.
Für diese Geräte gibt sehr viele Apps, die all das abdecken, was die Taschenrechner können.
Da fast alle diese Geräte auch schon eine Kamera eingebaut haben können sie sogar noch mehr:
Photomath und Mathpix können mathematische Ausdrücke abfotografieren, erkennen und dann weiterbearbeiten. Man kann also eine eine gedruckte Gleichung oder sogar eine
auf Papier mit der Hand geschriebene Gleichung abfotografieren und dann von der App lösen lassen. Wenn man will kann man sich den Lösungsweg sogar Schritt für Schritt vorführen lassen.

Für dynamische Geometrie gibt es GeoGebra.

Es gibt also Geräte, die die meisten Schüler(innen)? schon selber haben, die man direkt im Mathematikunterricht einsetzen könnte. Die jungen Leute würden also sehen, dass Geräte, die in ihrem Alltag außerhalb der Schule eine wesentliche Rolle spielen, auch im Mathematikunterricht eine entscheidendene Hilfe sein können.

In vielen Schulen ist allerdings der Gebrauch vom Handys während der Unterrichtszeit strikt verboten. Statt Mühe darauf zu verwenden, schulisches und außerschulisches Leben miteinander zu verbinden sperrt die Schule außerschulisches Leben aus!

Ein möglicherweise vorgebrachtes Argument, nämlich dass es sich bei den Smartphones und Tablets der Schüler(innen)? um Produkte verschiedener Herstellen handelt und daher nicht alle dieselben Werkzeuge zur Verfügung hätten beruht auf einem Missverständnis. Das mathematische Werkzeug ist das Programm, nicht der Rechner oder das Smartphone, und die angeführten Apps gibt es sowohl für Android als auch für iOS, also für praktisch alle gängigen Smartphones und Tablets.

Beim Rechnereinsatz im Mathematik-Unterricht sollte man aber vor allem Folgendes bedenken: Im Leben außerhalb der Schule wird der überwältigende Anteil aller Aufgaben, bei denen gerechnet werden muss, mit Excel (von Microsoft) gerechnet. Das ist DAS Standard-Werkzeug für numerisches Rechnen. Das wirkt sich auf den Mathematikunterricht bisher nur in sehr geringem Umfang aus. Excel deckt die Bereiche numerisches Rechnen und Funktionsschaubilder vollständig ab, und es bietet einige zusätzliche Möglichkeiten.

Und es ist sowohl für Android als auch für iOS verfügbar, passt also eine Smartphone/Tablet-Strategie.

Es gibt heute wirklich keinen ernstzunehmenden Grund mehr, spezielle Taschenrechner für den Mathematikunterricht anzuschaffen.

P.S.: Vielleicht haben sie sich gewundert, warum da Schüler(innen)? steht.
Das ist der Mechanismus, den ich fürs gendersensible Schreiben verwende. Er kommt aus der Informatik und heißt „reguläre Ausdrücke”. Wenn eine Buchstabenfolge in Klammern steht und unmittelbar danach ein Fragezeichen, dann bedeutet das, dass diese Buchstabenfolge an dieser Stelle einmal (nicht öfter) oder eben nicht vorkommen kann. Ein geklammerter Ausdruck mit gleich danach einem Plus-Zeichen heißt, dass dieser Ausdruck mindesten einmal, aber auch öfter, nämlich beliebig oft vorkommen kann.
(ha)+ kann also ha, haha, hahaha, hahahaha … sein.

PISA in Österreich – Geschlecht und Schultyp

Posted by Erich Neuwirth on 1. Februar 2017 in Allgemein with Comments closed |

Im falter 5/17 ist ein Artikel von mir zum Thema PISA erschienen. Der Artikel ist allerdings nicht gratis zu lesen.

In diesem Artikel wird auch auf erweiterte Analysen und die notwendigen Daten in diesem Blog verwiesen.

Einen Teil der erweiterten Analyse (sämtliche PISA Ergebnisse aus allen EU-Staaten) gibts in einem früheren Blogbeitrag.

Hier noch die zusätzliche erweiterte Analysen, nämlich sämtlich PISA-Ergebnisse aus Lesen, Mathematik und Naturwissenschaften aus Österreich, gegliedert nach Schultyp.

Die Ergebnisse für 2009 sind laut OECD mit großer Vorsicht zu interpretieren, durch eine Boykottaufruf wurde ein Teil der Ergebnisse
höchstwahrscheinlich verfälscht.

Die letzte dieser Tabellen gibt die Anteile der Schüler in den einzelnen Schultypen an (Sonderschüler und Schüler mit unbekanntem Schultyp wurden vor den Berechnungen aus den Daten ausgeschieden).

Interessant ist auch die Analyse getrennt nach Geschlechtern:

Die beiden Anteilstabellen am Schluss geben einmal die Anteile derr Schultypen berechnet an Mädchen und Burschen getrennt und einmal berechnet an allen Schülern und Schülerinnen gemeinsam an.

Unterschiede zwischen den Verteilungen der Werte erkennt man einfacher mit grafischen Darstellungen, nämlich mit Dichteschaubildern. Die Kurven geben an, in in welchen Bereichen der PISA-Scores es mehr und in welchen Bereichen es weniger Schüler gibt.

Die senkrechten Linien markieren die Mittelwerte aus den eben engeführten Tabellen.
Fürs Lesen schaut das getrennt nach Schultypen so aus:

Man sieht ganz deutlich, dass es zwischen den einzelne Schultypen große Leistungsunterschiede gibt.

nach Geschlechter getrennt schauen die Verteilungen so aus.

Für Mathematik ergibt sich folgendes Bild

Für die Naturwissenschaften schein die Verteilungen so aus:

Die Daten für diese Analyse können sie als Excel-Arbeitsmappe herunterladen.

Sind die PISA-Ergebnisse 2012 und 2015 vergleichbar?

Posted by Erich Neuwirth on 31. Januar 2017 in Allgemein with Comments closed |

In der Diskussion um die PISA-Ergebnisse wird sehr wenig darüber gesprochen, dass bei Abwicklung des Tests eine ziemlich bedeutsame Änderung vorgenommen wurde: 2012 mussten die getesteten Jugendlichen noch mit Arbeitsblättern aus Papier arbeiten, 2015 wurde der Test auf Computern abgewickelt.

Eine derartig radikale Umstellung des Testverfahrens kann natürlich auf die Ergebnisse einen starken Einfluss haben.

Wir sehen uns daher die Testergebnisse in Hinblick auf möglicherweise dadurch verursachte Veränderungen genauer an.

An PISA nehmen so verschiedene Länder wie Österreich, Indien, Japan und Mexiko teil. Da ist zu erwarten, dass es abgesehen von der Abwicklung des Tests noch weitere sehr große für PISA relevante Unterschiede gibt. Beschränken wir uns beim Vergleich auf die EU-Staaten. Es gibt derzeit 27 EU-Länder. Mit Ausnahme von Malta haben alle an PISA 2012 und PISA 2015 teilgenommen, wir untersuchen also 26 Länder.

Sehen wir uns die Lese-Ergebnisse in diese Ländern (gegliedert nach Geschlecht) an.

Lese-Ergebnisse PISA 2012 und 2015 – EU-Staaten

Die drittletzte und die vorletzte Spalte zeigen die Geschlechterdifferenz beim Lesen für alle 26 Länder.

In allen untersuchten Ländern schneiden die Mädchen in beiden Testperioden beim Lesen deutlich besser ab als die Buben, und die entsprechenden Punktedifferenzen sind teilweise dramatisch hoch (über 50 Punkte).

Die letzte Spalte der Tabelle gibt an, wie sich der Geschlechterunterschied im Lesen von 2012 auf 2015 verändert hat, und da stellen wir fest, dass er in *allen* Ländern kleiner geworden ist, in 13 der 26 Länder um 15 oder mehr Punkte.

In 15 der 26 Länder haben sich die Mädchen verschlechtert und die Buben verbessert.

In 3 Ländern (Slowenien, Spanien und Schweden) haben sich die Mädchen zwar im Lesen verbessert, die Buben deutlich stärker; da die Buben überall im Lesen schlechter als die Mädchen sind, hat sich daher in diesen Ländern die Geschlechterdifferenz verringert.

In 7 der 26 Länder (Belgien, Griechenland, Ungarn, Luxemburg, Niederlande, Polen und Slowakei) haben sich Buben und Mädchen verschlechtert, die Verschlechterung bei den Buben war aber kleiner als die bei den Mädchen, also hat auch in diesen Ländern die Geschlechterdifferenz abgenommen.

Man kann wohl nicht davon ausgehen, dass die Verringerung der Geschlechterdifferenz im Lesen darauf zurückzuführen ist, dass alle diese 26 Länder gleichzeitig bildungspolitische Maßnahmen zur Verringerung dieser Geschlechterdifferenz wirksam umsetzen konnten.

Eine deutlich plausiblere Erklärung erscheint da, dass sich die Umstellung von papierbasiertem auf computerbasiertes Testverfahren bei den Mädchen anders ausgewirkt hat als bei den Buben.

Wenn das der Fall ist, dann bedeutet das, dass man bei Vergleichen von früheren mit den aktuellen PISA-Ergebnissen mit höchster Vorsicht umgehen muss.

Wenn man ein Messverfahren ändert, dann kann man die gemessenen Werte nicht mehr ohne zusätzliche Analyse vergleichen.

Die folgenden Tabellen zeigen, dass die Änderung der Testabwicklung in Mathematik und den Naturwissenschaften nicht so über die Länder hinweg homogene Auswirkungen auf die Geschlechterdifferenzen hatte.

Mathematik-Ergebnisse PISA 2012 und 2015
EU-Staaten

Naturwissenschaften-Ergebnisse PISA 2012 und 2015
EU-Staaten

Sind wir bei PISA wirklich schlechter geworden?

Posted by Erich Neuwirth on 7. Dezember 2016 in Allgemein with Comments closed |

Ich habe gestern einen ersten Kommentar zu den PISA-Ergebnissen für 2015 verfasst.

Das am meisten berichtete Ergebnis war, dass wir uns im Vergleich zu 2012 in allen Gebieten verschlechtert haben.

Nicht berichtet wurde in der Regel, dass es da große geschlechterspezifische Unterschiede gibt.

Die Ergebnisse der Buben beim Lesen sind sogar geringfügig besser, die der Mädchen aber bedeutend schlechter.
In Mathematik und ind den Naturwissenschaften wurden die Ergebnisse sowohl der Buben als auch der Mädchen schlechter,
die Verschlechterung bei dem Mädchen war aber deutlich höher als bei den Buben.

Wenn man nach Erklärungen für diese Unterschiede sucht und die österreichische Dokumentation zu PISA 2015 liest, dann stellt man fest, dass es einen großen Unterschied zwischen PISA 2015 und den früheren PISA-Tets gibt: 2015 wurde (zumindest in allen OECD-Mitgliedsländern, also auch in Österreich) der Test an Computern durchgeführt.

Die OECD hat zwar in der Vorbereitungsphase für PISA 2015 (nämlich 2014) einen Feldtest durchgeführt, um zu untersuchen
ob der Papier-und-Bleistift-Test und der Computertest vergleichbar sind; die OECD berichtet in ihrer internationalen Dokumentation (im Anhang A5) über diese Vergleiche.

Es gibt allerdings ein Riesenproblem:
Österreich hat an dieser vorbereitenden Feldstudie nicht teilgenommen.

Es gibt Hinweise darauf, dass in Deutschland der Computertest schwieriger war als der Papier-und-Bleistift-Test (siehe Zitat weiter unten), vergleichbare Erkenntnisse für Österreich gibt es aber einfach nicht.

Wir haben also keinerlei halbwegs gesichertes Wissen darüber, wie sich die Testumstellung auf die österreichischen Ergebnisse ausgewirkt hat.

Denkbar sind zum Beispiel folgende Effekte:

  • In Ländern, in denen in den Schulen Computertests schon im Regelunterricht üblich sind, könnte sich die Umstellung weniger auf das Ergebnis auswirken als in Ländern, wo Computertests im in vielen Schulen Regelunterricht kaum üblich sind (was ich für Österreich annehme)
  • Da sich Buben vielleicht außerhalb der Schule eher mit Computern beschäftigen als Mädchen könnte das auch eine Erklärung für die im Vergleich zu früher stark veränderten Geschlechtsunterschiede sein.

Österreich hat am Feldtest 2014 nicht teilgenommen, weil es im Schulbereich in ganz anderem Kontext zu einem Problem mit Datensicherheit gekommen ist und die damalige Bildungsministerin, Frau Heinisch-Hosek, in einer (meiner Meinung nach übertriebenen) Panikreaktion daraufhin alle Vorbereitungsarbeiten für PISA gestoppt hat. Ich habe damals mehrfach darauf hingewiesen, dass es sehr unangenehme Folgen haben kann, wenn wir an der Eichung des neuen Tests nicht teilnehmen.

Genau solche Folgen, die die Aussagekraft der PISA-Ergebnisse drastisch reduzieren, sind jetzt eingetreten.

Hier noch ein Zitat aus dem österreichischen PISA-Bericht des bifie (Seite 1/4), das sich mit dem Unterschied zwischen Papier-und-Bleistift-Tests und Computertests beschäftigt.

Die sogenannten Trenditems (jene Aufgaben, die bereits in früheren Erhebungen eingesetzt wurden), die die Basis für die Messung von Leistungsveränderungen über die Zeit bilden, mussten für PISA 2015 von der Papierversion in eine Computerversion übertragen werden. Dadurch kann sich allerdings die Schwierigkeit der Aufgabe für die Schüler/innen ändern. Um sicherzugehen, dass ein Umstieg von einer papier- auf eine computerbasierte Testung keine Auswirkung auf die Vergleichbarkeit der Ergebnisse der aktuellen Erhebung mit den früheren Erhebungen hat, wurde von der OECD im Rahmen des Feldtests eine Mode-Effect-Studie durchgeführt (vgl. Kapitel 3). Eine Zusammenfassung der Ergebnisse der Mode-Effect-Studie findet sich in Anhang AT des internationalen Ergebnisberichts der OECD (2016a). Die OECD weist darin darauf hin, dass die Ergebnisse zwischen den beiden Erhebungsmodi auf internationaler Ebene (bei Betrachtung aller PISA-Teilnehmerländer) vergleichbar sind. Dies bedeutet, dass sich die durchschnittliche Leistung sowie der Anteil der Schüler/ innen auf den verschiedenen Leistungslevels nicht signifikant unterscheiden würden, wenn die Schüler/innen, die den Test am Computer bearbeitet haben, denselben Test auf Papier absolviert hätten.

Die von der OECD berichteten Ergebnisse der Mode-Effect-Studie sind allerdings mit der Einschränkung verbunden, dass durch das Design dieser Studie lediglich Aussagen über die Schüler/innen aller Teilnehmerländer möglich sind, aber keine aussagekräftigen Rückschlüsse für einzelne Länder. Es kann also durchaus sein, dass in einzelnen Ländern der Wechsel auf eine computerbasierte Erhebung teilweise die Ergebnisse beeinflusst. In Österreich wurde aufgrund der Verschiebung der Projektphasen im Feldtest ausschließlich computerbasiert getestet, sodass von Österreich keine Daten zu Moduseffekten vorliegen und auch keine Daten in die internationale Mode-Effect-Studie eingehen konnten. Für Österreich gibt es also keine Möglichkeit, die Leistungen der Schüler/innen beim herkömmlichen Papier-und-Bleistift-Test mit jenen im Computertest direkt zu vergleichen und damit auch keinen Anhaltspunkt dafür, wie groß eine durch die Erhebungsmodalität bedingte Veränderung (Mode Effect) ausfällt. Für Deutschland liefert der Feldtest 2014 beispielsweise Hinweise darauf, dass die PISA-Aufgaben im Mittel am Computer schwieriger waren als auf Papier. Dabei scheinen die Mode Effects durch den Computer bei den Naturwissenschaftsitems am größten, bei den Lese- items am geringsten zu sein (Sälzer & Reiss, 2016).

Erste Anmerkungen zu den PISA-2015-Ergebnissen

Posted by Erich Neuwirth on 6. Dezember 2016 in Allgemein with Comments closed |

Die PISA-Ergebnisse für 2015 wurden heute veröffentlicht.

Die OECD hat nicht alle früheren Ergebnisse angeführt, deswegen weisen wir hier die Ergebnisse aller bisherigen PISA-Tests zur Übersicht aus.

Einige Zahlen in dieser Tabelle sind fett gedruckt. Warum?
Die OECD ist der Meinung, dass man Längsschnittvergleiche erst ab jenem Zeitpunkt machen sollte, an dem eine der 3 Domänen erstmals Hauptdomäne war. Das war bei Lesen 2000 (und 2009), bei Mathematik 2003 (und 2012) und bei den Naturwissenschaften 2006 (und 2015). Das sind die fettgedrucken Zahlen.

Warum sind die Zahlen in der Zeile für das Jahr 2009 kursiv gedruckt? Die OECD schränkt (auch im oben verlinkten Bericht) die Interpretationsmöglicheiten der Ergebnisse für 2009 drastisch ein und meint, dass diese Zahlen für Längsschnittvergleiche nicht geeignet sind.
Zur Erinnerung: Damals gab es von manchen Schülervertretern einen Boykottaufruf und deswegen musste eine doch merkbare Anzahl von Testbögen als nicht auswertbar ausgeschieden werden. Das hat wahrscheinlich das Testergebnis für 2009 etwas verzerrt.
Lässt man 2009 einmal außer Acht, dann sind die Ergebnisse für Mathematik und Lesen für alle anderen Tests bis 2012 praktisch gleich.
Da kaum anzunehmen ist, dass es in einem doch recht trägen Bildungssystem innerhalb von 3 Jahren zu einem dramatischen Absturz und in den 3 folgenden Jahren zu einem Aufschwung zu alten Höhen kommt, sollte man die Abweichung der Ergebnisse von 2009 aufgrund einer deutlich anderen psychologischen Situation beim Tests mit höchster Vorsicht interpretieren. Das ist auch der Grund, warum die OECD diese Zahlen in manchen Berichten gar nicht veröffentlicht.

Vergleicht man die Ergebnisse von 2009 mit 2015, so sieht man, dass die Ergebnisse in allen 3 Domänen schlechter wurden, und zwar
im Lesen um 5 Punkte, in Mathematik um 9 Punkte, und in den Naturwissenschaften sogar um 11 Punkte.

Sehr interessant werden die Ergebnisse, wenn man sie nach Geschlecht aufgliedert:

Am auffälligsten ist, dass die Verschlechterung im Lesen nur bei den Mädchen stattgefunden hat (um 13 Punkte), die Buben haben sich sogar geringfügig verbessert (um 4 Punkte).

In Mathematik und Naturwissenschaften sind die Ergebnisse sowohl bei den Buben als auch bei dem Mädchen schlechter geworden, bei den Mädchen war die Verschlechterung 12 bzw. 16 Punkte, bei den Buben 7 bzw. 6 Punkte.

Bei derartigen Mustern in Daten (insbesondere die völlig verschiedene Entwicklung bei Buben und Mädchen im Lesen) wird man an den bei PISA 2003 zunächst behaupteten „Absturz“ erinnert. Damals hat eine genauere Analyse ergeben, dass der Absturz nur bei den Buben feststellbar und auf ein Gewichtungsproblem der Stichprobe zurückzuführen war.

Da es auch diesmal auffällige Unterschiede bei den geschlechtsspezifischen Änderungen gibt scheint es sinnvoll, die aktuellen Daten genauer zu analysieren um diese Unterschiede erklären zu können.

Wahlkampfplanung, Daten und Statistik. Und die Experten.

Posted by Erich Neuwirth on 15. November 2016 in Allgemein, Statistische Fakten zur Politik with Comments closed |

Ich habe heute zwei sehr interessante Artikel gelesen:

Hat Clintons Algorithmus versagt?

und

Guest post: the foreclosure vote

„Foreclosure homes“ sind Häuser, die zwangsversteigert werden.

Beide Artikel geben Hinweise, dass Hillary Clinton mit ihrem ausgeklügelten computerbasierten „Wählerkontakteprogramm“ wesentliche Wählergruppen nicht erreicht hat, weil die Qualität der Daten zu schlecht war.

Das kann passieren.

Es hat aber vor allem mit dem Glauben an die Überlegenheit von auf Algorithmen beruhenden Entscheidungssysteme zu tun.

Viele solcher Systeme werden ja mit dem Argument „sie müssen nichts von den Methoden und Theorien verstehen, die Daten werden ihnen gute Prognosen liefern“ vermarktet.

Was da der Clinton-Kampange passiert ist zeigt, wie falsch derartiges Denken ist.

Alle Prognosemodelle sind – wie der Name sagt – Modelle; sie beruhen also auf bestimmten Annahmen, das sind in der Regel mathematische Gleichungen, die Zusammenhänge quantifizieren, indem sie aus vorliegenden Daten z.B. errechnen, welche Werte bestimmte Variable annehmen.

Wenn man so ein Modell verwendet, dann sollte man verstehen, wie es funktioniert und auf welchen Annahmen es beruht. Und man sollte auch über die Datenqualität Bescheid wissen. Man sollte auf keinen Fall Daten einfach übernehmen und einfach davon ausgehen, das die korrekt sind. Das Problem ist ernsthaft arbeitenden Statistikern bekannt; es gibt mittlerweile eigene „Werkzeugkästen” für data tidying and cleansing, also Datenputzen.

In den vielen Projekten, die ich als statistischer Konsulent gemacht habe, ist mir noch kein einziger Fall untergekommen, wo die Daten im Originalzustand schon die für eine sinnvolle Auswertung oder Prognose notwendige Qualität hatten.

Die Probleme, die diese beiden Artikel beschreiben, könnte man auch unter den Begriffen „Data Science ist noch nicht Statistik“ zusammenfassen.

Data Science wird oft verkauft als automatisiertes Werkzeug zum Gewinnen von Erkenntnissen aus Daten,
bei denen man sich ein gründliches Eingehen auf die Modellannahmen ersparen kann.

Das kann bei Problemen, die durch vorgefertigte Standardmodelle abgedeckt werden, immer wieder einmal gut gehen. Es kann aber auch – und das scheint in der Clinton-Kampangne passiert zu sein – gewaltig schief gehen.

Viel Denkarbeit (also Auseinandersetzung mit der Modellbildung) kann nicht automatisiert werden, und ebenso kann die Beurteilung, ob die Datenqualität zur Beantwortung bestimmter Fragen ausreichend ist, nicht automatisiert beantwortet werden.

Wenn man Modelle verwendet und daraus Prognosen und Analysen ableitet, dann ist es auch sehr wichtig, klar zu kommunizieren, welche Teile der Ergebnisse auf echten Daten beruhen, und welche Teile Szenarien – also denkmögliche Varianten eines Sachverhalts – beschreiben.

Wenn man am Abend einer Wahl zu einem Zeitpunkt, wo die Briefwahlstimmen noch nicht ausgezählt sind, Wählerstromanalysen publiziert und so tut, als wären da schon die Briefwählerstimmen mitberücksichtigt, dann verkauft man nämlich die Konsumenten für dumm.

Bei der letzten Bundespräsidentenwahl wurden etwa 1/6 der Stimmen als Briefwahlstimmen abgegeben.
Diese Daten hat es am Wahlabend noch nicht gegeben. Trotzdem wurde eine Wählerstromanalyse inklusive Briefwahlstimmen publiziert. Es wurde in keiner Form darauf hingewiesen, dass 1/6 der Daten dieser Analyse fiktiv war, sie beruhten nämlich auf einer Prognose für Wahlkartenstimmen, also einer Wahlhochrechnung für diese Stimmen. Dafür gab es aber zum Zeitpunkt der Analyse keine Daten.

So etwas zu tun ist in meinen Augen wissenschaftlich unredlich.

Man gaukelt den Medienkonsumenten eine Genauigkeit der Analyse vor, die weder durch die Datenlage
noch durch eine ausreichend unumstrittene Modellbildung zu rechtfertigen ist.

Und jetzt noch eine dringende Leseempfehlung: wie solche automatisierten Entscheidungsprozesse zu politisch und gesellschaftlich sehr gefährlichen Folgen führrn können kann man im Buch

Weapons of Math Destruction von Cathy O’Neill

nachlesen. Ihre Website mathbabe.org ist es ebenfalls wert, regelmäßig besucht zu werden. (Auf dieser Website findet sich auch der zweite in diesem Blogbeitrag zitierte Artikel).

Wahlanalysen für die Steiermark

Posted by Erich Neuwirth on 26. Oktober 2016 in Allgemein with Comments closed |

Ich habe am 15. Oktober einem Vortrag für die Kommunalpolitische Vereinigung der ÖVP Steiermark gehalten. Der Titel war


Wähler in der Stadt – Wähler am Land
Unterschiede und Gemeinsamkeiten

Die KPV hat mir freundlicherweise gestattet, die Vortragsfolien auch öffentlich zur Verfügung zu stellen.

Hier sind sie.

Diese Webseite funktioniert auf mobilen Geräten nicht besonders gut.

Wahlkarten und Urnenwahl in Deutschland

Posted by Erich Neuwirth on 19. Oktober 2016 in Allgemein with Comments closed |

Da es Gerüchte gibt, dass es nur in Österreich auffällige Unterschiede zwischen Urnenwahlergebnissen und Briefwahlergebnissen gibt, habe ich mir die Ergebnisse der deutschen Bundestagswahl 2013 in dieser Hinsicht angesehen. Die Analyse gtbts auf www.wahlanalyse.com.

Copyright © 2011-2017 Bildung und Statistik All rights reserved.
This site is using the Desk Mess Mirrored theme, v2.5, from BuyNowShop.com.

Transparenzgesetz.at Info-Logo