Wer bestimmt die Themen der bildungspolitischen Diskussion?
In den letzten Tagen ist plötzlich wieder die Diskussion, wie schlecht die österreichischen PISA-Ergebnisse sind, losgebrochen. Es geht vor allem um den Anteil der leistungsschwachen Schüler (in PISA-Terminologie low performers).
Die OECD hat dazu einen neuen Bericht mit genaueren Analysen vorgelegt.
Die ganze Diskussion, die jetzt stattfindet, beruht auf zwei Tabellen aus diesem Bericht.
Die OECD veröffentlicht mittlerweile dankenswerterweise viele Tabellen aus ihren Berichten als Excel-Tabellen, damit man selbst weitere kleine Analysen machen kann.
Es gibt da eine Tabelle mit den Anteilen der leistungsschwachen Schüler in den drei PISA-Disziplinen Lesen, Mathematik und Naturwissenschaften, und es gibt eine Tabelle mit den Anteilen aller Schüler, die in je 2 oder sogar in allen 3 Disziplinen leistungsschwach sind.
In der aktuell laufenden Diskussion entsteht der Eindruck, dass es sich da um bisher nicht bekannte Ergebnisse handelt und dass man daher auf neue Erkenntnisse reagieren müsse.
Tabellen über den Anteil der leistungsschwachen Schüler in den einzelnen Disziplinen gibt es seit der Veröffentlichung
der PISA-Ergebnisse von 2012, als seit Dezember 2013.
Die Tabellen finden sich auch im 2014 erschienenen PISA-Report, wie hoch die Anteile der „low performers“ in den einzelnen Disziplinen sind ist als schon jahrelang bekannt.
Die Diskussion über den relativ hohen Anteil an leseschwachen Schülern hätten wir schon ab Jänner 2014 führen können. Mussten wir wirklich warten, bis die OECD ca. 2 Jahre später eine Pressekonferenz zu diesem Thema gegeben hat?
Und noch ein weiterer Punkt erscheint mir in der Diskussion um PISA bemerkenswert. 2009 waren die PISA-Werte Österreichs deutlich schlechter als 2003 und 2006. 2012 sind sie dann wieder auf das Niveau von 2003 und 2006 gestiegen. Wir hatten nach 2009 eine hitzige Diskussion über die Ursachen der kurzfristigen Verschlechterung, und nach 2012 haben dann einige Leute gemeint, dass wir offensichtlich durch richtige Maßnahmen wieder zum alten Niveau zurückgekehrt sind.
Sieht man sich (im schon verlinkten offiziellen PISA-Bericht für 2014) die Tabellen (im Annex B1) an, die die Länderwerte von 2000 bis 2012 (also die zeitliche Entwicklung) im Annex B1 darstellen, dann sieht man, dass da für das Jahr 2009 keine Werte für Österreich vorkommen.
Wenn man den Bericht genauer liest, dann findet man auf Seite 53 folgendes:
… the comparability of 2009 data with data from earlier PISA assessments cannot be ensured, and data for Austria have been excluded from trend comparisons.
Die Daten für 2009 sind also nicht zuverlässig genug, daraus solide Schlüsse ziehen zu können. Also waren die ganzen hitzigen Diskussionen nach 2009 und auch die Vergleiche von 2009 mit 2012 potemkinsche Dörfer.
Ich hielte es für einen wesentlichen Beitrag zur Bildungspolitik, wenn man sich bei vielen bildungspolitischen Themen (auch am konkreten Beispiel PISA) in der Schule, der Lehrerausbildung und der Lehrerfortbildung anhand der verfügbaren Daten mit den Themen selbst auseinandersetzt und nicht nur bei Pressekonferenzen Mitgeteiltes weiterverbreitet.
Die große Chance der Informationsgesellschaft besteht darin, dass man Zugang zu viel mehr Quellen hat als früher. Man kann sich also (auch zum Thema PISA) auf Grundlage verfügbarer Daten eine eigene durch Sachargumente begründbare Meinung bilden und ist nicht auf schlagzeilengeeignete Formulierungen anderer angewiesen.
Dass das Teil einer grundlegenden Bildungsreform sein kann hat sich aber anscheinend zu den für die Bildungspolitik Verantwortlichen noch nicht durchgesprochen. Die streiten lieber darüber, wer für die Verwaltung der Lehrer zuständig sein soll.
Das Wetter, das Prozentrechnen und die Statistik
Ich hab schon viel groben Unfug in Tageszeitungen gelesen, aber es gibt immer noch Überraschungen, die man nicht für möglich hält.
In der der Ausgabe der Tageszeitung „österreich“ vom 8.2.2016 findet man Folgendes (man beachte die eingeringelten Stellen):
Jänner war 337% wärmer als üblich
Ausgangspunkt ist die Tatsache, dass die Wiener Durchschnittstemperatur im Jänner 2016 3,5 Grad betragen hat. Dieser Wert wird mit einem nicht näher spezifizierten Wert von 0,8 Grad verglichen. Dieser Wert ist vielleicht ein langjähriger Durchschnittswert, das wird aber nicht angegeben, und natürlich auch nicht, für welchen Zeitraum das ein Durchschnittswert sein soll.
Hätte man in New York dieselben Werte auf der dort üblichen Fahrenheit-Skala gemessen, dann wären die 3,5 Grad Celsius als 38,3 Grad Fahrenheit und die 0,8 Grad Celsius als 33,4 Grad Fahrenheit angegeben worden. Da wäre die Temperatur von 2016 also um 14% höher als im langjährigen Durchschnitt.
Was stimmt jetzt, 337% oder 14%?
Beides ist grober Unfug.
Es ist bei Temperaturen einfach sinnlos, von „doppelt so viel“ oder von „um x% mehr“ zu sprechen, weil Temperatur auf verschiedenen Skalen (beispielsweise Celsius und Fahrenheit) gemessen werden kann und diese Skalen nicht denselben Nullpunkt haben.
Was man tun kann (und die Daten dazu gibts beispielsweise hier), ist festzustellen, dass in den 50 Jahren vor 2016 (1966-2015) die Jännerdurchschnittstemperatur in Wien 5x höher und 45x geringer war. Diese Angabe stimmt auch dann, wenn man die Temperaturen in Fahrenheit misst! Und man sieht, dass derartig hohe Durchschnittstemperaturen immer wieder einmal vorgekommen sind.
Ein bisschen Theorie dazu:
Die Statistik unterscheidet zwischen Verhältnisskalen und Intervallskalen. Bei Verhältnisskalen ist es sinnvoll, von
„um x% mehr“ oder von „doppelt so viel“ zu sprechen. Preise, Geschwindigkeiten und Zeitdauern sind Beispiele für Verhältnisskalen. Bei Intervallskalen kann man zwar die Werte selbst nicht vergleichen, wohl aber Differenzen von Werten. Temperaturen sind ein klassischer Fall für Intervallskalen. Auch die Punkteskala beim PISA-Test ist eine Intervallskala (aber das hat sich nicht bis zu allen damit Befassten herumgesprochen).
Wenn sie das genauer interessiert, dann finden sie in der Wikipedia entsprechende Artikel.
Und wenn die Zahl „337%… auch sachlich sinnlos ist, enthält sie noch einen weiteren Denkfehler.
Die 0,8 Grad sind ja gerundet. Auch 0,75 Grad oder 0,849 Grad ergäben gerundet noch 0,8 Grad. Ebenso könnte der gerundete Wert von 3,5 auch durch Rundung aus einer Messung von 3,45 Grad oder auch 3,549 Grad entstanden sein.
Wären die beiden Werte 3,45 und 0,849 Grad, dann betrüge der Zuwachs 306%, wären die Werte 3,549 Grad und
0,75 Grad, dann betrüge der Zuwachs 373%. In Rahmen der Messgenauigkeit kann man also eigentlich nur sagen, dass
der „Zuwachs“ zwischen 300% und 380% liegt.
Der Artikel schafft es also, gleich zwei fundamentale Fehler beim Umgang mit Zahlen zu machen. Er zeugt vor allem von einem totalen Missverständnis davon, in welcher Form Zahlen etwas über die Wirklichkeit aussagen können.
Zusätzlich zeigt er auch, dass der_die Autor_in keine Ahnung davon hat, welche Genauigkeit beim Ergebnis von Rechenoperationen sinnvollerweise angegeben werden kann.
Ärgerlich an der Sache ist auch, dass das in einer Zeitung geschieht, die nur durch Werbung finanziert wird, denn diese Werbung wird teilweise aus Steuermitteln bezahlt. Und damit habe ich als Steuerzahler diesen Unfug mitfinanziert.
Wenn diese Zeitung dann noch Ratschläge zur Bildungspolitik erteilt sind wir in einer Zwischenzone zwischen kafkaesk und herzmanovsky-orlandisch.
Tabellenkalkulation und mathematische Abstraktion
Diesmal ist ein bisschen was „härteres“; nämlich ein Artikel, den ich für eine Mathematik-Informatik-Didaktik-Zeitschrift geschrieben habe. Und noch dazu in Englisch. Also ist er eigentlich für ein Mathematiker-Fachpublikum bestimmt. Wenn ich etwas Didaktisches schreibe, dann bemühe ich ich immer sehr, die Inhalte so verständlich wie möglich darzustellen, deswegen trau ich mich etwas.
Dass ich so einen Artikel auch einer nichtfachlichen Öffentlichkeit anbiete ist ein Testballon. Deswegen sind Rückmeldungen für mich sehr wichtig. Also bitte kommentieren sie den Text.
Auf die Idee, das zu veröffentlichen, bin ich gekommen, weil es auf twitter eine angeregte Diskussion darüber gab, wem, wie und unter Betonung welcher Aspekte man Mathematik heutzutage vermitteln sollte. Ich habe da (in stark verkürzter Form) den Abschnitt 3 dieses Artikels über Tabellenkalkulation und mathematische Notation als Beispiel für etwas, das mir wichtig ist, gebracht.
Also bitte: halten sie sich nicht zurück, kommentieren sie den Artikel.
In der Mathematik ist es übrigens schon so, dass man nicht alles beim ersten mal lesen versteht. Wenn ihnen also manches beim ersten mal lesen unverständlich ist und ihnen um die Zeit nicht zu schade ist, lesen sie es doch bitte ein zweites Mal.
Und hier ist endlich das Link: Spreadsheets as Tools for Constructing Mathematical Concepts
Wiener Gemeinderatswahl, Wählerstromanalysen und Umsprengelungen
Ich habe in der nzz.at einen Artikel mit dem Titel Wien-Wahl: Umsprengelungen führen zu spekulativen Analysen veröffentlicht.
Eine leicht geänderte Fassung gibts auf meiner eigenen Website www.waehlerstromanalyse.at.
Mathematik erklären – eine Herausforderung
Einer meiner Enkel besucht seit heuer das Gymnasium. Ich erlebe also sehr unmittelbar manche Verstehensschwierigkeiten bei mathematischen Inhalten mit. Die erste Schwierigkeit war, zu erklären, wozu das Assoziativgesetz $(a+b)+c=a+(b+c)$ zu gebrauchen ist.
Einen Erklärungsversuch habe ich in einem Blogeintrag aufgeschrieben.
Wenn ich weitere einschlägige Themen erklären muss, dann wird es weitere Blogeinträge geben.