
Op de website Sargasso.nl zet Age Letor serieuze vraagtekens bij de bewering van het ministerie dat de zwaardere exameneisen in het VO inderdaad, zoals het ministerie al verwachtte, hebben geleid tot betere resultaten. Letor laat aan de hand van de N-termen en de zogenaamde P-waarden zien dat het er op lijkt dat juist door die N-termen het geschetste beeld te positief is.
Voor BON illustreert dit het probleem dat bestuurders en beleidbepalers vaak belang hebben bij een positieve evaluatie van het door hen ingezette beleid en daarom, bewust of onbewust, te positief communiceren. Bij de rekentoets bleek vaak dat de resultaten niet zo goed waren als eerder werd gemeld, ook de beweringen over draagvlak onder docenten bij Onderwijs2032 en het lerarenregister bleken anders in eerste instantie gemeld.
Dat de bakker op de hoek zichzelf de beste bakker van het hele dorp noemt is begrijpelijk en iedereen weet wat de waarde is van deze WC-eend boodschap. Maar als de overheid, of bijvoorbeelde de OnderwijsCoöperatie op het gebied van onderwijs zaken te positief voorstelt is dat in onze ogen een serieus probleem.
Toen het studiehuis werd
Toen het studiehuis werd ingevoerd waren er een paar scholen die in het voorafgaande jaar proefdraaiden. Voor de klassieke talen kregen de leerlingen van zowel de wel-voorlopende scholen als van de niet-voorlopende scholen voor de klassieke talen dezelfde eindexamenopgaven met dezelfde beoordelingsnormen De resultaten voor de klassieke talen bij het proefdraaien waren voor de betreffende scholen zo slecht dat de normen voor hun leerlingen bijgesteld moesten worden om de proefscholen aan een acceptabel aantal voldoendes te helpen. Hieraan is veel te weinig aandacht aan besteed.
Wanneer ik het goed begrijp
Wanneer ik het goed begrijp kreeg vóór 2013 een leerling die alle vragen goed beantwoord heeft in een jaar waarin de opgaven gemakkelijk waren (2011; P = 0,61) een 9,8 en in een jaar waarin de opgaven moeilijk waren (2009; P = 0,58) een 10,2. Dat eerstgenoemde leerling niet de mogelijk had een 10,2 te verdienen is natuurlijk niet fair.
Vanaf 2013 geldt dat nog steeds. Alleen waren de gmakkelijke vragen van toen nu moeilijke vragen geword en (2013; P = 0,61)en en de makkelijke vragen nu gemakkelijker dan toen (2014; P = 0,63). Geen wonder dat de resultaten beter geworden zijn!
Lees ook het heldere artikel
Lees ook het heldere artikel hierover van classica Anneke Korevaar, “minister stuurt examencijfers”, uit 2005 alweer:
www.blikopdewereld.nl/onderwijs/2740-2005-anneke-korevaar-minister-stuurt-examencijfers
In 2011 moest een leerling 52
In 2011 moest een leerling 52,22 % van de opgaven goed hebben om het cijfer 5,5 te krijgen. In 2013 was dat 49,44%. In beide jaren was P = 0,61. Als gelijke P-waarde inhoudt dat de opgaven in beide jaren even zwaar waren konden de leerlingen van 2013 ten onrechte met 2,7% van de opgaven minder goed het grenscijfer 5,5 behalen
Waarom valt geen enkele
Waarom valt geen enkele oppositiepartij het ministerie van onderwijs aan op het gejoemel met eindexamencijfers?
Vragen bovenstaande
P.S. Het valt op dat het CvE
De verklaringen van Letor
De verklaringen van Letor waarom vanaf 2016 een grotere N-term wordt aangehouden bevreemdden mij. In hoe verre zijn de P-factorn al aangepast? Een correctie wegens onduidelijkheid of een fout in de vraagstelling lijkt mij redelijk. Voor de rest worden de fluctuaties in P beschouwd als fluctuaties in de moeilijkheidsgraad van de opgaven. Omdat de leerlingen gmiddeld elk jaar even hard werken en even slim zijn moeten die fluctuaties gecorrigeerd worden. Wat gebeurt er als de leerlingen plotseling gemiddeld slimmer geworden zijn of plotseling harder zijn gaan werken? Dan is een toename van P geen gevolg meer van fluctuaties en is N als correctiefactor voor een aantal jaren onbruikbaar geworden.
Achteraf gezien is, vooraf gesteld dat het gelukt is de vragen in het tijdvak 2013-2016 gemiddeld even moeilijk te houden als in het voorafgaande tijdvak, het gebruik van de hoge waarde van de normeringaddator N in 2013 goed te verdedigen
Voor de door Letor naar voren
Voor de door Letor naar voren gebrachte ruptuur in de cijfergeving bij het eindexamen vwo is dus nog helemaal geen bevredigende verklaring gegeven. Hoe wist de CvE dat de P-waarde van 2013 geen toevallige uitschieter naar boven was maar juist een toevallige uitschieter naar beneden behorend bij een nieuwe hogere gemiddelde P-waarde? De vewachting was dat de P-waarde door de verzwaring van de eindexameneisen omhoog zou gaan maar hoe wist de CvE hoe hoog de nieuwe gmiddelde P-waarde zou worden? Een goed uitgevallen gok dat de P-waarde van 2013 een maximale toevallige afwijking omlaag was? En als het een gok was en het was een verkeerde gok, wat zou het CvE dan gedaan hebben? Een manier om dat buiten het CvE om uit te zoeken of het allemaal wel klopt wat het CvE doet zou kunnen zijn om een groot aantal eindexamenkandidaten voorafgaand aan het eindexamen ook een toets van vóór 2013 te laten afleggen.