Il sistema dell'istruzione,
le classifiche inattendibili e i test tossici

dal blog di Giorgio Israel, 12.12.2010

Secondo le ultime analisi Ocse-Pisa le posizioni della scuola italiana nelle classifiche internazionali sarebbero migliorate. Le considerazioni che vorrei sviluppare si riassumono così: questi dati, come tutte le analisi basate su test, hanno scarsa attendibilità oggettiva e quindi vanno presi con le pinze; inoltre, anche a prenderli per buoni, sono il risultato di una ripresa di rigore disciplinare in direzione opposta agli intenti di chi vorrebbe ridurre la scuola italiana a un sistema aziendale basato sui test e che, con sfrontatezza, tenta in questi giorni di intestarsi questo miglioramento.

Su queste pagine ci siamo già occupati della scarsa attendibilità di test e graduatorie e della necessità di valutare a fondo i sistemi dell’istruzione sulla base dei contenuti dell’insegnamento. Ciò vale anche per l’università e per il sistema della ricerca. Inizierò di qui con qualche esempio.

Di recente, su “Sette”, due giovani italiani che lavorano negli USA e sono diventati personaggi importanti nella Microsoft hanno lamentato l’inesistenza in Italia del sistema meritocratico americano aggiungendo però: «l’Italia vanta un livello di istruzione altissimo, lontano anni luce da quello che si trova qui… a volte durante certe conversazioni si finisce con l’essere imbarazzati per loro». Nel dibattito convulso e fazioso di questi giorni è un luogo comune parlare dell’università italiana come se fosse la sentina del mondo. Al contrario, si esaltano gli USA come se fossero l’Eldorado, come se in quel paese non esistessero le cordate accademiche, non esistessero restrizioni di bilancio, ignorando che grandi università americane hanno persino tagliato gli stipendi. Chi si straccia le vesti sul precariato e aspira al posto fisso non dice che nelle università statunitensi puoi essere cacciato su due piedi anche dopo anni di insegnamento.

Le cattive posizioni delle università italiane nelle classifiche internazionali, dipendono da una quantità di parametri che hanno poco a che fare con la ricerca e la didattica. Basta cambiarli di poco per modificare le graduatorie in modo sorprendente. Non a caso le università migliori sono quelle dei paesi che dettano la scelta dei parametri. Qualche esempio. Nel QS World University Rankings, la Sapienza di Roma è passata in un solo anno dalla posizione 205 alla 190: è bastato aver cura di alcuni aspetti organizzativi, come l’efficienza nella registrazione degli esami. Ma sebbene in posizione modesta, la Sapienza precede università prestigiose come la Technische Universität di Berlino e la Sorbonne parigina (al posto 229). Se poi si guarda a certi settori come le scienze fisico-matematiche e naturali, la Sapienza supera la celebre École Polytechnique di Parigi, la University of California di San Diego, la Humboldt Universität o il Technion di Israele. Mentre è assurdo che l’università di Parigi 6 – uno dei centri migliori al mondo per le scienze – non compaia da nessuna parte. Per altro verso, l’università Bocconi figura al penultimo posto nella graduatoria delle università in scienze e sociali e management, e l’università confindustriale Luiss è introvabile. Forse questo ha infastidito qualcuno. Così il network Vision di laureati italiani con esperienze estere ha redatto una classifica italiana scegliendo parametri diversi e alquanto bizzarri: numero di studenti stranieri sul totale degli iscritti, numero di fuori sede, numero di citazioni non tratte dai consueti database bensì da Google Scholar (considerato, chissà perché, più “semplice” e “trasparente”). Risultato del 2009: i primi tre posti vanno al Politecnico di Milano, all’Università Bocconi e al Politecnico di Torino, seguiti (manco a dirlo, visto quel parametro) dalla Università per Stranieri di Perugia… Un ulteriore aggiustamento ha portato, nel 2010, la Bocconi al primo posto, la Luiss dal decimo al sesto, declassando la Statale di Milano dal quinto al tredicesimo posto… Mentre nella classifica QS la Sapienza surclassa il Politecnico di Milano (295-esimo) e quello di Torino (451-esimo) nella classifica Vision scende al posto 22. Quale attendibilità ha questa sarabanda di cifre?

La stessa situazione si presenta per la scuola. Leggiamo sui giornali tante statistiche elaborate a partire da test. La serietà di queste analisi non è in discussione. Ma se i dati su cui sono state sviluppate non fossero attendibili esse si ridurrebbero a un semplice esercizio. Insomma, quel che conta è il contenuto dei test proposti. Di questi non si parla mai, non si sa chi li ha preparati né con quale competenza. Ne ho esaminati alcuni e mi si sono rizzati i capelli. Per non dir altro, erano disomogenei in termini di difficoltà. Quali risultati “oggettivi” possono mai ottenersi su simili basi?

Quanto alle statistiche internazionali mi limito a un esempio. Nei commenti si da per scontato che la scuola finlandese sia una delle migliori del mondo. Ma non è tutto oro quel che riluce. Studi recenti hanno messo in discussione quella immagine. Per quanto riguarda la matematica, è chiaro che la Finlandia primeggia in quanto i test Pisa stimano i successi nella matematica pratica ma – come è stato ammesso da autorevoli personalità finlandesi – se valutassero la capacità di intendere i concetti matematici, la Finlandia finirebbe agli ultimi posti. Si insegna una matematica definita da uno specialista come un “soggetto educativo” privo di relazioni con la matematica propriamente detta. Il simbolo “=” è stato soppresso e sostituito con V, che sta per Vastaus, ovvero “risposta”. Ma identificare “=” con “risposta” significa che uno studente non sa più cosa sia un’equazione. Un recente articolo spiega che, se entrate in una macelleria finlandese e chiedete ¾ di chilo di carne, non sarete capiti: dovete dire 750 grammi, perché i numeri sono insegnati soltanto in forma intera o decimale, in quanto digitabile sul calcolatore. Ciò vuol dire che non si sa più cosa sia una frazione e questo è un autentico disastro concettuale.

D’altra parte, nei sondaggi Pisa trionfano anche paesi come la Cina, la Corea o Singapore le cui scuole sono diversissime: ipertradizionaliste, improntate a disciplina, rigore e amore per la conoscenza, in cui l’ossessione per i test è sconosciuta e i bambini usano i pallottolieri, altro che “nativi digitali”. Come mai? Per il semplice motivo che la capacità di risolvere i test “pratici” Ocse-Pisa è un sottoprodotto secondario di una preparazione completa sul piano concettuale e in cui il calcolo mentale la fa da padrone. Uno studente cinese sa risolvere quei problemini ma sa e sa fare anche molto di più. È forse un caso che ormai più della metà dei dottori di ricerca negli USA siano di provenienza asiatica?

Negli ultimi anni in Italia è stata fatta un’iniezione di rigore in un senso più “cinese” che “finlandese”: questa è l’unica spiegazione possibile del piccolo miglioramento che i sondaggi attestano. Ma è indubbio che se, dopo qualche decennio di disastri realizzati dal pedagogismo costruttivista “progressista” – e che non a caso si è stracciato le vesti per le politiche seguite nell’ultimo biennio – esso dovesse cercare una rivincita ripresentandosi sulla scena nelle vesti della tecnocrazia aziendalista, cascheremmo dalla padella nella brace. Difatti, si finirebbe per non parlare più nemmeno alla lontana di conoscenza. L’obbiettivo sarebbe di trasformare la scuola in una macchina volta al successo nei test e in cui l’unica attività sarebbe addestrarsi a superarli. È il miserando “teaching to the test” che ormai è messo in discussione nei paesi in cui è stato implementato. Ma, si sa, noi in Italia raccattiamo le “innovazioni” quando ormai altrove iniziano ad essere accantonate come cibi guasti.