P a v o n e R i s o r s e

 

Direttiva Invalsi: imprecisioni e precisazioni.

di Franco De Anna, dirigente tecnico MPI da Pavone Risorse del 21/9/2006

 

La Direttiva suscita non poche perplessità per alcun imprecisioni e altre omissioni che la rendono a un lato “pleonastica” dall’altro poco significativa per orientare l’attività dell’Istituto.
Con l’effetto collaterale di aprire interrativi politici sia per “ciò che dice” sia per “ciò che non dice”.

Provo ad allineare alcune delle ragioni di tali perplessità

 

1. E' assolutamente improprio che il Ministero (qualunque Ministro) chieda all'INVALSI di valutare le prestazioni di apprendimento in connessione con elementi (qualsivoglia) di applicazione di "riforme" (qualsivoglia).
I livelli di apprendimento degli alunni, misurati con test, si prestano a diverse correlazioni con un complesso di variabili assai ampio ed è la costruzione di tali correlazioni a rendere significativo "quel" metodo di valutazione.
Solo per fare alcuni e parziali esempi: alcune correlazioni OCSE PISA sono interessanti: contesto socio culturale di partenza e “qualità” dell'insegnamento influiscono ciascuno per non più del 50% sull'esito di apprendimento.
Il titolo di studio dei genitori è correlato positivamente, ma più quello della madre che del padre (ci sarebbe da riflettere, vero? E non sarebbe più importante tale riflessione che non estenuarsi su OSA e UDA?)
La correlazione positiva tra titolo di studio dei genitori e esiti di apprendimento dei figli è più significativa per genitori diplomati che non laureati (pensiamo quali inferenze ciò rende possibile circa la condizione giovanile-famigliare, e la "motivazione" allo studio, che ovviamente decresce in un ambiente che "ha già raggiunto i risultati più alti", e che invece è più "protettivo" rispetto alle fatiche dello studio...)
Ma insomma: è già complesso e scientificamente faticoso e rischioso costruire tali correlazioni; assolutamente improprio tentare di stabilire se uno o l'altro provvedimento legislativo influisca, e come, sui livelli di apprendimento.
Non è solo improprio, ma è un vero e proprio errore scientifico.

 

2. Invitare l’INVALSI ad utilizzare la prima e la seconda prova degli Esami di Stato della Superiore come “fonte” dei livelli di preparazione dei nostri studenti è francamente sconcertante.
Si tratta ,da un lato, di “prove libere”, in linguaggio “naturale”, il cui trattamento, per ricavarne i dati voluti, ha un carattere di complessità dal punto di vista della ricerca e degli strumenti a utilizzare, da rendere improponibile l’obiettivo stesso e, qualora ci si cimentasse, di problematica significatività le eventuali conclusioni.
Per le seconde prove la loro stessa varia tipologia (si va dalla matematica alla versione dal latino o dal greco, o alla progettazione di impianti industriali …) rende irrealistico l’obiettivo indicato nella direttiva.
Sulla terza prova l’omissione più rilevante. L’obiettivo, difficile da realizzare, ma fondato scientificamente, sarebbe quello di dare carattere nazionale ad una prova basata sul testing e che “misurasse” la padronanza linguistica, logico matematica, in lingua straniera ecc… degli studenti in uscita dalla superiore.
E dunque si tratta di dare all’INVALSI non il compito di definire le “terze prove” per gli Istituti Tecnici e Professionali, ma di misurarsi con l’obiettivo di produrre una prova a testing di carattere nazionale da poter usare, questa sì, per una rilevazione dei livelli generali di padronanza e competenza .
Del resto gli studenti “maturati” si misurano con prove di carattere analogo, in ingresso all’università, o al lavoro in Banca, o anche se vogliono intraprendere la carriera militare, se vogliono fare i poliziotti o i carabinieri… Una buona occasione per riformare, anche per questa via, l’Esame di Stato e la composizione tra prove nazionali e prove decise dalle commissioni.

 

3. Affidare all'INVALSI compiti di monitoraggio, rilevazione e valutazione che attiene alla gestione delle risorse è altrettanto ”problematico”
L'impianto organizzativo dell'Istituto, la sua mission, le competenze professionali interne non hanno nulla a che fare con ciò.
In altre parole: o tale indicazione corrisponde ad una "ristrutturazione" dell'INVALSI stesso in termini di mission, competenze, risorse economiche ed umane, o l'affermazione della direttiva è flatus vocis.
Si tenga inoltre conto che tutto ciò non può non generare reazioni dei tecnici che vi lavorano, di qualche sconcerto (per usare un eufemismo) circa la "competenza" di chi da loro le direttive.

 

4. E' assolutamente corretto che la valutazione degli apprendimenti con quei "metodi" sia limitata alla literacy, alla matematica e, volendo, alla padronanza dell'information technology, o delle lingue straniere (ma per queste ultime vi sono le certificazioni da parte di enti accreditati internazionalmente)
Già per le "scienze" (oggetto dai contorni assai ampi dal punto di vista epistemologico), siamo in un campo problematico e a bassa significatività di "quella" metodologia valutativa.
La valutazione di "tutto il resto", (dalla filosofia alla storia...) in tutto il mondo, è affidata al teacher assessment... Il che significa che il problema vero diventa: che strumenti e metodi usano gli insegnanti nella valutazione? E' problema assai diverso da quello di dare una direttiva all'INVALSI.

 

5. Ma è anche assolutamente corretto che la rilevazione sia campionaria.
Ovviamente ciò pone il problema del campione e del suo rigore (che cade irrimediabilmente se si accenna a "adesione volontaria"... Non si dà “volontariato” nella definizione di un campione statistico rigoroso, il volontariato non costituisce una stratificazione ammissibile in un campione random..).
Solo la dimensione campionaria assicura la "tenuta" del protocollo valutativo.
Condurre "quella" valutazione sull'universo, dal punto di vista strettamente scientifico, produce risultati ad altissimo rischio interpretativo: quando si vedono i pacchi di schede nei sottoscala delle Direzioni Regionali, o nei camion del trasportatore che li distribuisce alle scuole, non si può non chiedersi quanto ci vorrebbe ad uno statistico di media serietà e qualche malizia, ad invalidare ex ante l'attendibilità "scientifica" dei risultati (altra cosa è la loro generica "stimabilità").
Dunque un campione rigoroso e una tenuta rigorosa del protocollo, e una lettura rigorosa dei dati, con un esercizio inferenziale attendibile (lasciamo perdere le correlazioni tra leggi di riforma e loro “artefatti”, e livelli di apprendimento).
In tale caso ha senso, eccome!, che a presidiare il campione, il protocollo, la rilevazione, ci siano dei "rilevatori terzi" (Il campione è gestibile, l'universo no...). Per non parlare dei costi di una operazione sull'universo... (a proposito di risparmio delle spese...)

 

6. La rilevazione campionaria ha un significato ulteriore: i suoi esiti devono funzionare come indicatori di orientamento per l'attività delle scuole.
Vanno restituiti ad esse e al loro lavoro, insieme a strumenti standard analoghi a quelli usati per la rilevazione, perchè esse stesse, utilizzandoli nella loro autonomia, possano individuare il "proprio" posizionamento, come scuola rispetto al sistema (autovalutazione e autoanalisi) e possano anche cogliere "clinicamente" i problemi di apprendimento dei "propri" alunni, definire i percorsi di miglioramento e di rinforzo, i risultati da raggiungere, le priorità da darsi.
Il livello "sistemico", che è esplorabile in modo campionario (rigoroso) si raccorda così al livello "molecolare" che appartiene alla scuola autonoma.
E l'INVALSI svolge il suo vero ruolo "indipendente" sia rispetto al Ministero, sia rispetto al complesso del sistema scolastico di cui è (dovrebbe) essere al servizio.
L'esito della rilevazione esterna sull'universo ha invece un inevitabile significato di "graduatoria". Le reazioni di rigetto delle scuole, ancorchè non condivisibili e da scoraggiare, sono però comprensibili.
Tutto ciò va spiegato e non farlo costituisce una “omissione” che ha consentito a qualche (improvvido) commentatore di affermare che con questa direttiva si “rinuncia alla valutazione”.
Il commentatore sarà improvvido, ma l’omissione costituisce un errore politico, prima ancora che scientifico