Direttiva Invalsi: imprecisioni e precisazioni.
di Franco De Anna, dirigente tecnico MPI da
Pavone Risorse
del 21/9/2006
La Direttiva suscita non poche perplessità per
alcun imprecisioni e altre omissioni che la rendono a un lato
“pleonastica” dall’altro poco significativa per orientare l’attività
dell’Istituto.
Con l’effetto collaterale di aprire interrativi politici sia per “ciò
che dice” sia per “ciò che non dice”.
Provo ad allineare alcune delle ragioni di tali perplessità
1. E' assolutamente improprio che il Ministero
(qualunque Ministro) chieda all'INVALSI di valutare le prestazioni di
apprendimento in connessione con elementi (qualsivoglia) di
applicazione di "riforme" (qualsivoglia).
I livelli di apprendimento degli alunni, misurati con test, si
prestano a diverse correlazioni con un complesso di variabili assai
ampio ed è la costruzione di tali correlazioni a rendere significativo
"quel" metodo di valutazione.
Solo per fare alcuni e parziali esempi: alcune correlazioni OCSE PISA
sono interessanti: contesto socio culturale di partenza e “qualità”
dell'insegnamento influiscono ciascuno per non più del 50% sull'esito
di apprendimento.
Il titolo di studio dei genitori è correlato positivamente, ma più
quello della madre che del padre (ci sarebbe da riflettere, vero? E
non sarebbe più importante tale riflessione che non estenuarsi su OSA
e UDA?)
La correlazione positiva tra titolo di studio dei genitori e esiti di
apprendimento dei figli è più significativa per genitori diplomati che
non laureati (pensiamo quali inferenze ciò rende possibile circa la
condizione giovanile-famigliare, e la "motivazione" allo studio, che
ovviamente decresce in un ambiente che "ha già raggiunto i risultati
più alti", e che invece è più "protettivo" rispetto alle fatiche dello
studio...)
Ma insomma: è già complesso e scientificamente faticoso e rischioso
costruire tali correlazioni; assolutamente improprio tentare di
stabilire se uno o l'altro provvedimento legislativo influisca, e
come, sui livelli di apprendimento.
Non è solo improprio, ma è un vero e proprio errore scientifico.
2. Invitare l’INVALSI ad utilizzare la prima e
la seconda prova degli Esami di Stato della Superiore come “fonte” dei
livelli di preparazione dei nostri studenti è francamente
sconcertante.
Si tratta ,da un lato, di “prove libere”, in linguaggio “naturale”, il
cui trattamento, per ricavarne i dati voluti, ha un carattere di
complessità dal punto di vista della ricerca e degli strumenti a
utilizzare, da rendere improponibile l’obiettivo stesso e, qualora ci
si cimentasse, di problematica significatività le eventuali
conclusioni.
Per le seconde prove la loro stessa varia tipologia (si va dalla
matematica alla versione dal latino o dal greco, o alla progettazione
di impianti industriali …) rende irrealistico l’obiettivo indicato
nella direttiva.
Sulla terza prova l’omissione più rilevante. L’obiettivo, difficile da
realizzare, ma fondato scientificamente, sarebbe quello di dare
carattere nazionale ad una prova basata sul testing e che “misurasse”
la padronanza linguistica, logico matematica, in lingua straniera ecc…
degli studenti in uscita dalla superiore.
E dunque si tratta di dare all’INVALSI non il compito di definire le
“terze prove” per gli Istituti Tecnici e Professionali, ma di
misurarsi con l’obiettivo di produrre una prova a testing di carattere
nazionale da poter usare, questa sì, per una rilevazione dei livelli
generali di padronanza e competenza .
Del resto gli studenti “maturati” si misurano con prove di carattere
analogo, in ingresso all’università, o al lavoro in Banca, o anche se
vogliono intraprendere la carriera militare, se vogliono fare i
poliziotti o i carabinieri… Una buona occasione per riformare, anche
per questa via, l’Esame di Stato e la composizione tra prove nazionali
e prove decise dalle commissioni.
3. Affidare all'INVALSI compiti di monitoraggio,
rilevazione e valutazione che attiene alla gestione delle risorse è
altrettanto ”problematico”
L'impianto organizzativo dell'Istituto, la sua mission, le competenze
professionali interne non hanno nulla a che fare con ciò.
In altre parole: o tale indicazione corrisponde ad una
"ristrutturazione" dell'INVALSI stesso in termini di mission,
competenze, risorse economiche ed umane, o l'affermazione della
direttiva è flatus vocis.
Si tenga inoltre conto che tutto ciò non può non generare reazioni dei
tecnici che vi lavorano, di qualche sconcerto (per usare un eufemismo)
circa la "competenza" di chi da loro le direttive.
4. E' assolutamente corretto che la valutazione
degli apprendimenti con quei "metodi" sia limitata alla literacy, alla
matematica e, volendo, alla padronanza dell'information technology, o
delle lingue straniere (ma per queste ultime vi sono le certificazioni
da parte di enti accreditati internazionalmente)
Già per le "scienze" (oggetto dai contorni assai ampi dal punto di
vista epistemologico), siamo in un campo problematico e a bassa
significatività di "quella" metodologia valutativa.
La valutazione di "tutto il resto", (dalla filosofia alla storia...)
in tutto il mondo, è affidata al teacher assessment... Il che
significa che il problema vero diventa: che strumenti e metodi usano
gli insegnanti nella valutazione? E' problema assai diverso da quello
di dare una direttiva all'INVALSI.
5. Ma è anche assolutamente corretto che la
rilevazione sia campionaria.
Ovviamente ciò pone il problema del campione e del suo rigore (che
cade irrimediabilmente se si accenna a "adesione volontaria"... Non si
dà “volontariato” nella definizione di un campione statistico
rigoroso, il volontariato non costituisce una stratificazione
ammissibile in un campione random..).
Solo la dimensione campionaria assicura la "tenuta" del protocollo
valutativo.
Condurre "quella" valutazione sull'universo, dal punto di vista
strettamente scientifico, produce risultati ad altissimo rischio
interpretativo: quando si vedono i pacchi di schede nei sottoscala
delle Direzioni Regionali, o nei camion del trasportatore che li
distribuisce alle scuole, non si può non chiedersi quanto ci vorrebbe
ad uno statistico di media serietà e qualche malizia, ad invalidare ex
ante l'attendibilità "scientifica" dei risultati (altra cosa è la loro
generica "stimabilità").
Dunque un campione rigoroso e una tenuta rigorosa del protocollo, e
una lettura rigorosa dei dati, con un esercizio inferenziale
attendibile (lasciamo perdere le correlazioni tra leggi di riforma e
loro “artefatti”, e livelli di apprendimento).
In tale caso ha senso, eccome!, che a presidiare il campione, il
protocollo, la rilevazione, ci siano dei "rilevatori terzi" (Il
campione è gestibile, l'universo no...). Per non parlare dei costi di
una operazione sull'universo... (a proposito di risparmio delle
spese...)
6. La rilevazione campionaria ha un significato
ulteriore: i suoi esiti devono funzionare come indicatori di
orientamento per l'attività delle scuole.
Vanno restituiti ad esse e al loro lavoro, insieme a strumenti
standard analoghi a quelli usati per la rilevazione, perchè esse
stesse, utilizzandoli nella loro autonomia, possano individuare il
"proprio" posizionamento, come scuola rispetto al sistema (autovalutazione
e autoanalisi) e possano anche cogliere "clinicamente" i problemi di
apprendimento dei "propri" alunni, definire i percorsi di
miglioramento e di rinforzo, i risultati da raggiungere, le priorità
da darsi.
Il livello "sistemico", che è esplorabile in modo campionario
(rigoroso) si raccorda così al livello "molecolare" che appartiene
alla scuola autonoma.
E l'INVALSI svolge il suo vero ruolo "indipendente" sia rispetto al
Ministero, sia rispetto al complesso del sistema scolastico di cui è
(dovrebbe) essere al servizio.
L'esito della rilevazione esterna sull'universo ha invece un
inevitabile significato di "graduatoria". Le reazioni di rigetto delle
scuole, ancorchè non condivisibili e da scoraggiare, sono però
comprensibili.
Tutto ciò va spiegato e non farlo costituisce una “omissione” che ha
consentito a qualche (improvvido) commentatore di affermare che con
questa direttiva si “rinuncia alla valutazione”.
Il commentatore sarà improvvido, ma l’omissione costituisce un errore
politico, prima ancora che scientifico