E’ possibile un sistema di valutazione friendly?
di Giancarlo Cerini ScuolaOggi,
18.8.2011
Scorrendo le bordate polemiche sui blog e sui siti degli insegnanti,
capita spesso di leggere “indignate” prese di posizione contro
l’attuale sistema di valutazione, contro l’utilizzo dei test nelle
rilevazioni degli apprendimenti, contro le novità introdotte
nell’ordinamento (voto in decimi, certificazione delle competenze,
sistema degli esami, ecc.). Senza se e senza ma. Poiché non ho mai
apprezzato gli atteggiamenti manichei e le semplificazioni, mi
permetto di re-intervenire in materia, per riepilogare lo stato
dell’arte con qualche ulteriore aggiornamento, soprattutto in
materia di valutazione “di sistema”
[1].
Cosa ci dice la valutazione di sistema
Alcune domande preliminari si impongono: ci serve un sistema
nazionale di valutazione? Agisce contro o dalla parte della scuola?
E ancora: si possono utilizzare gli esiti delle rilevazioni
nazionali ed internazionali degli apprendimenti (Ocse, Invalsi,
ecc.) per giudicare della bontà di un sistema scolastico?
Certamente le informazioni ricavate dalle indagini citate non ci
dicono tutto, ma sono un indizio da non trascurare. Gli ultimi dati
disponibili (Indagine Pisa 2009) segnalano un leggero miglioramento
negli apprendimenti degli allievi italiani rispetto alla precedente
indagine del 2006, accompagnato però da alcuni elementi di criticità
che tendono a cristallizzarsi:
a) un divario “storico” tra le regioni del nord, del centro e del
sud (che però va riducendosi, anche a seguito di azioni compensative
nelle regioni del sud interessate da “obiettivo convergenza”);
b) un divario “storico” tra i risultati degli allievi frequentati
diverse tipologie di istituti superiori (con una sofferenza evidente
negli istituti professionali e nella formazione professionale);
c) un aumento dell’incidenza dei fattori socio-culturali (contesto
ambientali e ceto di appartenenza degli allievi) sul “rendimento”
degli allievi;
d) un aumento della dispersione dei risultati, sia tra scuole dello
stesso tipo, sia tra gli allievi (sono in aumento sia le fasce di
eccellenza, sia le fasce di criticità).
Analoghe evidenze sembrano emergere dagli esiti delle indagini
dell’Invalsi, anche se condotte con modalità e per finalità diverse
(più per offrire dati informativi alla scuola, piuttosto che per
analizzare e confrontare i dati delle singole scuole).
Queste contraddizioni, se lette in termini positivi, ci ricordano
che ci sono dei fattori che influiscono positivamente sulla qualità
della scuola. Compito di chi svolge funzioni di governo nazionale e
locale è rendere espliciti tali fattori, per sviluppare azioni di
accompagnamento (quindi politiche pubbliche a livello macro e micro)
al fine di un miglioramento complessivo dei risultati.
D’altra parte le indagini comparate segnalano una sostanziale
omogeneità della spesa statale pro-capite per alunno tra le diverse
regioni italiane, mentre appaiono più marcate le differenze di
risorse immesse nel sistema ad opera degli attori locali (Regioni,
enti locali, privati, ecc.) con un forte vantaggio per il
centro-nord. Questo dato si riverbera soprattutto negli indicatori
strutturali (edifici, attrezzature, logistica, servizi di supporto).[2]
Dunque, si pone un problema di equità nella distribuzione delle
risorse umane e finanziarie, da collegarsi però alla trasparenza dei
risultati: insomma, in una prospettiva federalista sarà sempre più
necessario districarsi tra fabbisogni finanziari, standard di
funzionamento, costi dei servizi.
Altre ricerche mettono in evidenza lo stretto intreccio tra
dotazione di capitale sociale di un territorio (tolleranza,
creatività, volontariato, coesione sociale, senso di fiducia) e
buoni risultati scolastici: il capitale sociale si costruisce
lentamente perché è frutto di virtù civiche che si coltivano e
sedimentano nel tempo (e una buona rete di scuole è essa stessa un
fattore che contribuisce a costruire questo capitale).
Più difficile diventa isolare i fattori endogeni (preparazione ed
impegno dei docenti, ruolo del dirigente, organizzazione scolastica
–ad esempio, durata del tempo scuola, dimensione e formazione delle
classi, configurazione della docenza - scelte didattiche, tecnologie
e supporti didattici, ecc.) e calcolare il loro contributo al
miglioramento dei livelli di formazione. La misurazione del “valore
aggiunto” è nel nostro paese ai primi passi e si presenta ancora
fragile, perché concentra la sua attenzione solo su alcuni dati
cognitivi, e si lascia sfuggire una gran quantità di valori
educativi (ad esempio, come misurare il valore aggiunto
dell’integrazione scolastica dei disabili?).
Valutare non basta
Queste brevi osservazioni possono ben motivare l’enfasi che oggi si
pone sui sistemi di valutazione come strategia per stimolare il
miglioramento dei risultati scolastici, fermo restando i diversi
significati da attribuire al concetto di “scuola migliore”: per
formare elite? Per collocare funzionalmente nei posti di lavoro? Per
formare cittadini attivi? Per elevare il profilo dei ceti culturali
più deboli? Per offrire pari opportunità a tutti? Ecc.
Ma consigliano anche di tenere molto aperto il significato di
“valutazione”, che dovrebbe sempre essere distinto in:
a) rilevazione dei dati, misurazione, rielaborazione, comparazione,
ecc. (operazioni prettamente docimologiche);
b) lettura e interpretazione dei dati, analisi e riflessività,
scelte (operazioni interpretative e decisioni conseguenti);
c) attivazione di misure di accompagnamento (ricerca didattica,
formazione del personale, consulenza e coaching, monitoraggio) per
favorire processi di miglioramento;
d) rendicontazione sociale e forme di valutazione interna ed esterna
(accountability).
Dunque è improprio (come sembra fare la recente legge 10/2011, c.d.
“milleproroghe”) chiamare l’insieme di tutte queste misure,
strutture e soggetti: “sistema di valutazione” tout court,
soprattutto perché un termine così pervasivo rischia di fermare
l’attenzione solo sul momento del “controllo” piuttosto che su
quello della “promozione” e dell’”accompagnamento”.
Inoltre, il sistema di valutazione dovrebbe essere costruito
attraverso un processo fortemente condiviso con il mondo della
scuola (nelle sue linee di fondo) ed è quindi auspicabile un
percorso che possa coinvolgere più soggetti, in un approccio aperto
e plurale, che sia garanzia di successo dell’operazione.
Il sistema di valutazione non può essere pensato solo per le
esigenze del sistema (per valutare scuole, valutare dirigenti,
valutare apprendimenti), ma dovrebbe richiamare lo scenario
dell’autonomia, il ruolo e le responsabilità affidate alle scuole,
attraverso l’alimentazione di un clima di reciproca fiducia.
Nel lessico della legge 10/2011 appare solo il termine “valutazione
esterna” che finisce per evocare
una forma di “pressione” verso la scuola. Sarebbe importante
puntualizzare che un processo di valutazione esterna si intreccia
necessariamente con una azione di autovalutazione e che il frutto
più significativo è un programma di rendicontazione sociale da parte
della scuola verso la propria comunità e stakeholder.[3]
Il patto di fiducia Invalsi-scuole
Occorre che l’intensificazione delle rilevazioni censuarie degli
apprendimenti, che riguardano ormai tutte le classi 2^ e 5^
primarie, 1^ e 3^ secondarie di primo grado, 2^ secondarie di
secondo grado, sia ricondotta al suo significato “formativo”. Se le
prove sono censuarie (e non a campione), così come vuole la legge
176/2007, le informazioni capillari che esse contengono vanno
restituite solo alle scuole, per un utilizzo interno, in vista
dell’analisi degli apprendimenti, della correlazione tra esiti e
pratiche didattiche, delle criticità e positività riscontrabili in
ogni contesto.
La conoscenza dei dati (ma soprattutto l’elaborazione) risulta
elemento imprescindibile per fondare strategie didattiche e
decisioni da parte della scuola e degli insegnanti, ai fini del
miglioramento dei livelli di apprendimento. Va pertanto esclusa la
pubblicizzazione dei risultati, che potrebbe creare situazioni di
competizione tra le scuole e incentivare comportamenti
opportunistici (al limite della correttezza) in occasione della
somministrazione delle prove. Va anche contrastato il fenomeno, che
si sta diffondendo, del teaching to testing (insegnamento
finalizzato al superamento dei test), perché introduce elementi di
distorsione nella vita didattica delle classi e tende a far
coincidere l’apprendimento con la soluzione di quesiti a risposta
multipla, con il rischio di impoverire la qualità dell’insegnamento[4].
Diversa è la scelta effettuata in alcune realtà, di impegnare gli
insegnanti in attività di ricerca e formazione a partire
dall’analisi approfondita dei quesiti estratti dalle diverse
rilevazioni (es. Invalsi, ma anche OCSE, IEA, ecc.), per cogliere il
rapporto tra struttura dei quesiti, processi cognitivi sottesi,
pratiche didattiche più correnti, per stimolare una maggiore
riflessione sui metodi di insegnamento in una ottica di
apprendimento formativo. Si cita l’esempio dell’Emilia-Romagna, ove
sono stati realizzati a cura dell’USR due ampi programmi di
ricerca-formazione, denominati progetti ELLE ed EMMA,
rispettivamente progetto “emergenza lingua” ed “emergenza
matematica”, proprio con l’obiettivo di compiere un’analisi critica
del nuovo impianto docimologico e stimolare la capacità di gestirlo
in maniera intelligente (cioè, senza le semplificazioni tipiche del
testing).
Emblematico di questo percorso è l’analisi degli item che hanno
presentato il maggior tasso di insuccesso per i ragazzi, e la loro
riformulazione attraverso testi semplificati, supporto di grafici e
disegni, imbastitura di strategie di soluzione, ecc. Un simile
“trattamento” (che è poi il frutto della mediazione didattica dei
docenti) fa capire quale sia il margine di miglioramento di un buon
metodo di insegnamento, all’insegna dei principi che sono alla base
dell’idea di “valutazione formativa”…
Una valutazione all’inglese?
L’approvazione, in verità assai frettolosa e senza un pubblico
dibattito, della legge 10/2011, ripropone la questione della
valutazione di sistema, delle sue finalità, dei suoi attori, dei
suoi strumenti. Come è noto la legge ipotizza tre diversi soggetti
del sistema:
a) l’Invalsi, come soggetto deputato alla misurazione degli
apprendimenti;
b) il corpo ispettivo, impegnato nella valutazione delle scuole e
dei dirigenti;
c) l’Indire, con compiti di supporto e di miglioramento.
I fatti (anzi, i regolamenti attesi) ci diranno se siamo in presenza
di una svolta nel nostro sistema educativo. Qui ci limitiamo a
qualche osservazione sul compito attribuito agli ispettori, anche
per “fatto personale”…
Diamo anche per scontato che il servizio ispettivo sia ripristinato
in tutti i suoi effettivi (335 dirigenti tecnici in pianta organica,
a fronte dei poco più di 40 in servizio)[5],
che si proceda ad una ridefinizione dei suoi compiti (da non
confinare solo nell’area del “contenzioso”), orientandolo verso un
sistema di visita alle scuole sul modello inglese dell’Ofsted, che
il personale ispettivo sia adeguatamente formato (come è noto, è in
atto un concorso per reclutare 145 nuovi ispettori).
Ma come avverrebbe la valutazione delle scuole? Proviamo a
ripercorrere qualche ipotesi che si sta cominciando a discutere a
livello ministeriale, anche alla luce del controverso andamento
delle prime sperimentazioni in atto (“Valorizza”, per la valutazione
“reputazionale” dei docenti e “VQS” per la valutazione della
performance organizzativa delle scuole).
Apposite equipe (coordinate da un ispettore tecnico, affiancato da
due esperti di valutazione tratti da un apposito elenco) avrebbero
l’incarico di visitare nell’arco di un triennio tutte le scuole del
nostro paese, attraverso sopralluoghi in presenza (ad es. per tre
giorni), analisi di documenti, osservazioni, interviste, ecc.. Al
termine della visita l’equipe rilascia alla scuola un report (una
sorta di check up), con suggerimenti per programmi di miglioramento.
Un’analoga informazione è fornita all’Amministrazione scolastica, in
modo che questa carta diagnostica della scuola diventi la base su
cui andranno negoziati gli obiettivi strategici per il contratto di
missione[6] del
dirigente scolastico. Questo passaggio appare preliminare rispetto
ad ogni ipotesi di valutazione della performance dirigenziale, che
non coincide necessariamente con la valutazione della scuola, e
dovrebbe piuttosto “apprezzare” il contributo specifico apportato
dal dirigente al contesto professionale in cui opera (in sostanza,
il suo progetto di intervento).
La valutazione dovrebbe focalizzarsi sui risultati degli
apprendimenti (prove ma anche risultati a lungo termine), su aspetti
didattici (cosa succede in classe?), su profili organizzativi
(struttura, comunicazione, funzioni, sistema delle decisioni), sulla
capacità di interazione esterna (partnership), sul clima sociale ed
etico (valori), sulle professionalità ed i comportamenti dei diversi
operatori (in particolare sulle forme di leadership).
L’osservazione esterna potrebbe essere preparata da una incisiva
autoanalisi interna, sulla base di una griglia di indicatori
standardizzati, che lascino comunque anche uno spazio per l’autonoma
descrizione della scuola da parte dei soggetti interni. Il modello
CAF potrebbe essere un buon punto di partenza, perché consente di
enucleare grappoli di variabili significative riferite ai processo e
ai risultati[7].
La dinamica valutativa interno-esterno, dunque, con il
coinvolgimento di tutti i membri della scuola, degli organi
collegiali, di una rappresentanza dei genitori, della rete degli
stakeholder, si traduce in una sorta di controllo di gestione per
introdurre elementi di responsabilità nell’organizzazione
scolastica, in vista dell’assunzione di decisioni per il
miglioramento[8].
Si può partire con una sperimentazione?
Un modello simile richiede notevoli risorse. Immaginando che
un’equipe coordinata da un ispettore possa visitare 20 scuole ogni
anno, nel triennio servirebbero circa 200 equipe dedicate a tempo
pieno alla valutazione delle scuole. Sono 600 addetti, come il
sistema di valutazione olandese, un paese 4 volte più piccolo del
nostro. Irrealizzabile? Si vedrà! Nel frattempo è consigliabile
mettere alla prova il modello sperimentandolo in un numero limitato
di scuole che siano disponibili a farlo. Le scuole dovrebbero
aderire volontariamente al progetto, tramite adesione formalizzata
dagli organi competenti, con possibilità di una contestualizzazione
e negoziazione delle caratteristiche dell’intervento esterno. La
partecipazione dovrebbe implicare un riconoscimento economico alla
scuola: più che di un premio o di una sanzione dovrebbe trattarsi di
un incentivo anche economico (iniziale) ad intraprendere un percorso
di miglioramento, finanziando comportamenti virtuosi (ricerca,
formazione in servizio, valutazione, consulenza, documentazione,
ecc.) che accompagnano concrete azioni nella scuola.[9]
Ovviamente la partecipazione al progetto richiede la disponibilità
alla ispezione e alla valutazione esterna. Nel caso di
raggiungimento degli obiettivi individuati, certificato dalla
valutazione esterna, verrebbe erogato un ulteriore contributo di
riconoscimento (premialità) per il percorso realizzato. Spetterà poi
alla scuola, nelle sue diverse componenti, decidere l’utilizzazione
della risorsa assegnata inizialmente e di quella erogata a
consuntivo. L’erogazione potrà riferirsi a singoli docenti (o gruppi
di docenti) che abbiano contribuito ad ottenere i risultati
richiesti, mentre il riconoscimento al dirigente sarà collegato alla
sua valutazione ed allo stipendio di risultato.
Non è in gioco la valutazione specifica dei singoli docenti, ma il
loro apporto alla performance complessiva. Un principio etico e
organizzativo dovrebbe essere salvaguardato: i docenti considerati
più efficaci dovrebbero mettere le loro doti a disposizione del
miglioramento complessivo del loro istituto, cioè essere persone
generose, pro-attive, capaci di suscitare comportamenti positivi
negli allievi e nei colleghi.
Il focus sul funzionamento complessivo dell’istituto è dunque
propedeutico a sviluppare una valutazione di chi in esso opera;
tuttavia la valutazione dell’istituto non coincide con la
valutazione dei suoi operatori (dirigente e insegnanti), ma ne
rappresenta lo sfondo conoscitivo indispensabile. Invece,
l’osservazione in diretta di una scuola da parte di una equipe
esterna dovrebbe essere finalizzata ad incrementare la capacità
della scuola di riflettere sui propri esiti (successi e insuccessi)
e di assumere adeguate strategie di miglioramento e sviluppo. Questo
richiede un processo interattivo e non solo una misurazione esterna
(sono dunque necessari una restituzione “dinamica” delle
informazioni raccolte ed un franco dialogo interno-esterno)[10].
Da dove ripartire?
Nel corso degli ultimi mesi le vicende valutative sono state oggetto
di vigorose polemiche, anche per qualche incidente di percorsi non
voluto. Occorre ristabilire un clima di fiducia tra gli operatori
scolastici, ridefinire il “contratto formativo” tra Invalsi e
scuole, riconfermando la riservatezza della restituzione dei dati
alle scuole. Questo Patto andrebbe chiaramente esplicitato
all’inizio del nuovo anno scolastico, per evitare i possibili
fraintendimenti e trovare una sua sanzione formale nelle nuove
Direttive che dovrebbero regolare per i prossimi anni le azioni
dell’istituto nazionale[11].
Anzi, sarebbe opportuno che le azioni di supporto formativo fossero
incrementate e che progetti di ricerca sulle prove di valutazione (e
sul loro senso) fossero diffusi sull’intero territorio nazionale,
anche con fondi specifici del budget dell’Invalsi, colmando una
lacuna nel rapporto tra scuole e sistema di valutazione, attraverso
la costituzione in ogni scuola di un presidio valutativo (e di una
apposita figura docente a ciò dedicata), in grado di “gestire” e
“filtrare” le sempre più complesse problematiche valutative. Sarebbe
la prova “provata” che è il sistema di valutazione a lavorare per le
scuole e non viceversa.
L’uso pubblico dei dati valutativi (comunque non riferito alle
singole unità scolastiche) dovrebbe essere sobrio, anche da parte
delle autorità centrali, poiché la comparazione tra una rilevazione
e l’altra nel corso degli anni (in termini di miglioramento o
peggioramento dei risultati) è del tutto aleatoria, in quanto il set
delle prove viene modificato totalmente ogni anno (a differenza di
quanto avviene con Ocse-Pisa), proprio per consentire alle scuole di
fare un uso didattico delle prove. In caso contrario sarebbero più
affidabili prove a campione, ma questa scelta modificherebbe
l’intento di restituire informazioni utilizzabili da ogni scuola per
la propria azione.
Ed è questa la finalità che ogni buon sistema di valutazione
dovrebbe aspirare a realizzare.
[1] Sulle questioni
relative alla valutazione degli apprendimenti si rimanda a G.Cerini,
Si fa troppo presto a dire (si o no alla) valutazione, in “Rivista
dell’istruzione”, n. 3, maggio-giugno 2011, Maggioli e G.Cerini, Il
tormentone della certificazione delle competenze, sul sito
Educazione & Scuola, giugno 2010:
http://www.edscuola.it/
archivio/riformeonline/tormentone_della_certificazione.htm
[2] Una analisi della
spesa per l’istruzione, corredata di indicatori di confronto tra le
diverse regioni, è contenuta in Regione Emilia-Romagna, Report sul
sistema educativo in Emilia-Romagna, I Quaderni, RER, 01, Bologna,
2011.
[3] D.Previtali, Il
bilancio sociale nella scuola, Edizioni Lavoro, Roma, 2010. Inoltre
nel volume di G.Cerini (a cura di), Il nuovo dirigente scolastico.
Tra leadership e management, Maggioli, Rimini, 2010 sono contenuti
alcuni saggi di A.Paletta, M.Castoli, D.Previtali, A.Martini sul
tema della valutazione di istituto in una ottica di sistema.
[4] E’ opportuno anche
aprire un dibattito sulla presenza di prove nazionali strutturate
all’interno degli esami di stato (al momento nell’esame di licenza
media). Se è giusto introdurre elementi di comparazione dei
risultati di raggio più ampio del singolo istituto, certamente
appare sopravvalutato il “peso” che la prova nazionale viene oggi ad
assumere nell’economia dei punteggi, ad esempio a scapito
dell’apprezzamento complessivo del curricolo dell’allievo. Sulla
questione è spesso intervenuto sul “Corriere della Sera” Roger
Abravanel, con articoli assai polemici: cfr. R.Abravanel, Benevenuti
al Sud (con 100 e lode), in “Il Corriere della Sera”, 2 agosto 2011.
Cfr.:
http://www.corriere.it/cronache/11_agosto_02/benvenuti-al-sud-con-cento-e-lode-roger-abravanel_fbb6f542-bcc6-11e0-b530-d2ad6f731cf9.shtml
[5] Il recente DPR 3
giugno 2011, n. 132, che apporta modifiche al Dpr 17/2009 di riforma
del Ministero dell’Istruzione, ha ulteriormente ridotto la dotazione
organica dei dirigenti tecnici con funzioni ispettive a 301 unità.
[6] Il contratto di
missione dovrebbe sostituire il generico incarico dirigenziale
conferito dal Direttore Generale dell’USR al singolo dirigente
scolastico, sulla base di quanto previsto dall’art. 25 del D.lgs
165/2001 e dagli specifici contratti nazionali di lavoro. Una
riflessione sul tema è contenuta in G.Barzanò, Leadership per
l’educazione. Riflessioni e prospettive dal dibattito globale,
Armando, Roma, 2008.
[7] N.Arcangeli, CAF
– Common Assessment Frameworkm in G.Cerini-M.Spinosi (a cura di),
Voci della Scuola, X, Tecnodid, Napoli, 2011.
[8] A.Paletta, Scuole
responsabili dei risultati. Accountability e responsabilità sociale,
Il Mulino, Bologna, 2011.
[9] Avevamo già suggerito
questa ipotesi in G.Cerini, …e se a scattare fosse il merito? In
www.edscuola.it (rubrica
Riforme on line).
[10] M.Castoldi, Si
possono valutare le scuole? Il caso italiano e le esperienze
europee, Sei, Torino, 2008.
[11] Con l’a.s. 2010-11
cessa il raggio d’azione della Direttiva n. 74 del 15 settembre
2008, che aveva regolato per un triennio l’attività dell’istituto
nazionale di valutazione (www.invalsi.it
).