scuola

Cipollone (Invalsi): ecco cosa abbiamo scoperto grazie ai test sugli studenti di terza media

intervista a Piero Cipollone il Sussidiario, 9.8.2010

È uscito il rapporto sintetico sui risultati della prova Invalsi di terza media, condotto sul campione statistico e pubblicato il 5agosto sul sito dell’Invalsi. Il rapporto dà una prima lettura su come vanno i nostri 14enni in italiano e matematica; i quesiti dei due test riguardavano per italiano un testo narrativo e uno espositivo, più alcune domande di grammatica, e per matematica Numeri, Spazio e figure, Relazioni e funzioni e Misura, dati e previsioni.

Esso era particolarmente atteso perché quest’anno per la prima volta il test standardizzato contribuiva al risultato d’esame con un punteggio preciso e uguale per tutti. Mentre risulta ormai ben chiaro alla stragrande maggioranza dei protagonisti la presenza e lo scopo della prova, quello del punteggio è un passaggio abbastanza delicato, che il rapporto contribuisce a chiarire.

Il rapporto è positivo, innanzitutto in riferimento all’attendibilità dei dati, alla adeguatezza delle prove in genere e delle singole domande, su cui vengono fornite informazioni dettagliate. Offre poi i primi dati relativi alle percentuali di risposte corrette da parte degli alunni, agli scostamenti delle varie regioni rispetto alla media nazionale e degli stranieri rispetto agli italofoni, nonché alle differenze di genere. Abbiamo chiesto al presidente dell’Invalsi, Piero Cipollone, di commentare questi primi risultati.

Professore, sinteticamente, come sono andati quest’anno i ragazzi?

Non si possono fare comparazioni da un anno all’altro sul livello assoluto degli apprendimenti, perché le prove non sono collegate dal punto di vista statistico. Si possono invece fare dei confronti tra ogni singola scuola e il dato delle scuole dello stesso territorio e con la regione in cui quella scuola si colloca, e fra una scuola e l’Italia nel suo insieme: lo scopo è avere delle misure comparabili che rompano l’autoreferenzialità dei risultati. È su questo versante che si vedono i cambiamenti. Un risultato importantissimo è che i comportamenti opportunistici (cioè insegnanti che aiutano gli alunni) sono calati nettamente rispetto al passato, il che è indice che le prove vengono prese sul serio. Anche l’attendibilità dei dati quindi ne trae ulteriore vantaggio.

Si riferisce al fatto che per alcune regioni italiane del Sud l’anno passato risultavano molto sotto la media nazionale? Ci sono state novità?

Rispetto alla media nazionale, Calabria, Campania e Sicilia restano in basso, anche se la Campania migliora in matematica; le Marche sono in avanzata e in matematica sono oltre la media; Abruzzo e Puglia migliorano nettamente. Si conferma poi quello che era stato suggerito da studi internazionali, cioè che di per se stessa una valutazione esterna e centralizzata costituisce un fattore di miglioramento del sistema. Cresce la cultura della valutazione, si capisce che il successo dei ragazzi dipende da una buona preparazione e non dai buoni voti, e per questo serve un insegnamento efficace soprattutto dove ci sono le criticità: sapere che gli studenti incontrano difficoltà in certi campi fa sì che gli insegnanti si sforzino di approfondirli.

Quali sono le aree di criticità che emergono dai dati?

Per italiano, la grammatica per quanto riguarda le domande più difficili, ma il vantaggio è che in questo campo è la scuola che può molto, perché il risultato non dipende dalle condizioni culturali della famiglia come per la comprensione. In matematica soprattutto l’ambito dei Numeri e in minor misura la geometria.

Ma la prova nazionale standardizzata all’interno di un esame conclusivo di un ciclo scolastico ha anche una funzione specifica. Può chiarire questo punto?

Una prova standardizzata, oltre a essere unica per tutte le scuole, deve coprire tutte le fasce di abilità, dallo studente debole di una scuola debole alle punte di eccellenza a livello nazionale, e mettere tutti su una stessa scala: per questo nei test esistono domande facili, medie e difficili, perché bisogna pesare, come su una bilancia, quanto sanno fare ragazzi di livello sia scarso, sia medio, sia eccellente. La prova di profitto invece si colloca al livello medio di difficoltà rispetto a una certa classe o scuola, quindi se i criteri per fare le prove o per dare i voti cambiano da scuola a scuola non si possono fare paragoni e sapere come stanno le cose. Per questo gli insegnanti ritengono che la prova standardizzata sia “difficile”.

In effetti, insegnanti, studenti, famiglie fanno fatica a credere che test che hanno avuto il 60 % (per italiano) e il 51% (per matematica) di risposte giuste siano effettivamente “di difficoltà adeguata”: può spiegare meglio questo punto?

Il test funziona bene se non ci sono domande così facili che rispondono tutti o così difficili che non risponde nessuno, ma le domande si collocano all’interno di una gamma varia: questo ai fini della misurazione. Per misurare bene gli apprendimenti dei ragazzi molto bravi occorre avere anche delle domande difficili. è probabile che il giudizio di prova difficile da parte degli studenti e delle famiglie sia derivato dalla presenza di queste domande. Poi c’è il problema del punteggio, attribuito al test ai fini della promozione e del voto, che funziona se alle domande facili si dà un punteggio alto e a quelle difficili uno basso, per controbilanciare e non rendere il test penalizzante ai fini del voto a causa delle domande molto difficili che devono esserci per misurare bene tutti.

Ma un test così fatto non penalizza i deboli?

Il rapporto dice che il punteggio degli studenti nella prova standardizzata è risultato in media inferiore ai punteggi delle altre prove, ma che questo non dipende dalla difficoltà del test, anzi le evidenze che abbiamo dicono che i risultati sono coerenti con altre misure indipendenti dei livelli di preparazione dei ragazzi. Per esempio, la quota delle insufficienze nella prova nazionale è molto simile a quella dei ragazzi che nello scrutinio di giugno del primo anno di scuola superiore non è promosso o è rinviato allo scrutinio di settembre Nella stessa direzione va il confronto con la quota dei ragazzi con livelli di conoscenze insufficienti in italiano e matematica desumibile dall’Indagine OCSE-PISA sui quindicenni o IEA-TIMSS per matematica e scienze sugli studenti di terza media.

Qual è il dato più preoccupante e qual è oggi la grande sfida?

Il dato più preoccupante è la differenza fra scuole che si registra al Sud, a parità di indirizzo, di programmi e di modi di accesso al lavoro degli insegnanti. Certe scuole del Sud sono ottime, certe sono pessime, dipende dal territorio e da molti fattori esterni alla scuola. La sfida è dare opportunità attraverso la scuola alle fasce più deboli, vincere la differenza fra scuole buone e scuole non buone, andare nella direzione della qualità e quindi dell’equità vera.