Il cacciavite che gira a vuoto.
Gianluca Gabrielli dal
CESP
del 30 agosto 2006
Una riflessione a partire dalla Direttiva
ministeriale sull’attività Invalsi
Quando imparano a contare i bambini solitamente vengono presi da un
piacere voluttuoso per questa operazione: contano tutto. Scalini,
armadietti, piastrelle, bottoni, qualsiasi elemento della realtà che
li circonda nasconde numeri. Presto però questo piacere si riduce e si
continua a quantificare solamente ciò che è pertinente ai problemi.
Leggendo la confusa direttiva del Ministero all’Invalsi per le
attività 2006-07 pare di capire che questa prima fase, questo caotico
contare ciò che capita, sia ancora in pieno corso e che il cambiamento
di governo non abbia svitato gran ché. Vediamo nel dettaglio.
Il ministro Moratti due anni fa aveva predisposto e fatto
somministrare batterie di quiz a risposta multipla a tutta la
popolazione scolastica di II, IV elementare e I media nelle materie di
italiano, matematica e scienze. Il costo era di 3,9 milioni di euro
destinati alle imprese private che si sono garantite l’appalto.
L’obiettivo era di misurare nella scuola italiana la produttività di
sapere nozionistico e logico e il grado di adattamento alla didattica
a risposte chiuse. Inoltre si proponeva - con la forza persuasiva del
bollino di ‘scientificità’ - una specie di nuovo libro unico per tutti
gli insegnanti del regno basato sulle nuove Indicazioni e con effetto
retroattivo sulla didattica. Così facendo è stato composto un data
base delle classi e delle scuole italiane in ordine di ‘produttività’,
pronto per eventuali futuri processi di gerarchizzazione degli
istituti e degli insegnanti.
L’architettura di questo progetto era grandiosa e impegnativa,
coerentemente di destra, filosoficamente neopositivista e cognitivista.
Il nuovo ministero giorni fa ha emesso una direttiva che non
interrompe questo processo ma lo riarticola. Vediamo come muta il
progetto morattiano.
L’orizzonte degli elementi da valutare rimane quello delle Indicazioni
nazionali (che la pratica del ‘cacciavite’ ha lasciato in vita). La
valutazione è ancora elaborata e imposta a livello nazionale a
prescindere dalle articolazioni locali delle programmazioni e dalle
composizioni delle classi. Viene sottolineata la scientificità
dell’elaborazione delle prove (“sulla base di appropriate metodologie
scientifiche di validazione e taratura degli item”) come se fosse
questo l’elemento carente nelle batterie di test messi a punto in
precedenza. I soggetti cui imporre le prove, che anche questo governo
indica come obbligatorie, rimangono gli alunni di II e IV elementare;
nella scuola media si passa dalla I alla II, vengono aggiunti gli
allievi della I e III classe della scuola superiore. La
somministrazione non è più universale ma a campione e dovrà essere
effettuata “mediante l’assistenza di rilevatori esterni”. Rimane il
proposito di valutare infine le scuole (“valutazione di sistema”)
anche in relazione alla collaborazione nella realizzazione di queste
rilevazioni e alle modifiche introdotte in base ai risultati (e questa
elemento comprende anche le rilevazioni morattiane degli anni
passati).
Il nuovo ministero quindi ha deciso di intervenire e correggere il
progetto morattiano su un unico elemento: la somministrazione
universale dei test. Questo aspetto era decisamente il più
appariscente ed odioso e presupponeva una scuola italiana supina alla
didattica scientifica nazionale degli ‘scienziati’, una serie di
elementi di sapere nozionistico obbligatori per tutti da rilevare ogni
due anni per tutto il percorso di studi obbligatorio, una banca dati
immensa di controllo delle scuole, degli insegnanti, degli alunni che
oltre ad essere inquietante, non sappiamo quali sviluppo avrebbe
potuto avere nel medio periodo. Questo aspetto aveva anche in sé
elementi deboli che sono immediatamente emersi: forti resistenze dei
genitori e degli insegnanti a questo disciplinamento di stile
autoritario, difficoltà di controllo dei risultati (ogni insegnante
dotato di senno aiutava i ragazzi). Il nuovo ministero ha
probabilmente capito che questa modalità di intervento non poteva
essere gestita dall’apparato delle dirigenze e tanto meno dall’Invalsi
e dai suoi appaltatori: andava sacrificata per mantenere in vita il
progetto.
Infatti il progetto rimane vitale e, a mio parere, estremamente
dannoso per la scuola italiana.
Il tentativo è quello di ‘misurare l’efficienza e l’efficacia di un
sistema educativo con procedure standardizzate a livello nazionale’.
Viene sottolineata l’obbligatorietà, viene esteso l’arco scolastico di
riferimento, viene ribadita la continuità con i rilevamenti passati,
confermate le materie e - presumibilmente - anche la scelta dello
strumento dei test. Quello che ancora non si capisce bene è il fine di
questo misurare.
Una prima motivazione, comprensibile ma non condivisibile, sarebbe il
confronto con efficienza ed efficacia dei sistemi educativi europei.
Facile rispondere che per questa esigenza esistono già ricerche che da
anni suscitano un mare di discussioni sulla loro attendibilità e sul
senso in cui è lecito leggerne i risultati. Perché aggiungerne
un’altra? Ma soprattutto: sono davvero confrontabili in astratto i
risultati di un processo complesso come quello dell’istruzione
attraverso elementi così poveri come le percentuali di risposte
corrette o errate a domande secche? E la creatività? E le competenze
argomentative? E il sapere cooperativo? E i tanti discorsi sul
carattere processuale del sapere? Davvero sono confrontabili i sistemi
di istruzione sulla base di tanto labili e poveri elementi?
La seconda argomentazione, quella che spesso colleghi volenterosi e
ben intenzionati tendono a giudicare con troppa accondiscendenza, è
che l’accumulo di queste informazioni permetterebbe una
riorganizzazione della pratica didattica in modo da migliorare i
risultati degli allievi. L’idea è quella che se uno scienziato ci
comunica che un bambino sbaglia 7 test su 12 di scienze, poi
l’insegnante ha in mano utili dati per riorganizzare la propria
attività e diminuire l’insuccesso dell’allievo. Il problema è che
questi dati non servono a nulla, se non a sapere che quell’allievo ha
sbagliato il compito.
Quando insieme ai colleghi riflettiamo sugli insuccessi scolastici che
emergono dalla pratica del nostro lavoro abbiamo ben poco aiuto dalle
prove di verifica, che al massimo ci confermano tale insuccesso. Il
percorso di comprensione e di correzione, di autocritica, di
aggiornamento e modifica delle pratiche scolastiche e dei contesti di
apprendimento parte da una rete ben più complessa di osservazioni,
confronti, sensazioni, comunicazioni che coinvolgono in modo aperto
noi e gli allievi e spesso arriva ai genitori e al contesto sociale.
Ciò che quindi rimane incomprensibile a chi lavora giorno per giorno a
scuola è come questa assurda idea di rilevare dati statistici a
livello nazionale possa innestare un feed back positivo con l’azione
quotidiana dell’insegnamento di ogni singola classe.
Ma se non ci permettono di confrontare in maniera attendibile e utile
la scuola italiana con le altre, se non ci aiuta a migliorare la
pratica didattica, perché bisogna continuare a contare questi items?
Forse perché la cultura di chi organizza la scuola rimane astratta e
burocratica, poco interessata a supportare i processi di
autocorrezione che ogni team, ogni scuola pratica giorno per giorno
nella quotidianità. Un numero più umano di alunni per classe, un
numero di insegnanti che risponda alle esigenze (come sostegno e tempo
pieno), scuole vivibili e strumenti didattici nonché carta igienica a
sufficienza potrebbero farci salire in una mai formalizzata
graduatoria internazionale della civiltà scolastica. Ma di questo non
si parla.
Forse, sotto sotto, anche nella versione di centro-sinistra
dell’Invalsi l’idea fissa è quella di riuscire, prima o poi, a
gerarchizzare le scuole e con esse alunni e insegnanti, in base a
risultati che spesso poco hanno a che fare con l’idea di un sapere
critico e di cittadinanza ma molto di più con l’idea confindustriale
di “sapere” da applicare in modo “efficiente ed efficace”, senza tutte
quelle inutili complicazioni collegate alla fatica e al piacere
quotidiani di fare scuola.
Gianluca Gabrielli (Cesp – Cobas)
30 agosto 2006