CESP - Centro Studi per la Scuola Pubblica
 
cespbo@iperbole.bologna.it Sede di Bologna: Via San Carlo, 42 tel 051-241336 chi siamo - statuto - atto costitutivo

Il cacciavite che gira a vuoto.

Gianluca Gabrielli dal CESP del 30 agosto 2006

 

Una riflessione a partire dalla Direttiva ministeriale sull’attività Invalsi
Quando imparano a contare i bambini solitamente vengono presi da un piacere voluttuoso per questa operazione: contano tutto. Scalini, armadietti, piastrelle, bottoni, qualsiasi elemento della realtà che li circonda nasconde numeri. Presto però questo piacere si riduce e si continua a quantificare solamente ciò che è pertinente ai problemi. Leggendo la confusa direttiva del Ministero all’Invalsi per le attività 2006-07 pare di capire che questa prima fase, questo caotico contare ciò che capita, sia ancora in pieno corso e che il cambiamento di governo non abbia svitato gran ché. Vediamo nel dettaglio.

Il ministro Moratti due anni fa aveva predisposto e fatto somministrare batterie di quiz a risposta multipla a tutta la popolazione scolastica di II, IV elementare e I media nelle materie di italiano, matematica e scienze. Il costo era di 3,9 milioni di euro destinati alle imprese private che si sono garantite l’appalto. L’obiettivo era di misurare nella scuola italiana la produttività di sapere nozionistico e logico e il grado di adattamento alla didattica a risposte chiuse. Inoltre si proponeva - con la forza persuasiva del bollino di ‘scientificità’ - una specie di nuovo libro unico per tutti gli insegnanti del regno basato sulle nuove Indicazioni e con effetto retroattivo sulla didattica. Così facendo è stato composto un data base delle classi e delle scuole italiane in ordine di ‘produttività’, pronto per eventuali futuri processi di gerarchizzazione degli istituti e degli insegnanti.
L’architettura di questo progetto era grandiosa e impegnativa, coerentemente di destra, filosoficamente neopositivista e cognitivista.

Il nuovo ministero giorni fa ha emesso una direttiva che non interrompe questo processo ma lo riarticola. Vediamo come muta il progetto morattiano.
L’orizzonte degli elementi da valutare rimane quello delle Indicazioni nazionali (che la pratica del ‘cacciavite’ ha lasciato in vita). La valutazione è ancora elaborata e imposta a livello nazionale a prescindere dalle articolazioni locali delle programmazioni e dalle composizioni delle classi. Viene sottolineata la scientificità dell’elaborazione delle prove (“sulla base di appropriate metodologie scientifiche di validazione e taratura degli item”) come se fosse questo l’elemento carente nelle batterie di test messi a punto in precedenza. I soggetti cui imporre le prove, che anche questo governo indica come obbligatorie, rimangono gli alunni di II e IV elementare; nella scuola media si passa dalla I alla II, vengono aggiunti gli allievi della I e III classe della scuola superiore. La somministrazione non è più universale ma a campione e dovrà essere effettuata “mediante l’assistenza di rilevatori esterni”. Rimane il proposito di valutare infine le scuole (“valutazione di sistema”) anche in relazione alla collaborazione nella realizzazione di queste rilevazioni e alle modifiche introdotte in base ai risultati (e questa elemento comprende anche le rilevazioni morattiane degli anni passati).

Il nuovo ministero quindi ha deciso di intervenire e correggere il progetto morattiano su un unico elemento: la somministrazione universale dei test. Questo aspetto era decisamente il più appariscente ed odioso e presupponeva una scuola italiana supina alla didattica scientifica nazionale degli ‘scienziati’, una serie di elementi di sapere nozionistico obbligatori per tutti da rilevare ogni due anni per tutto il percorso di studi obbligatorio, una banca dati immensa di controllo delle scuole, degli insegnanti, degli alunni che oltre ad essere inquietante, non sappiamo quali sviluppo avrebbe potuto avere nel medio periodo. Questo aspetto aveva anche in sé elementi deboli che sono immediatamente emersi: forti resistenze dei genitori e degli insegnanti a questo disciplinamento di stile autoritario, difficoltà di controllo dei risultati (ogni insegnante dotato di senno aiutava i ragazzi). Il nuovo ministero ha probabilmente capito che questa modalità di intervento non poteva essere gestita dall’apparato delle dirigenze e tanto meno dall’Invalsi e dai suoi appaltatori: andava sacrificata per mantenere in vita il progetto.
Infatti il progetto rimane vitale e, a mio parere, estremamente dannoso per la scuola italiana.
Il tentativo è quello di ‘misurare l’efficienza e l’efficacia di un sistema educativo con procedure standardizzate a livello nazionale’. Viene sottolineata l’obbligatorietà, viene esteso l’arco scolastico di riferimento, viene ribadita la continuità con i rilevamenti passati, confermate le materie e - presumibilmente - anche la scelta dello strumento dei test. Quello che ancora non si capisce bene è il fine di questo misurare.

Una prima motivazione, comprensibile ma non condivisibile, sarebbe il confronto con efficienza ed efficacia dei sistemi educativi europei. Facile rispondere che per questa esigenza esistono già ricerche che da anni suscitano un mare di discussioni sulla loro attendibilità e sul senso in cui è lecito leggerne i risultati. Perché aggiungerne un’altra? Ma soprattutto: sono davvero confrontabili in astratto i risultati di un processo complesso come quello dell’istruzione attraverso elementi così poveri come le percentuali di risposte corrette o errate a domande secche? E la creatività? E le competenze argomentative? E il sapere cooperativo? E i tanti discorsi sul carattere processuale del sapere? Davvero sono confrontabili i sistemi di istruzione sulla base di tanto labili e poveri elementi?

La seconda argomentazione, quella che spesso colleghi volenterosi e ben intenzionati tendono a giudicare con troppa accondiscendenza, è che l’accumulo di queste informazioni permetterebbe una riorganizzazione della pratica didattica in modo da migliorare i risultati degli allievi. L’idea è quella che se uno scienziato ci comunica che un bambino sbaglia 7 test su 12 di scienze, poi l’insegnante ha in mano utili dati per riorganizzare la propria attività e diminuire l’insuccesso dell’allievo. Il problema è che questi dati non servono a nulla, se non a sapere che quell’allievo ha sbagliato il compito.
Quando insieme ai colleghi riflettiamo sugli insuccessi scolastici che emergono dalla pratica del nostro lavoro abbiamo ben poco aiuto dalle prove di verifica, che al massimo ci confermano tale insuccesso. Il percorso di comprensione e di correzione, di autocritica, di aggiornamento e modifica delle pratiche scolastiche e dei contesti di apprendimento parte da una rete ben più complessa di osservazioni, confronti, sensazioni, comunicazioni che coinvolgono in modo aperto noi e gli allievi e spesso arriva ai genitori e al contesto sociale. Ciò che quindi rimane incomprensibile a chi lavora giorno per giorno a scuola è come questa assurda idea di rilevare dati statistici a livello nazionale possa innestare un feed back positivo con l’azione quotidiana dell’insegnamento di ogni singola classe.

Ma se non ci permettono di confrontare in maniera attendibile e utile la scuola italiana con le altre, se non ci aiuta a migliorare la pratica didattica, perché bisogna continuare a contare questi items?

Forse perché la cultura di chi organizza la scuola rimane astratta e burocratica, poco interessata a supportare i processi di autocorrezione che ogni team, ogni scuola pratica giorno per giorno nella quotidianità. Un numero più umano di alunni per classe, un numero di insegnanti che risponda alle esigenze (come sostegno e tempo pieno), scuole vivibili e strumenti didattici nonché carta igienica a sufficienza potrebbero farci salire in una mai formalizzata graduatoria internazionale della civiltà scolastica. Ma di questo non si parla.
Forse, sotto sotto, anche nella versione di centro-sinistra dell’Invalsi l’idea fissa è quella di riuscire, prima o poi, a gerarchizzare le scuole e con esse alunni e insegnanti, in base a risultati che spesso poco hanno a che fare con l’idea di un sapere critico e di cittadinanza ma molto di più con l’idea confindustriale di “sapere” da applicare in modo “efficiente ed efficace”, senza tutte quelle inutili complicazioni collegate alla fatica e al piacere quotidiani di fare scuola.

Gianluca Gabrielli (Cesp – Cobas)
30 agosto 2006