Concorso e dintorni: intervista a Gabriele Anzellotti il Sussidiario 8.1.2013
Sbollita l'ira pubblica sui test di preselezione al concorso indetto dal ministro Profumo,
è tempo di tentare un bilancio. Perché molti items erano stupidi o insensati, e rievocavano paurosamente quelli del Tfa
dell'estate scorsa; altri invece, erano semplicemente difficili. E
all'errore non c'era appello. Questa è stata una delle principali critiche sollevate dagli aspiranti docenti: cosa
c'entrano le miserevoli opzioni di un quesito a risposta multipla con la
capacità di insegnare bene la propria disciplina? Polemiche ora sopite ma destinate a ritornare puntualmente fuori, visto che di test si
tornerà a parlare, c'è da scommetterci. Ilsussidiario.net ha fatto il punto con Gabriele Anzellotti, docente di analisi matematica
nell'Università di Trento ed esperto di test.
Mi sembra eccessivo e generico dire che i test hanno fatto strame dei candidati. Le percentuali di ammessi sono state molto variabili a seconda
dell'area geografica, dell'ordine di scuola e della classe di concorso. Ad esempio i dati recentemente pubblicati dalla provincia di Trento indicano una percentuale di ammessi intorno
all'85% per le classi di concorso 47-Matematica e 49-Matematica e Fisica, e del 66% complessiva per la scuola secondaria, che
è alta... ma tornerò più avanti a ragionare sui risultati. Per quanto riguarda i quesiti vorrei dire due cose. La prima
è che ho letto e affrontato alcuni moduli, fra quelli che si trovano
nell'esercitatore messo a disposizione sul sito del Miur, e non mi sono piaciuti. Preciso che questa
è una opinione personale, che posso spiegare e motivare, ma che non pretende di essere
un'affermazione scientifica.
La seconda cosa è che trovo importante e positivo che i quesiti siano pubblicamente accessibili, ma ritengo sia necessario fare, e rendere pubblica, anche
un'analisi scientifica di come i test preselettivi e i singoli quesiti hanno operato nella selezione dei candidati e se lo hanno fatto in modo sensato e coerente con gli obiettivi.
Per molte questioni, non solo
nell'ambito dei concorsi per l'insegnamento, occorre stabilire una graduatoria in gruppi molto numerosi di persone, in modo da dare
priorità alle persone più abili e competenti. A questo fine occorre fare valutazioni, che devono essere quanto più possibile eque e approfondite, con
difficoltà e costi notevoli. Mi sembra utile e necessario che di tali valutazioni facciano parte anche test a scelta multipla, che però
preferirei non chiamare 'quiz', poiché questo termine è sbrigativo
e riduttivo. Naturalmente questi test non sono in grado di
'misurare' tutte le caratteristiche che si vorrebbero valutare nei candidati, tuttavia possono dare informazioni molto significative, cosa che ho verificato anche nel mio lavoro sulle prove di conoscenza
all'ingresso dei corsi di laurea scientifici. (cfr.
http://testingressoscienzepls.cineca.it)
Certamente l’insegnamento non è solo preparazione! È anche capacità di stabilire relazioni, è impegno quotidiano e responsabilità – e tutte queste cose non si misurano con un test. Ma una certa preparazione è indispensabile e non credo che alcuno lo metta in dubbio. Quello che penso abbia lasciato insoddisfatti (anche molti candidati che il test lo hanno superato) è il tipo di test che si è incontrato. E non credo che sia tanto un problema legato al tipo di quesito “a scelta multipla”, che richiede di optare per una o l’altra di certe alternative fissate. Capisco che domande di questo genere non consentono di esprimere la propria creatività; per questo ci sono però altri momenti, nella prova scritta e nella prova orale.
A mio parere, se una domanda a scelta multipla verte su questioni significative per la finalità valutativa ed è formulata in modo preciso e offre opzioni ben congegnate, che magari simulano certe situazioni reali in cui occorre prendere una decisione tra determinate alternative, allora richiede comunque ragionamento e competenza e non viene percepita come “essenzialmente ingiusta”. Aggiungo che c’è un’altra possibile fonte di “ingiustizia”, se viene dato un valore predeterminato di soglia per il superamento del test. Tale valore infatti può diventare arbitrario e ingiusto se la difficoltà del test non è precisamente calibrata a seconda dei fini selettivi che si vogliono avere. Per questo motivo, se non c’è il tempo o il modo di produrre un test calibrato, sarebbe bene evitare di prefissare la soglia.
Ad esempio, nel modulo n. 2, che si trova nell’esercitatore citato, ci sono cinque quesiti su cosiddetti “diagrammi insiemistici”, di cui tre essenzialmente uguali fra loro, che mi sembrano poco significativi e comunque mi sembrano troppi per lo stesso genere. In tutti i moduli ci sono successioni di numeri o di lettere, o di entrambi, da completare; sono quasi tutte con lo stesso tipo di struttura, anche queste mi sembrano poco significative. Altre domande richiedono una capacità percettiva di distinguere rapidamente lettere e simboli sullo schermo e mi convincono poco. Poi ci sono problemi che si risolvono molto facilmente se si impostano con qualche equazione algebrica, ma che immagino possano essere insormontabili altrimenti. Alcuni quesiti chiedono di districarsi tra ripetute negazioni di affermazioni in cui si trovano termini come “tutti”, “nessuno”, almeno uno” – questo tipo di domande è a mio parere accettabile, ma in alcuni quesiti l’accumulo di negazioni mi pare davvero eccessivo, con risultati talvolta quasi comici.
Mi sono sembrati in genere banali. Quelli poi sulle competenze digitali mi hanno lasciato molto perplesso, non ho ben capito la rilevanza delle competenze richieste, inoltre penso che si faccia troppo spesso riferimento, senza che ve ne sia la necessità, all’ambiente Windows. Decido di fermarmi qui e dico chiaramente che so di avere una visione parziale e non scientifica della questione, poiché ho visto rapidamente e ho affrontato soltanto un numero piccolo di quesiti, tra cento e centocinquanta, e non li ho studiati adeguatamente.
Sì, ritengo che un test preselettivo fosse necessario. Mi rendo conto che non era facile produrre una prova in così poco tempo e con costi accettabili. Non è facile costruire dei test di competenze generiche, che prescindano dai contenuti specifici, e anzi è forse impossibile. Apprezzo molto che si sia riusciti a rimettere in moto il sistema dei concorsi, dopo tanti anni. Penso comunque che si debba lavorare da subito per fare meglio in futuro.
Innanzittutto, la pubblicità dei quesiti a posteriori è molto positiva. Auspico anche la pubblicazione di una base di dati anonimi semi-aggregati relativa ai risultati, che consenta di studiarne la distribuzione, anche per singoli quesiti, in sotto-popolazioni di vario tipo: per area geografica, classe di concorso, titolo di studio e altri. Vorrei anche sapere, forse è già noto ma mi è sfuggito: sono stati somministrati esattamente i moduli già presenti nell’esercitatore? oppure sono stati creati altri moduli per sorteggio? e con quali criteri? Quali modelli statistici e criteri combinatori sono stati adottati al fine di garantire moduli di difficoltà comparabile? Nelle indagini internazionali, come Ocse-Pisa o Timss e Pirls, queste informazioni sono fornite con grande precisione.
Sono più cauto. Dovrei rifletterci meglio, ma tendo a preferire un test che non è pubblicato in anticipo e del quale però è data in anticipo una buona descrizione, con molti esempi. Una tale descrizione, che dovrebbe rimanere abbastanza stabile nel tempo e i cui mutamenti devono essere noti con grande anticipo, è uno strumento utile per indirizzare il Paese verso la consapevolezza che certe competenze e abilità sono importanti e devono essere sviluppate. La conoscenza a priori dei quesiti mi pare invece che possa incoraggiare preparazioni ad hoc, ossia comportamenti tutto sommato poco produttivi.
Il caso dei test preliminari del Tfa è stato in effetti clamoroso e richiederebbe una discussione specifica. Vorrei cogliere l’occasione per dire soltanto questo: non è solo il numero elevato dei quesiti platealmente e banalmente sbagliati, soprattutto in alcune classi di abilitazione, che richiede una grandissima attenzione e una grandissima reazione da parte del mondo della scuola e della comunità scientifica, ma è il tipo di conoscenze e competenze che si sono viste chiedere nei quesiti pur formalmente corretti: spesso non significative e talvolta addirittura fuorvianti per l’insegnamento. Apprezzo che si stia realizzando il Tfa, anche correndo dei rischi, con grandissimi sforzi da parte di molti soggetti. Conosco i grossi problemi e gli ostacoli generali che si devono superare. Vorrei che non solo si realizzassero momento per momento singole iniziative come il concorso e il Tfa, ma che nel far questo si costituissero le forze, le strutture, le relazioni per far funzionare l’Amministrazione pubblica, che è forse la principale infrastruttura strategica che ci serve per entrare nel futuro. Come ho detto prima, preferisco non chiamarli “quiz”! Questo termine viene usato correntemente per indicare cose molto diverse tra loro, accomunandole impropriamente. Penso che l’apprendimento e quindi la valutazione degli allievi debba avere come obiettivo competenze di diversi tipi. Alcune competenze complesse devono essere sviluppate e messe alla prova attraverso compiti impegnativi e articolati: temi, relazioni, problemi, progetti, attività di gruppo. Ma anche le prove standardizzate, che comprendono sia quesiti a scelta multipla, sia quesiti a risposta aperta semplice, possono dare informazioni interessanti su competenze per nulla banali. Queste informazioni sono utili in primo luogo agli studenti e alle loro famiglie, ai loro insegnanti. Consentono a chi sostiene le prove di sapere come si colloca rispetto a opportune popolazioni di riferimento e di prendere decisioni su come orientare il proprio lavoro e il proprio cammino a seconda dei propri fini. Studenti e candidati dovrebbero essere i primi a gridare: vogliamo sapere cosa sappiamo! La valutazione è un diritto. |