Test Ocse-pisa, dubbi sui presidi italiani: Lo sostiene uno studio condotto da due professori universitari: i dirigenti scolastici del nostro Paese forniscono informazioni "semplificative" o ripetitive, cosa statisticamente poco probabile, per dare un'immagine migliore. Ne deriverebbero dati falsati di Salvo Intravaia, la Repubblica scuola 13.11.2013 Presidi italiani sul banco degli imputati. "Possiamo fidarci dei dati del sondaggio Ocse-Pisa?". E' questo il titolo, dal tenore decisamente provocatorio, di uno studio sui risultati del sondaggio Ocse-Pisa del 2009 condotto da due professori universitari: Jörg Blasius, professore di sociologia presso l'università di Bonn, e Victor Thiessen, professore emerito di sociologia alla Dalhousie University in Canada. Uno studio che fa discutere prima ancora di vedere la luce. Perché questa volta il dito viene puntato contro i dirigenti scolastici italiani che vengono accusati di avere "fabbricato i dati col copia/incolla" o di essere stati superficiali nel dare le risposte. "Non ci sono dubbi sui dati", afferma Blasius. Il test promosso ogni tre anni dall'Organizzazione per la cooperazione e lo sviluppo economico è conosciuto in Italia per le carenze evidenziate dai quindicenni nostrani in italiano, matematica e scienze e per il divario con i coetanei di tantissimi Paesi, europei e non. Quello che pochi sanno è che, oltre ai questionari per saggiare le competenze degli adolescenti di 72 nazioni sparse in tutti e cinque i continenti, in occasione del test, vengono forniti anche tre questionari - studenti, genitori e scuola - che servono all'Ocse per contestualizzare le performance dei ragazzi. Uno di questi questionari - quello relativo alla Scuola - viene compilato dal dirigente scolastico e raccoglie informazioni sulla struttura e l'organizzazione dell'istituto, sugli studenti e sul corpo docente, sulle risorse. Ma anche sulla didattica, sul clima scolastico e le politiche seguite.
Tutte informazioni
che "servono - spiegano da Parigi - ad illustrare gli aspetti comuni
e le differenze fra gruppi di scuole per chiarire meglio il contesto
nel quale si colloca il rendimento degli studenti nelle prove". Per
valutare la qualità statistica delle risposte fornite dagli oltre
mille presidi che hanno partecipato alla tornata 2009, i due
studiosi hanno individuato due indicatori: il numero di risposte
"semplificative" e le sequenze che si ripetono. Il fatto è che il
questionario è strutturato con domande relative a tre ambiti -
risorse della scuola, clima scolastico, politiche e pratiche
dell'istituto - che prevedono più risposte standard per le quali
sono previsti quattro livelli di giudizio. Nel nostro Paese, su 67 milioni di combinazioni possibili alla domanda 11, una sequenza si verifica tre volte e tredici addirittura due volte. Una coincidenza che la statica non ammetterebbe. Altra anomalia riscontrata è quella delle risposte che gli studiosi definiscono "semplificative": risposte "per niente" o "molto poco" a tutte le opzioni possibili. Una circostanza che non appare statisticamente possibile e che denoterebbe l'intenzione da parte dei dirigenti scolastici di far apparire la loro scuola in una situazione migliore di quella reale o che i capi d'istituto hanno fornito risposte automatiche senza leggere le opzioni. Tutte situazione che falserebbero i dati Ocse-Pisa e che potrebbero portare i governi a decisioni sbagliate, visto che l'indagine Pisa (Programme for International Student Assessment) è una delle più seguite in ambito internazionale. |