Un consiglio a Brunetta e Gelmini:
attenti ai suggerimenti di Giavazzi.

di Giorgio Israel,
dal Gruppo di Firenze per la scuola del merito e della responsabilità,
20.5.2008.

Un salutare articolo su un altro dei "miti d'oggi", come avrebbe detto Roland Barthes: la valutazione. Ci vuole, ma se è seria, attendibile e utile. Per parte nostra continuiamo candidamente a sostenere che sarebbe già rivoluzionario, nella scuola italiana, individuare, valutare e sanzionare il demerito, cioè i casi gravi di scorrettezza o inadeguatezza professionale.
(L'Occidentale, 19 Maggio 2008)


In un articolo scritto quando ancora non si conosceva la lista dei ministri, Angelo Panebianco consigliava coloro che avrebbero rivestito tale carica, e in special modo il neoministro dell’istruzione, a comportarsi come Alberto Ronchey, quando fu nominato ministro dei beni culturali: trascorrere il tempo necessario, anche un paio di mesi, a studiare i dossier, consultare tutti i possibili specialisti e tutte le associazioni coinvolte, prima di prendere decisioni affrettate. «Nelle sue mani c’è il futuro del paese» avvertiva Panebianco rivolgendosi al neoministro dell’istruzione.

È giusto che chi ha qualcosa da dire lo dica e alimenti i dossier. Tuttavia, Francesco Giavazzi sembra preso dall’ansia di indurre i ministri Gelmini e Brunetta a seguire senza indugio i suoi consigli senza neppure leggere un dossier. In una sequenza martellante di interventi egli ha proposto ai detti ministri di creare in poche settimane una delivery unit, sul modello di quanto fatto da Blair in Gran Bretagna, ovvero una commissione che analizzi e valuti pubbliche amministrazioni, scuola e università sulla base dei risultati anziché sulla base delle norme e delle procedure, elaborando “in modo scientifico” l’informazione. Egli si richiama alle teorie esposte in un saggio di Roger Abravanel che propone appunto metodi “scientifici” per “misurare” l’efficienza.
Questo proposito da un lato appare attraente, dall’altro sospetto. È attraente e condivisibile l’idea di accantonare norme e procedure per guardare ai risultati. È sospetto non specificare cosa si intenda per “risultati” e ricorrere in modo troppo disinvolto al richiamo alla “scientificità”. Non basta difatti gonfiarsi le gote delle locuzioni “metodo scientifico”, e “su basi scientifiche” per credere di aver risolto il problema: ne abbiamo viste e ne vediamo troppe di cialtronerie docimologiche e valutative – come l’uso della distribuzione gaussiana – per lasciarci intimidire dal richiamo alla “scientificità”.

Gioverà ricordare ancora una volta che il concetto di “risultato” non è lo stesso in tutti i campi: in alcuni è trasparente, in altri è quantomeno fumoso. Difatti, va pure ricordato che la pedagogia per obbiettivi è un metodo di formazione professionale sviluppato negli Stati Uniti durante la Seconda Guerra Mondiale per addestrare tecnici addetti alla manutenzione, capaci di operare sotto il fuoco nemico o piloti da combattimento, in contesti tecnico-professionali in cui è facile definire come possa darsi una valutazione quantitativa delle prestazioni. Ma appena il “risultato” o “prestazione” non ha caratteristiche semplici, evidenti e facilmente oggettivabili, la faccenda si fa complicata. Giavazzi parla di valutazione degli ospedali secondo tempi medi di attesa, tasso di sopravvivenza, incidenti, emergenze. Sono parametri pertinenti ma del tutto insufficienti. Se si fa attendere poco la gente e il tasso di sopravvivenza è alto, ma la qualità della sopravvivenza è cattiva, per esempio a causa di una mediocre capacità dei chirurghi, la valutazione è francamente sballata. Non esiterei a dire che la maggioranza delle persone preferirebbe attendere qualche giorno in più piuttosto che vedersi operata con conseguenze spiacevoli a distanza di mesi, quando oltretutto nessuno ti viene più a chiedere come stai. Molti pazienti considerano primaria la qualità del rapporto umano con i medici e i paramedici: ho letto or ora una lettera su un giornale di un paziente che loda un ospedale romano per la qualità umana degli operatori e la valuta come una qualità di gran lunga più importante dell’efficienza di certi ospedali del nord.

Pertanto, il criterio dell’efficienza può essere rozzo e fasullo quando non si tratta soltanto di fare manutenzione di un aereo o contare il numero di tiri andati a bersaglio. Quando poi si passa all’istruzione le cose vanno ancora peggio. Quando racconto agli studenti del mio corso che un parametro di valutazione delle università è la percentuale degli studenti che si laureano in tempo, sbarrano gli occhi e chiedono chi sia lo sprovveduto che ha ideato un simile criterio di valutazione. I passati ministri vantavano il miglioramento di questo parametro, ignorando (o facendo finta di ignorare) che per ottenerlo basta promuovere sempre di più: esattamente quel che avviene da alcuni anni e che sta producendo lo sfacelo dell’istruzione universitaria e l’immissione in circuito di una massa di laureati dequalificati. Ma parametri, valutatori e ministri sono beati e contenti di sé. In linea generale, l’unica valutazione seria dello studente è il voto, ma l’entità dei “successi formativi” non è per niente un serio parametro di valutazione di un’istituzione educativa: le cose possono stare esattamente all’opposto, ovvero può essere molto più seria e qualificata un’istituzione che boccia di più e magari è costretta a farlo perché la base sociale culturale dei suoi studenti è peggiore di un’altra che può bocciare di meno. In questi casi, l’unica cosa seria da fare per capire come stanno le cose è una valutazione qualitativa, ovvero prodotta da un commissione di competenti (ovvero altri insegnanti) che indaghi a fondo sul campo e fornisca un rapporto dettagliato eventualmente accompagnato da un “voto”, semplice e trasparente.

Occorre stare molto attenti alle valutazioni basate sulle griglie di parametri. Le indicazioni che esse forniscono vanno prese con grande cautela.. Fa cascare le braccia il riferimento a certi esempi di valutazioni di scuole dati da Giavazzi o anche al test Pisa come sondaggio “scientifico”: esso fornisce un’indicazione molto generica del livello di conoscenze per aree geografiche, ma sarebbe straordinariamente ingenuo prendere per oro colato le graduatorie nazionali da esso stabilita. In realtà, chiunque si dia la pena di rifletterci un minimo e di fare qualche semplice prova, sa benissimo che in queste valutazioni basate su griglie di parametri quantitativi, basta eliminarne o aggiungere qualcuno, modificare anche di poco qualche domanda, per ottenere risultati radicalmente diversi.

Nel campo della ricerca scientifica, poi, nulla può sostituire la valutazione di contenuto dei lavori scientifici fatta da esperti qualificati e riconosciuti del settore. La sostituzione di questo lavoro – che è faticoso ma è l’unico sensato – con griglie di parametri produce risultati spesso pessimi. È pietoso assistere al fatto che si stabilisca che un libro pubblicato in Italia vada valutato 12 e un libro pubblicato all’estero 20, anche se il primo è magari un lavoro profondo edito da una casa editrice di alto prestigio e il secondo una scemenza pubblicata da una mediocre casa editrice, che però è “straniera”. Non è un esempio fatto a caso ma un pezzo di griglia di valutazione prodotta al termini di lunghi “lavori” da un’istituzione. Considerazioni non meno desolanti si potrebbero fare circa i pessimi effetti dell’uso indiscriminato del Citation Index.

In conclusione, occorrerebbe assumere un atteggiamento più meditato e riflessivo dopo aver assistito a un ventennio di disastri, non soltanto italiani, dovuti alla mania di affidarsi a metodi quantitativi che si pretende siano “scientifici”, mentre hanno come unico pregio quello di dare occupazione a chi li escogita: il che pone un serio problema di “valutazione” che però, a quanto pare, non interessa a nessuno. Il che dimostra che l’interesse per le procedure più che per i risultati è un vizio di cui non sono colpite soltanto le amministrazioni pubbliche inefficienti.