Per fare il punto sull’attività e gli obiettivi dell’Istituto Italiano di Tecnologia, lo scorso 28 aprile abbiamo sottoposto ai vertici dell’Istituto una scheda di sintesi degli impegni presi nel corso degli ultimi due anni. Ospitiamo oggi l’intervento di replica del Presidente
dell’IIT Vittorio Grilli; altre notizie sono disponibili sul sito www.iit.it nei due comunicati stampa del 3 e del 9 maggio
Categoria: Scuola, università e ricerca Pagina 63 di 71
Una seria riforma dell’università assegnerebbe allo Stato solo un ruolo di indirizzo e di regolazione degli strumenti per laccertamento dei requisiti necessari per entrare nel mondo del lavoro. Lo stanziamento di fondi adeguati per la ricerca, l’innovazione e lo sviluppo, dovrebbe essere seguito da una verifica dei risultati ottenuti. Abolito il valore legale del titolo, andrebbe favorita la concorrenza fra atenei così come la collaborazione con il mondo industriale. Ma per fare tutto questo serve, forse, un marziano.
Il programma della Casa delle libertà tratta il tema dell’istruzione con superficialità. L’unico riferimento di spesa è un probabile rifinanziamento del buono scuola della Finanziaria 2005. L’Unione porta a sedici anni l’obbligo scolastico e attribuisce al potenziamento dell’istruzione e della formazione compiti vari: dal rafforzamento del potenziale di competitività del paese, al miglioramento dell’inclusione sociale, allo sviluppo del Mezzogiorno. Ma accredita la discutibile tesi che i mali del sistema universitario italiano siano dovuti alla mancanza di fondi.
La ricerca empirica italiana fatica a raggiungere gli standard internazionali. Sono lacune che dovrebbero preoccupare perché l’assenza di un’informazione statistica adeguata spinge il dibattito politico ed economico nel nostro paese verso un inutile confronto ideologico. Anche su questioni per le quali i dati, e non le posizioni di principio, dovrebbero aiutare a trovare le risposte. Basta guardare alle discussioni sulle riforme che di recente hanno interessato la scuola e il mercato del lavoro. Alcune ipotesi sul perché di questa situazione.
L’istruzione tecnica non corrisponde più ai nuovi modelli organizzativi delle imprese, perché destinata a formare figure professionali rigide. Oggi, invece, si richiedono lavoratori che abbiano maggiore flessibilità e autonomia, qualità acquisibili soltanto attraverso un’educazione di tipo liceale. Non a caso, gli Stati Uniti, dove la diffusione contestuale dell’Ict e delle pratiche di lavoro flessibili ha consentito significativi incrementi di produttività e occupazione, privilegiano i sussidi all’educazione generalista. Al contrario di Germania e Italia.
In Gran Bretagna ci si prepara al Research Assessment Exercise del 2008, il quinto della serie. Un sistema ormai collaudato e condiviso che assegna le risorse alle università in base al punteggio ottenuto nella valutazione. L’Italia ha cominciato nel complesso bene. Si tratta ora di continuare, seguendo i principi che spiegano il successo del sistema inglese, pur considerando alcune differenze importanti. In particolare, va ampliata la base dei ricercatori sui quali si effettua la valutazione. E gradualmente deve crescere la dipendenza tra risorse e performance.
Si è concluso il primo ciclo di valutazione della ricerca. L’elevata qualità dei panel, la trasparenza delle decisioni e del metodo di valutazione rappresentano una novità importante e positiva per le università e gli enti di ricerca. In futuro, si potrà migliorare l’efficacia del processo accelerando i tempi e chiarendo in anticipo le conseguenze che la valutazione avrà sulla ripartizione delle risorse. Solo così si può sperare che orienti le scelte del corpo accademico, migliori la qualità della ricerca e stimoli la concorrenza tra università.
E’ un fatto positivo che la valutazione della ricerca nelle università italiane abbia avuto luogo e che le linee guida si riferissero a standard di eccellenza internazionali. Il suo limite principale è la mancanza di un chiaro legame con la riallocazione di risorse finanziarie a favore delle università migliori. Perché se il punteggio basso di un ateneo può contribuire a dare più voce ai ricercatori di qualità, certamente un incentivo economico sarebbe stato più potente. Considerazioni analoghe si applicano anche a chi sta in cima alla classifica.
L’Italia spende in ricerca la metà della media dei paesi europei. Ma non solo le risorse sono poche, sono anche mal gestite. Per questo sarebbe bene istitutire una Agenzia per la ricerca scientifica. Con il compito di essere un elemento di stimolo, di rinnovamento e di qualificazione della ricerca scientifica italiana. Dovrebbe essere una struttura agile e organizzata con modalità multidisciplinari. I progetti di ricerca prescelti dovrebbero essere finanziati per il loro effettivo costo, evitando finanziamenti a pioggia. E valutati anche in itinere.
La diffusione dei risultati del primo ciclo di valutazione della produzione scientifica condotta dal Civr sul triennio 2001-03 rappresenta una novità di grande rilievo per la ricerca italiana. Come ben documentato dai commenti di Fabio Schiantarelli e Tullio Jappelli apparsi su staging.lavoce.info, il processo di valutazione è stato articolato e complesso, riguardando oltre 17mila prodotti di ricerca valutati da oltre 150 esperti che si sono avvalsi del giudizio di 6.600 referee esterni. Questo enorme sforzo ha portato come prodotto finale a delle graduatorie dei vari atenei italiani, distintamente per ciascuna area di ricerca, a seconda del giudizio attribuito alla loro produzione scientifica. Questione di metodologia Nelle dichiarazioni del ministro Moratti la valutazione del Civr dovrebbe fornire la base per assegnare una parte rilevante delle risorse pubbliche (il 30 per cento del Fondo di funzionamento ordinario del Miur) secondo criteri di qualità della ricerca. Ovviamente, leffettiva attuazione di questi indirizzi è condizionata allesito delle prossime elezioni, sebbene in questi giorni si siano moltiplicate le richieste perché il finanziamento degli atenei, e la ripartizione delle risorse tra le loro strutture interne, sia condizionato, seppur parzialmente, ai risultati del Civr. È necessario richiamare brevemente i punti essenziali della procedura seguita. Struttura Classifica modificata Classifica originaria Guadagni/perdite di posizione Prodotti presentati in eccesso (+)/ Univ. PADOVA 1 5 4 0 Univ. SALERNO 2 2 0 -1 Univ. PAVIA 3 4 1 -2 Univ. MODENA e REGGIO EMILIA 4 1 -3 -6 Univ. CHIETI-PESCARA 5 6 1 -2 Univ. LECCE 6 23 17 6 Univ. URBINO 7 7 0 0 Univ. BERGAMO 8 10 2 1 Univ. PIEMONTE ORIENTALE 9 8 -1 0 Univ. MILANO-BICOCCA 10 9 -1 0 Univ. MILANO 11 12 1 0 Univ. TRENTO 12 11 -1 0 Univ. VENEZIA 13 3 -10 -14 Univ. ROMA TRE 14 13 -1 -1 Univ. TRIESTE 15 14 -1 -3 Univ. CALABRIA 16 17 1 0 Univ. UDINE 17 16 -1 0 Univ. BRESCIA 18 18 0 0 Univ. CASSINO 19 27 8 4 Univ. CAGLIARI 20 19 -1 0 Univ. PARMA 21 20 -1 0 Univ. CATANIA 22 22 0 1 Univ. PISA 23 15 -8 -5 Univ. Politecnica MARCHE 24 24 0 0 Univ. VERONA 25 25 0 -1 Univ. ROMA TOR VERGATA 26 28 2 0 Univ. PERUGIA 27 26 -1 -2 Univ. PALERMO 28 21 -7 -9 Univ. MESSINA 29 29 0 -4 Univ. GENOVA 30 30 0 0 Univ. NAPOLI PARTHENOPE 31 31 0 0
È comprensibile che questo esercizio di valutazione abbia suscitato un ampio dibattito sullappropriatezza della metodologia utilizzata. In particolare, nellambito dellarea delle scienze economiche, si sono registrate delle profonde divergenze circa i criteri adottati e i rischi di discriminazione delle aree disciplinari meno rappresentate a livello internazionale. Rispetto a queste questioni centrali, che mettono in discussione lintero impianto della valutazione, vogliamo qui soffermarci su un aspetto tecnico apparentemente marginale, che tuttavia può condizionare in modo radicale la lettura dei risultati diffusi dal Civr.
Le linee guida dettate dal Civr richiedevano che ogni struttura, intesa come singolo ateneo o centro di ricerca, selezionasse un numero di contributi (articoli, capitoli in libri, eccetera), prodotti durante il periodo 2001-2003, pari al 50 per cento del numero di ricercatori a tempo pieno afferenti a quella struttura nella media del triennio. Ciascun contributo è valutato da un panel di area (ad esempio, “scienze economiche e statistiche”) secondo la scala “eccellente”, “buono”, “accettabile”, o “limitato”. A partire da queste valutazioni, il Civr ha poi ricavato un indicatore sintetico della qualità della ricerca per ogni struttura in ciascuna area mediante una media pesata che assegna il peso 1 a “eccellente”, 0,8 a “buono”, 0,6 ad “accettabile” e 0,2 a “limitato”. Si è quindi creata una graduatoria delle strutture in base a questo indicatore distintamente per ciascuna area di ricerca.
È chiaro che il valore assunto da questo indicatore sintetico varia al variare del numero dei contributi presentati (tranne, ovviamente, nel caso limite di una struttura che abbia solo prodotti di un unico livello di qualità). Quindi, il numero dei contributi valutati dovrebbe essere proporzionale a un indicatore di produzione potenziale misurato, ad esempio, dal numero di ricercatori afferenti a una particolare struttura in quella specifica area. Questo è il punto critico. Il legame fra contributi presentati e numero di ricercatori è stato fissato nelle linee guida del Civr con riferimento allintera struttura e non alla specifica area oggetto di valutazione. È quindi accaduto che nelle singole aree molti atenei siano stati valutati su un numero di contributi superiore/inferiore al 50 per cento dei ricercatori di quellarea.
Con quali effetti? È ovviamente impossibile stabilire quali pubblicazioni avrebbero presentato, e a quali pubblicazioni avrebbero rinunciato, gli atenei che si sono rispettivamente posizionati al di sotto o al di sopra della regola del 50 per cento. Tuttavia, per comprendere la rilevanza del problema può essere utile ricorrere a qualche ipotesi ragionevole. Sebbene i criteri specifici utilizzati dai panel non fossero noti al momento della presentazione dei contributi, è verosimile ritenere che gli atenei fossero in grado di selezionare nellambito della propria produzione scientifica i contributi migliori, quelli “eccellenti” o “buoni”. Si può quindi assumere che se a un ateneo fosse stato richiesto di sottoporre più contributi rispetto a quelli effettivamente presentati, li avrebbe integrati con pubblicazioni di qualità certamente non superiore. Specularmente, un ateneo che avesse dovuto ridurre il numero di contributi presentati, avrebbe ritirato quelli di qualità più bassa.
La tabella 1 mostra i risultati di questo esercizio limitatamente allarea di scienze economiche e statistiche e alle strutture di “medie dimensioni” secondo la classificazione del Civr. Ovviamente, date le ipotesi qui adottate, gli atenei che hanno presentato al Civr relativamente pochi contributi (quelli “sotto la regola del 50 per cento”) tendono a scendere in graduatoria, mentre quelli effettivamente valutati su un numero di pubblicazioni superiore a quanto indicato dalla regola del 50 per cento risalgono posizioni. Il riordinamento che ne risulta non è affatto marginale, con alcuni salti di posizione particolarmente ampi (Venezia, Pisa e Palermo verso il basso; Lecce, Cassino e Padova verso lalto).
Rimediare allerrore commesso in questo ciclo di valutazione è estremamente difficile. Qualsiasi criterio alternativo utilizzato per correggere il ranking sarebbe oggetto di legittime opposizioni da parte delle università perdenti. È quindi auspicabile che nei prossimi cicli di valutazione si ponga maggiore attenzione a questi dettagli tecnici, ad esempio verificando, sia in fase di presentazione che di valutazione, la corrispondenza fra numerosità dei contributi e numerosità dei ricercatori.
difetto (-)