Roberto Corrocher

L’editoriale di Roberto Corrocher, professore emerito dell’ateneo

Il mondo della conoscenza, il suo sviluppo e le sue applicazioni pratiche rappresentano uno dei settori strategici dei paesi sia sviluppati sia in via di rapido sviluppo, basti pensare a Cina, India, Russia ecc. Dall’ammontare delle  risorse impiegate rispetto al Pil, dai sistemi di selezione , dal numero degli addetti alla formazione e alla ricerca  e dal numero e dalla qualità  degli studenti impegnati, dipende la probabilità che una nazione ha di interloquire con successo e in modo competitivo nel vasto panorama, ormai senza confini, del mercato della conoscenza e dell’innovazione.

Le Università sono state fondate, in tutte le nazioni del mondo, per stimolare e sviluppare le conoscenze scientifiche e le loro applicazioni pratiche e trasmetterle alle nuove generazioni,  creando  un circolo virtuoso fra le generazioni a garanzia del loro futuro sviluppo. In questo panorama non fa eccezione l’Italia che nella sua Costituzione afferma che l’Università deve sviluppare il sapere (ricerca) e trasmetterlo (didattica). Il binomio ricerca-formazione è inscindibile affinché una determinata sede accademica possa raggiungere il suo  obiettivo fondante.

Alla luce dell’importanza strategica del mondo della conoscenza, non sorprende l’attenzione con la quale i media e l’opinione pubblica seguono le vicende universitarie e neppure sorprende che, nella competizione mondiale per la conoscenza, si sviluppino meccanismi  di valutazione dei sistemi accademici e si formulino, da più parti e in diverse nazioni, classifiche delle Università.

Nel progettare un sistema di valutazione del merito e delle performances degli Atenei (al mondo ve ne sono circa 10.000, con qualche milione di addetti), bisognerebbe preliminarmente disporre di indicatori che riescano a “misurare” in modo più preciso possibile e condiviso, l’attività didattica e quella relativa alla ricerca scientifica. Nel giudicare le prestazioni di un Ateneo non si può inoltre prescindere dal numero e dalla tipologia delle aree scientifiche che lo compongono e dal numero degli addetti strutturati in una determinata sede: senza tali indicazioni  ogni valutazione rischia di essere inadeguata e fuorviante. E’ importante inoltre rapportare i risultati alla percentuale del Pil che ciascuna nazione impiega nel sistema della ricerca scientifica; per quanto riguarda l’Italia questo dato è pari al 1.1% valore che la pone lontana dai paesi più progrediti.

Per poter realmente “leggere” e commentare le  varie classifiche degli Atenei che ogni inizio d’anno vengono pubblicate, è necessario, preliminarmente, conoscere e discutere  la metodologia usata per la loro formulazione e individuare il target ai cui esse sono specificatamente indirizzate.  Sotto questo profilo le varie classifiche, anche le più note (The Times higher education ranking;  The Academic ranking dell’Università di Shanghai ecc), presentano un’ampia diversificazione ed eterogeneità dei parametri usati per la loro formulazione ed alcune di esse presentano anche margini di soggettività che rendono discutibili i loro risultati; alla ricerca scientifica di uno specifico ateneo, le più note classifiche  assegnano generalmente un valore che varia dal 25 al 30% e viene inoltre “misurata” con parametri molto differenti. Accanto al pregevole intento di evidenziare i luoghi più organizzati ed attrezzati per lo sviluppo del sapere vi è talora anche  quello di creare visibilità “commerciale” ai fini di contendersi studenti, ricercatori e risorse. Per questo non sempre le classifiche sono “neutre” e del resto, se così fosse, non vi sarebbero fra le varie classifiche diversità di posizione alle volte cospicue (fino a 30- 40 posizioni).   

Nel variegato panorama delle classifiche delle università, da qualche anno sono comparse due classifiche basate esclusivamente sull’attività di ricerca espressa come produzione di lavori scientifici degli atenei e valutata con sistemi bibliometrici oggettivi: Il Scimago world report, e il Leiden university ranking. Il Scimago world report, sviluppato dall’Università di Madrid con la collaborazione di altre università spagnole, si prefigge di diventare la struttura di riferimento mondiale della produzione scientifica; l’Elsevier e il database “Scopus” supportano il progetto. L’ultima edizione di Scimago è uscita un mese fa e riguarda la produzione scientifica di 3042 università e centri di ricerca che rappresentano l’80% dell’intera produzione mondiale (Scimago world report 2011/2012). Il metodo usato e pubblicato nella premessa del report, tiene conto per ciascun centro di ricerca/università, del numero totale di pubblicazioni scientifiche del periodo 2005-2009, del numero di citazioni che ciascun lavoro ha accumulato, dell’impatto medio che i lavori hanno avuto rispetto ad un valore medio normalizzato mondiale relativo a un specifico settore (indice normalizzato: N. I); inoltre calcola la percentuale di lavori pubblicati su riviste scientifiche appartenenti al 1° quartile di ciascun settore scientifico (Q 1) e alla percentuale di lavori pubblicati su riviste appartenenti al primo 10% dello specifico settore (excellence rate). Il N.I. e l’excellence rate, rappresentano, a detta di Scimago, i due parametri che meglio esprimono l’eccellenza scientifica di una determinata sede. Le università italiane esaminate nel ultimo world report sono 56. La tabella A illustra le classifiche relative al N.I. e all’Exc Rate delle università italiane, escludendo le università mono-facoltà (-indice di specializzazione = > 0.80) e quelle che hanno prodotto, nel periodo considerato, meno di 1000  lavori scientifici.

Il Leiden university ranking pubblicato dal Dipartimento per la Valutazione scientifica degli atenei e finanziato dalla Ue (Leiden University, Belgio), si basa anch’esso su dati bibliometrici oggettivi, relativi alle pubblicazioni scientifiche degli atenei del mondo. Il database che fa da supporto alla sua analisi è il Web of science dell’Isi-Thompson, motore leggermente più restrittivo nell’inclusione delle riviste rispetto a Scopus. Nell’ ultima edizione pubblicata (2011/2012) il periodo considerato è analogo a quello di Scimago: 2005-2009. Benché la logica dei parametri del Leiden ranking sia simile a quella di Scimago, vi sono delle differenze nella misurazione dei parametri utilizzati. Come detto, Leiden ranking usa un database differente; inoltre, i prodotti pubblicati sono conteggiati e assegnati ad una data sede sulla base della percentuale di proprietà degli stessi dedotta dall’affiliazione degli autori. Il Leiden ranking fa una classifica delle sedi anche sulla base delle citazioni medie per lavoro (Mcs), delle citazioni medie normalizzato, metodo che tiene conto delle differenze intrinseche dei settori scientifici.(Mncs). Anche il Leiden ranking, analogamente al Scimago, classifica le sedi anche sulla base della percentuale di lavori pubblicati da una specifica sede su riviste appartenenti per impatto al primo 10% di ciascun settore (PP t10). La tabella B  riporta i dati relativi alle 25 università italiane comprese nelle top 500 del mondo.

Noi auspichiamo che il sistema dei media, nell’esercitare il suo necessario compito di informazione e controllo, quando pubblica le classifiche delle università, entri nel merito della metodologia usata da ciascuna fonte prima di esprimere pareri che potrebbero essere fuorvianti.
Fa comunque particolare piacere constatare che l’Università degli Studi di Verona, in entrambe le classifiche di cui sopra, relative alla produzione scientifica, si collochi in posizioni preminenti nel contesto degli atenei italiani. Auspichiamo che i nuovi sistemi di governance dell’Ateneo veronese sappiano valorizzare la ricerca scientifica in modo da mantenere e possibilmente migliorare le posizioni raggiunte. Speriamo infine che l’importante procedimento di valutazione che l’Anvur ha avviato, riesca ad adottare sistemi, il più oggettivi possibili e differenziati per aree scientifiche, tali da esprimere realmente il valore complessivo degli atenei italiani.