Tag - Valutazione

Cosa resta dell’università italiana (II): precarizzazione e distorsioni della ricerca
A quindici anni dalla riforma Gelmini, l’università italiana appare più fragile, diseguale e precaria. I tagli e i criteri di finanziamento hanno ampliato le distanze tra atenei e territori. La precarizzazione è diventata la condizione normale del lavoro accademico. La valutazione ha aumentato la produttività, ma anche le distorsioni nei comportamenti scientifici. Dietro i numeri, prende forma un “falso miracolo” che mette in discussione la qualità stessa della ricerca. (Pubblichiamo la seconda parte l’articolo “Cosa resta dell’Università italiana dopo un quindicennio di riforme?”, uscito sul numero monografico de Il Ponte (1/2026) dedicato all’Università.) Per leggere la prima parte si può cliccare qui. GLI EFFETTI DELLA RIFORMA A distanza di quindici anni dalla Riforma Gelmini, è possibile tracciare un bilancio sintetico dell’evoluzione di alcune variabili chiave che definiscono il funzionamento del sistema universitario italiano. Tre espressioni possono riassumere in modo efficace le principali tendenze emerse: compressione selettiva e cumulativa dei finanziamenti, precarizzazione crescente del personale docente, e valutazione amministrativa pervasiva e sistemica. Compressione selettiva e cumulativa. L’espressione, coniata da Gianfranco Viesti (2016), descrive sinteticamente gli effetti delle politiche di finanziamento dell’università a partire dal 2008. Secondo Viesti, queste politiche hanno comportato una riduzione complessiva dei fondi destinati all’istruzione superiore. La Figura 1 ricostruisce l’andamento del FFO a prezzi correnti e a prezzi costanti dal 2000 al 2024. A prezzi costanti, solo nel 2021 il FFO è tornato al livello dell’anno immediatamente precedente la riforma Gelmini, per poi tornare a contrarsi negli anni successivi. Contestualmente, la quota premiale è aumentata dal 7% nel 2009 al 30% nel 2021, facendo sì che una porzione sempre più ampia delle risorse disponibili fosse distribuita su base competitiva. “Compressione selettiva” indica che i tagli si sono concentrati su specifiche sedi e aree geografiche, in particolare nel Mezzogiorno. “Cumulativa” indica che gli effetti di queste riduzioni si sono amplificati nel tempo, creando un divario crescente tra atenei. Questo processo ha portato a una segmentazione del sistema universitario nazionale, con la creazione di università di “serie A” e di “serie B”, influenzando negativamente la mobilità sociale e lo sviluppo delle aree più svantaggiate del paese. In modo paradossale, la retorica sui finanziamenti legati al merito della ricerca come “fotografato” dalla VQR, si scontra però con i dati FFO, che mostrano che la quota premiale ricevuta da ciascun ateneo è semplicemente proporzionale alla sua dimensione, misurata in termine di personale docente (Baccini, 2017a, 2017b). Cosa ha determinato quindi la compressione selettiva e cumulativa?   Figura 1. Il Fondo di Finanziamento Ordinario delle università italiane a prezzi correnti e a prezzi costanti. Secondo Viesti, la compressione selettiva e cumulativa del finanziamento è il frutto della combinazione dell’applicazione del criterio del costo standard (Viesti, 2016), del proporzionamento di parte del finanziamento alla contribuzione studentesca (Viesti, 2016), e dei finanziamenti legati ai dipartimenti di eccellenza. In effetti la distribuzione di risorse operata dai dipartimenti di eccellenza è fortemente sperequata tra atenei. È plausibile ritenere che il governo Renzi, come suggerivano da tempo i “Bocconi boys” dal sito de LaVoce.info, abbia introdotto la gara per i dipartimenti di eccellenza proprio per correggere l’anomalia di una quota premiale che non operava una redistribuzione significativa dei fondi tra università. La distribuzione dei fondi per i dipartimenti di eccellenza è legata all’uso di un indicatore (ISPD) calcolato a partire dai risultati della VQR. I problemi di quell’indicatore, fortemente voluto dalla CRUI, furono subito segnalati pubblicamente (Bertoli Barsotti, 2017; Bruno, 2014; Giuseppe De Nicolao, 2014; G. De Nicolao, 2014; De Nicolao, 2017), nell’indifferenza generale dei decisori politici e dell’ANVUR. Un recente articolo ha mostrato che l’indicatore ISPD opera una standardizzazione “anomala” che amplifica differenze non significative tra dipartimenti, con la conseguenza che alcuni che vengono premiati hanno performance identiche a quelle di altri che invece non ottengono nessun premio (Galli & Greco, 2025). Precarizzazione. A partire dalla Legge Gelmini le università italiane sono state sottoposte alla sistematica sostituzione di personale a tempo indeterminato, con personale a tempo determinato (Figura 2). Nel 2010 erano occupati a tempo indeterminato 57.449 professori ordinari, professori associati e ricercatori a tempo indeterminato (RTI) che rappresentavano l’81% del personale docente e ricercatore complessivo. Il restante 19% era rappresentato da 13.109 titolari di assegni di ricerca. La legge Gelmini mise ad esaurimento i ricercatori a tempo indeterminato, sostituendoli con due figure di ricercatori a tempo determinato, cosiddetti di tipo A (RTDA) e di tipo B (RTDB). Da quel momento la forbice tra personale a tempo indeterminato e personale a tempo determinato si è progressivamente allargata: nel 2020 si contavano 46.245 ordinari/associati/RTI pari al 65% del personale. Gli assegnisti appresentavano il 22% del totale (15.849), gli RTDA il 7% (5.192) e gli RTDB il restante 6% (4.616). Figura 2. Personale di ricerca delle università italiane, totale e a tempo indeterminato (ordinari, associati e ricercatori a tempo indeterminato). Nel 2022 il legislatore è intervenuto sul pre-ruolo universitario con la legge 79/2022. La riforma prevede l’abolizione di RTDA, RTDB e assegni di ricerca, che vengono sostituiti dalla figura del RTT (Ricercatore in Tenure Track) e dal contratto di ricerca. In particolare, il contratto di ricerca introduce tutele per il lavoro di ricerca proprie dei contratti di lavoro dipendente, che erano del tutto assenti per gli assegni di ricerca. Poiché entrambe le nuove figure sono più costose delle precedenti e la norma non prevede nessuno stanziamento aggiuntivo di risorse per gli atenei, i governi Draghi prima e Meloni poi, hanno prorogato le figure previgenti. Questa proroga ha permesso di usare i finanziamenti straordinari del Piano Nazionale di Ripresa e Resilienza per assumere personale con contratti RTDA e soprattutto con assegni di ricerca (Figura 3). Negli anni 2022 e 2023 gli RTDA sono cresciuti del 36%, passando da 6.803 a 9.222. Figura 3. Personale di ricerca delle università italiane a tempo determinato (RTDA, RTDB, RTT, Assegni di ricerca). Per gli assegni di ricerca la crescita abnorme è avvenuta con un anno di ritardo, verosimilmente in seguito all’entrata in esercizio dei PRIN 2022/PNRR: dai 15.891 assegnisti del 2023 si passa a 23.958 nel 2024 (+51%). Al 31 dicembre 2024 gli RTDA rappresentavano l’8% e gli assegnisti il 27% del totale del personale di ricerca degli atenei. Per completare il quadro, c’è da tenere conto che le risorse PNRR sono state usate anche per fare crescere in modo abnorme gli iscritti al dottorato di ricerca, passati dagli 11mila del 2019 agli oltre 17mila del 2023.Figura 3. Personale di ricerca delle università italiane a tempo determinato (RTDA, RTDB, RTT, Assegni di ricerca).Di fatto, mentre il Parlamento scriveva una norma (L. 79/2022) per allineare il contratto di ricerca pre-ruolo ai contratti post-dottorato prevalenti in Europa, i governi Draghi e Meloni con i fondi PNRR si muovevano in direzione contraria, realizzando la più grande assunzione di personale precario nella storia dell’università italiana. Personale destinato nella grandissima parte a essere espulso dal lavoro di ricerca entro il 2027, quando scadranno i contratti RTDA e gli assegni di ricerca attualmente attivi. Valutazione pervasiva. Come anticipato, con la legge Gelmini viene istituito un capillare sistema di valutazione amministrativa della ricerca governato da ANVUR. La valutazione riguarda sia le istituzioni che sono soggette a valutazione massiva con i periodici esercizi VQR, sia i singoli ricercatori con l’istituzione dell’Abilitazione Scientifica Nazionale. Entrambi i livelli di valutazione sono agganciati a sistemi di incentivazione che agiscono sia a livello istituzionale che individuale (abilitazione, assunzione, passaggio di carriera). Non esistono studi sistematici sul punto, ma molta evidenza aneddotica documenta che i sistemi di incentivazione che agiscono a livello nazionale si trasmettono per imitazione a livello locale. Questo significa, per esempio, che la distribuzione dei fondi ai dipartimenti all’interno degli atenei avviene con una varietà di meccanismi specifici che tendono a riprodurre la premialità adottata per la distribuzione del FFO alle università. Non sono poche le università che trasferiscono risorse ai dipartimenti sulla base di algoritmi che premiano le stesse pubblicazioni premiate dall’ANVUR nella VQR.In modo analogo, le regole per i concorsi per l’assunzione o i passaggi di carriera tendono a adottare le regole di valutazione vigenti nella ASN, per cui, per esempio, anche a livello locale, vengono attribuiti punteggi diversi ad articoli usciti su riviste che ANVUR ha classificato in Classe A. La pervasività di questo sistema di incentivi nazionali e locali ha prodotto una modificazione profonda del modo in cui si fa ricerca in Italia. Stefano Fantoni, primo presidente di ANVUR, scriveva nel 2015: > A ormai più di quattro anni dalla nascita dell’ANVUR possiamo dire che la > valutazione e il riconoscimento del merito siano entrati a far parte in modo > definitivo e irreversibile delle pianificazioni delle università e delle > organizzazioni di ricerca. Il reclutamento dei giovani nei ruoli accademici e > degli enti di ricerca, gli avanzamenti di carriera, l’identificazione delle > specificità che tengono conto della qualità della ricerca svolta, la > programmazione didattica, il processo di una continua autovalutazione: tutto è > ormai pervaso dalle informazioni e dalle valutazioni che l’ANVUR ha fatto e > sta facendo. […] La battaglia contro il partito de: ‘la valutazione sì, > tuttavia…’, del continuo rimandare per paura di rinnovarsi e riformarsi può > dirsi vinta. Il comparto dell’alta formazione e della ricerca è tra i pochi, > se non addirittura l’unico, che ha intrapreso questo percorso con decisione e > senza manifestazioni di protesta” (Fantoni, 2015). Qualche mese dopo, Andrea Graziosi, neo presidente del consiglio direttivo di ANVUR, in una intervista a Il Sole24ore (9 maggio 2016) sosteneva: > “la valutazione della ricerca è entrata nella vita ordinaria delle università > italiane. Come spesso accade nel nostro paese, l’innovazione arriva in ritardo > rispetto ad altri sistemi nazionale. […] La valutazione può essere > un’operazione di verità che permette all’università di prendere atto dei suoi > pregi e difetti e di evidenziare sacche di malcostume. […] la valutazione > migliora l’università”. Non si contano i contributi di coloro che sostengono che VQR e ASN hanno contribuito a modernizzare i meccanismi di funzionamento dell’accademia italiana, promuovendo la meritocrazia e incrementando significativamente la qualità scientifica della produzione nazionale. Ci limitiamo pertanto alla storia “ufficiale” contenuta nei rapporti biennali sull’università italiana redatti da ANVUR. Nel 2018 il secondo Rapporto Biennale sullo Stato dell’Università Italiana si riconosce che l’Italia spende poco per ricerca, che le entrate delle università italiane sono diminuite, e che tutte le voci di finanziamento si sono ridotte. Questa riduzione non si è accompagnata a una sperequazione territoriale del finanziamento: anzi la quota di risorse destinate al Sud, considerato che al Sud sono diminuiti gli studenti, è addirittura cresciuta grazie alla parte premiale del FFO. Per quanto riguarda la ricerca, “la crescita della produzione scientifica italiana è stata soprattutto nel decennio in corso superiore alla media mondiale”. Il miglioramento non è stato solo quantitativo, ma anche “qualitativo”: > “La posizione dell’Italia della ricerca è oggi, grazie ai miglioramenti > registrati negli ultimi 15 anni, migliore rispetto a quella di grandi paesi > come Francia e Germania”. Addirittura, la produttività scientifica italiana sopravanza quella di Francia e Germania. Gli indicatori citazionali sono in netto miglioramento.Nel rapporto successivo (ANVUR, 2023), arrivato a cinque anni di distanza dal precedente, il miglioramento della ricerca italiana è confermato: > “In termini di produzione scientifica l’Italia mostra nel decennio in corso > una crescita superiore alla media mondiale. Di conseguenza, l’Italia aumenta > la propria quota di produzione mondiale, giungendo fino al 3,9% nella media > del sessennio 2016-2021: tale dato si rivela particolarmente significativo, > dato che nello stesso periodo i Paesi europei più importanti (Francia, > Germania e Regno Unito) mostrano una lieve riduzione della propria quota. […] > L’impatto citazionale medio della produzione scientifica (calcolato come > rapporto tra numero di citazioni e numero di pubblicazioni, normalizzato per > la diversa rilevanza dei settori scientifici) pone la ricerca italiana tra le > migliori d’Europa, sopravanzando Paesi quali la Francia e la Germania e, > guardando al di fuori dell’Europa, anche Stati Uniti e Canada. […] La ricerca > scientifica italiana, in termini di produttività, sopravanza sia quella della > Francia, che quella della Germania, attestandosi sui livelli di Spagna e Regno > Unito, che confermano il loro ruolo al vertice tra i Paesi europei”. Anziché limitarsi a descrivere la crescita della ricerca in Italia come nel precedente Rapporto, ANVUR ha una spiegazione per questi risultati: > “è probabile che una spinta significativa l’abbiano data le regole e le > procedure per l’abilitazione scientifica nazionale al ruolo di professore > universitario”. Quindi, parafrasando Graziosi, la valutazione ha migliorato l’università italiana. Anche fonti internazionali hanno riconosciuto il miglioramento della performance scientifica dell’Italia. Un rapporto commissionato dal governo britannico già nel 2016 esprimeva preoccupazione per la possibilità che il sistema universitario italiano potesse superare quello del Regno Unito in termini di produttività e impatto normalizzato della ricerca (Elsevier, 2017). Questa tendenza è stata confermata dai dati più recenti: nel 2020 l’Italia ha infatti superato paesi storicamente leader nella ricerca come Francia, Canada, Germania e Stati Uniti per impatto citazionale standardizzato, raggiungendo i livelli del Regno Unito (Department for Business, 2022). Alla luce di questi risultati, non sarebbe errato usare l’espressione “il miracolo italiano” della ricerca: in un contesto di contrazione delle risorse pubbliche, l’introduzione di rigorosi meccanismi di valutazione avrebbe innescato un recupero di efficienza che avrebbe a sua volta consentito al sistema universitario italiano di riacquisire un ruolo di primo piano nella geografia scientifica globale. Ma questa storia “ufficiale” è credibile? IL FALSO MIRACOLO ITALIANO. L’adozione capillare e pervasiva di procedure di valutazione amministrativa della ricerca massive (VQR) e individuali (ASN, FFABR etc.) governate da ANVUR ha determinato una modificazione profonda dei comportamenti individuali e collettivi che non è ancora stata studiata in modo sistematico. La crescita della produzione, della produttività e dell’impatto citazionale della ricerca italiana è stata accompagnata dalla adozione di cattive pratiche di pubblicazione e citazione da parte dei ricercatori italiani, al fine di rispondere agli incentivi quantitativi definiti nei processi di valutazione. Le evidenze aneddotiche sono conoscenza comune degli universitari italiani. Alcune di queste evidenze sono anche scritte in articoli pubblicati. Andrea Bonaccorsi, già membro del consiglio direttivo di ANVUR, in un articolo in cui sostiene che i “comportamenti opportunistici [..] rappresentano un fenomeno marginale e limitabile con opportune misure” (Bonaccorsi, 2017), scrive: > “Su questi aspetti [gift-authorship] l’esperienza personale degli ultimi anni > è straordinaria, All’indomani della VQR nel mio Ateneo [Pisa ndr] un direttore > di dipartimento, il cui posizionamento nel settore scientifico era molto > debole, ha scritto ai colleghi di provvedere, in vista della successiva > valutazione, a inserire come co-autori coloro che risultavano inattivi, cioè > con un numero di pubblicazioni inferiori al richiesto. […] all’indomani della > uscita dei criteri per l’Abilitazione Scientifica Nazionale ho visto con i > miei occhi la tabellina di un settore concorsuale nella quale veniva fatta la > lista dei lavori sottomessi [sic] a rivista o già accettati, con una > ripartizione scientifica dei casi nei quali agli autori (tutti giovani) > sarebbe stato chiesto di aggiungere il nome di un altro prima della > pubblicazione finale, il tutto controllato da un ben organizzato gruppo di > professori ordinari” (Bonaccorsi, 2017, pp. 36-37). Il fenomeno più studiato è il cambiamento delle abitudini citazionali, ed in particolare l’uso opportunistico delle autocitazioni. Studi empirici sono stati condotti a livello di singoli settori di ricerca in riferimento sia alle procedure VQR che ASN (Akbaritabar et al., 2021; Scarpa et al., 2018; Seeber et al., 2017; Vercelli et al., 2022). Baccini, De Nicolao e Petrovich (2019) hanno mostrato che la crescita dell’impatto scientifico dell’Italia è dovuta ad un massiccio cambiamento nelle abitudini citazionali nazionali dopo la riforma del 2010. L’ipotesi di partenza del lavoro è la seguente: in Italia avere un elevato numero di citazioni è necessario per superare le soglie ed aspirare ad ottenere l’abilitazione scientifica nazionale. I ricercatori sono portati ad adottare strategie di citazione in grado di accrescere i propri indicatori: il modo più semplice è quello di autocitarsi e magari farsi citare dai propri collaboratori. Baccini e coautori hanno costruito un indice di autoreferenzialità nazionale nella ricerca (inwardness) che misura quanto i vari paesi citano sé stessi nella propria letteratura scientifica. L’indicatore è definito come il rapporto tra il numero totale di autocitazioni di un paese e il numero totale di citazioni ricevute da quello stesso paese. L’indicatore è in grado di tracciare non solo le autocitazioni dei singoli autori, ma anche i club di citazione intra-nazionali, cioè gruppi di autori che si citano mutuamente. Il confronto dell’andamento dell’indicatore nel tempo per l’Italia rispetto agli altri paesi del G10 indica che in Italia, dopo il 2009, l’autoreferenzialità citazionale è cresciuta nella maggior parte dei campi scientifici; una tendenza unica tra i paesi del G10. Nel 2016 l’Italia è diventata – sia a livello complessivo che per la grande maggioranza dei campi di ricerca – il secondo paese con più alta autoreferenzialità citazionale. Solo gli Stati Uniti hanno un’autoreferenzialità strutturalmente più alta, spiegabile però con la leadership scientifica di quel paese.   Figura 4. Andamento dell’indicatore di inwardness nei paesi del G10 (da Baccini et al.  2019). Baccini e coautori considerano due obiezioni fondamentali al loro lavoro. La prima è che il valore dell’indicatore di autoreferenzialità dipende dalle collaborazioni internazionali, cioè dal numero di pubblicazioni scritte da italiani con coautori stranieri. L’aumento dell’autoreferenzialità potrebbe essere dovuto ad un aumento del grado di internazionalizzazione della scienza italiana. I dati mostrano però che l’Italia non cresce molto in collaborazioni internazionali: a fine periodo continua ad essere il paese del G10 con la seconda minore quota di pubblicazioni internazionali. Figura 5. Inwardness e collaborazioni internazionali. La seconda obiezione è che la crescita delle autocitazioni italiane sia dovuta ad un effetto “leadership”: la scienza italiana si autocita di più perché ha guadagnato in questi anni una posizione di preminenza nel panorama scientifico internazionale. Se questo fosse vero la crescita delle autocitazioni sarebbe accompagnata da una crescita delle citazioni provenienti da altri paesi. In realtà, per quanto riguarda le citazioni provenienti da altri paesi, l’Italia passa dalla penultima alla terzultima posizione tra i paesi del G10. Figura 6. L’impatto della produzione scientifica italiana sui paesi del G10. Baccini e Petrovich (2023) hanno rafforzato l’analisi considerando l’evoluzione delle autocitazioni scientifiche a livello nazionale in 50 paesi, utilizzando dati Scopus dal 1996 al 2019. I risultati mostrano che, per la maggior parte dei Paesi, i tassi di autocitazione sono diminuiti nel tempo seguendo andamenti simili. In questo contesto, tuttavia, vi sono alcuni Paesi che presentano un comportamento anomalo, con tendenze all’autocitazione significativamente diverse da quelle della maggior parte dei paesi “standard”. In particolare dodici paesi mostrano un andamento anomalo, con tassi di autocitazione in crescita, tra cui l’Italia. Gli altri paesi con trend anomali includono India, Iran, Pakistan, Cina, Russia, Corea del Sud, Malesia, Egitto, Arabia Saudita, Turchia e Indonesia. Figura 7. I paesi fuori dalla nuvola hanno andamento anomalo delle autocitazioni (Baccini-Petrovich 2023) Questi paesi condividono l’adozione di politiche della ricerca caratterizzate da un tratto comune: l’introduzione di premi diretti o indiretti per le prestazioni bibliometriche degli scienziati. I dati documentano una associazione temporale per tutti i paesi anomali tra i cambiamenti nelle politiche, da un lato, e i cambiamenti nel comportamento autocitazionale della comunità scientifica nazionale. Ciò suggerisce che gli scienziati rispondono effettivamente al nuovo clima di incentivi, modificando, tra le altre cose, le loro abitudini citazionali. La pressione generata da aggressive politiche di incentivazione sembra quindi in grado di influenzare rapidamente e visibilmente il comportamento citazionale di interi Paesi, distorcendo le classifiche globali dei Paesi basate sulle citazioni. Baccini e Petrovich sostengono che il fattore cruciale che influenza questo comportamento anomalo in termini di autocitazioni sia la vicinanza degli incentivi basati sulle citazioni alla carriera e al salario del singolo ricercatore: quanto più gli incentivi influenzano la progressione di carriera e il salario, tanto più è probabile che influenzino il comportamento citazionale. Nei paesi in cui gli indicatori citazionali contribuiscono a complesse formule di finanziamento a livello istituzionale, l’influenza sul comportamento citazionale è più distante dai singoli ricercatori e, di conseguenza, meno significativa. Un’ultima, ma cruciale, area di riflessione riguarda la diffusione di comportamenti che configurano vere e proprie frodi scientifiche. Tra questi rientrano la manipolazione o la fabbricazione di dati e immagini, il plagio, la pubblicazione multipla dello stesso lavoro in sedi diverse e la compravendita dell’autorialità degli articoli. Questi fenomeni siano difficili da osservare direttamente.   Uno degli indicatori indiretti più significativi della loro diffusione è rappresentato dal numero di ritrattazioni di articoli scientifici. Una ritrattazione è un atto formale con cui un editore o gli stessi autori dichiarano pubblicamente che un articolo già pubblicato non avrebbe dovuto essere accettato, e che le informazioni contenute al suo interno non devono essere considerate valide né utilizzate come base per future ricerche. In altre parole, la ritrattazione rappresenta un segnale forte di anomalia nel processo scientifico. Secondo un’analisi comparativa condotta da Marco-Cuenca et al. (2021), l’Italia è, insieme alla Germania, il paese dell’Unione Europea con la più alta incidenza di ritrattazioni scientifiche. Anche i dati raccolti dal database Retraction Watch confermano questa tendenza, evidenziando un netto aumento del numero di articoli ritrattati in Italia a partire dal 2010, proprio in concomitanza con l’adozione su larga scala di meccanismi valutativi basati su indicatori quantitativi. Cabanac et al. (2023) analizzano la distribuzione geografica delle ritrattazioni, combinando dati da Crossref e Dimensions, al fine di identificare contesti a rischio e pattern sistemici. L’analisi mostra che le ritrattazioni non sono distribuite uniformemente tra paesi, ma si concentrano in alcune aree geografiche con intensità diverse. L’Italia emerge come uno dei paesi europei con una densità significativa di articoli ritrattati, sia in termini assoluti che in rapporto alla produzione complessiva. UNA DIAGNOSI SBAGLIATA, UNA CURA DANNOSA La diagnosi sullo stato di salute dell’università italiana, formulata negli anni immediatamente precedenti alla riforma Gelmini, si è rivelata in larga parte fuorviante. I mali dell’università erano reali — carenza cronica di risorse, opacità delle procedure di reclutamento —, ma l’analisi dominante, condivisa trasversalmente da forze politiche e accademiche, ha finito per attribuire la responsabilità principale al supposto basso rendimento del sistema e all’assenza di meccanismi di valutazione meritocratica. La “cura” proposta e adottata con il consenso trasversale di tutte le principali forze politiche, sia di centro-destra sia di centro-sinistra, è stata quella già sperimentata in diversi paesi emergenti con l’obiettivo di migliorare il posizionamento nelle classifiche internazionali: una spinta decisa verso la monetizzazione, diretta o indiretta, delle prestazioni scientifiche, valutate attraverso indicatori quantitativi standardizzati di produttività e impatto. La valutazione è così diventata uno strumento centrale per regolare l’allocazione delle risorse e la distribuzione del potere all’interno del sistema accademico. Tuttavia, questa cura non ha affrontato — né tanto meno risolto — i problemi strutturali dell’università italiana: le risorse continuano a essere scarse e le pratiche di reclutamento, seppur rinnovate nella forma, restano spesso opache nella sostanza. Anzi, la nuova architettura valutativa ha introdotto sintomi inediti: autoreferenzialità crescente, omologazione tematica, e una preoccupante diffusione di comportamenti opportunistici e veri e propri fenomeni patologici, come frodi scientifiche, citazioni incrociate strategiche, e, nelle scienze umane e sociali, controllo sistematico da parte di gruppi di ordinari delle riviste più importanti nelle classifiche ANVUR. Di fatto, la riforma Gelmini, mettendo al centro del sistema la valutazione condotta da ANVUR, ha introdotto un controllo amministrativo e tecnocratico di emanazione governativa sull’università e sulla ricerca italiana. Più precisamente, come scrive Carla Barbati: > “La valutazione viene progressivamente configurata come una sorta di funzione > indivisibile, capace sia di fissare le proprie regole sia di verificane il > rispetto sia di farsi titolo per la definizione della misura, premiale o > sanzionatoria, connessa ai suoi risultati, che perciò sposta […] l’asse di > governo del settore” verso un “nuovo centro”, l’ANVUR che “acquisisce la > capacità conformativa di un’attività che diventa regolazione e insieme > controllo, assistita dalla forza speciale di esprimersi in determinazioni che > l’Autorità di Governo è chiamata a recepire nei propri provvedimenti” > (Barbati, 2019, p. 18). La valutazione ha finito così per ridefinire profondamente la distribuzione del potere all’interno del mondo accademico. Il sistema di valutazione governato da ANVUR ha spostato il potere dai “baroni”, ad una élite accademica scelta dalla politica direttamente, come i membri del consiglio direttivo di ANVUR, o indirettamente, come i membri dei gruppi di valutazione della VQR e delle commissioni per la classificazione delle riviste ai fini della ASN.  Ai cosiddetti “baroni” del periodo pre-Gelmini si sono sostituiti nuovi gruppi dominanti — i “baroni post-Gelmini” — spesso coincidenti, peraltro, con i precedenti. Ma questi nuovi vincitori, oltre a detenere più risorse e più leve di potere, beneficiano ora di una legittimazione formale: l’etichetta di eccellenza certificata dagli esercizi di valutazione dell’ANVUR. Il messaggio implicito è chiaro: chi ha vinto lo ha fatto perché lo meritava. Ai perdenti non resta che attendere il prossimo turno, sperando in un riscatto futuro, o più realisticamente adattarsi, possibilmente in silenzio, a un ruolo subalterno. La riforma Gelmini, attraverso il processo di precarizzazione del personale, ha accentuato la gerarchizzazione interna all’università. Un esercito di dottorandi, assegnisti e ricercatori a tempo determinato si trova in posizione di dipendenza crescente nei confronti del proprio principal investigator. Le carriere si decidono entro compartimenti disciplinari rigidi, dominati dai gruppi già vincenti, che controllano i percorsi di abilitazione nazionale e i concorsi locali. Nei settori cosiddetti bibliometrici, le prospettive di carriera sono legate a una corsa alla pubblicazione e alle citazioni; in quelli non-bibliometrici, alla pubblicazione di articoli in riviste classificate in “fascia A” dall’ANVUR. È in questo contesto che, come abbiamo visto, si sono moltiplicati comportamenti di “gioco strategico” del sistema: doping citazionale, pubblicazioni su riviste cosiddette “predatorie”, auto-citazioni di comodo, e controllo selettivo degli spazi editoriali rilevanti.Tutto ciò sta progressivamente restringendo il campo della ricerca accademica. Temi originali, approcci rischiosi o non immediatamente produttivi, lavori di replica o di verifica di risultati altrui, tendono a essere scoraggiati perché poco compatibili con i parametri valutativi dominanti. Si osserva così una progressiva omologazione delle linee di ricerca, fenomeno già documentato anche nei contesti anglosassoni (Regno Unito e Australia) dove da anni sono in vigore sistemi di valutazione centralizzati. Nel 2010, un incremento delle risorse avrebbe probabilmente avuto effetti positivi sulla quantità e qualità della ricerca e della didattica. Ma oggi, a distanza di anni, non basta più immettere fondi nel sistema. Se non si interviene sui meccanismi profondi che regolano la valutazione e la distribuzione del potere accademico, ogni risorsa aggiuntiva rischia di alimentare proprio quelle distorsioni che minano la salute dell’università italiana. Occorre un’azione radicale: smantellare gli attuali dispositivi di valutazione centralizzata, spezzare il vincolo della precarietà, ridurre la concentrazione di potere nelle mani di pochi, e restituire autonomia e pluralismo al sistema universitario. Senza una riforma profonda, non sarà possibile invertire davvero la rotta. RIFERIMENTI BIBLIOGRAFICI Akbaritabar, A., Bravo, G., & Squazzoni, F. (2021). The impact of a national research assessment on the publications of sociologists in Italy. Science and Public Policy, 48(5), 662-678. https://doi.org/10.1093/scipol/scab013 ANVUR. (2023). Rapporto sul sistema della formazione superiore e della ricerca. ANVUR. Baccini, A. (2017a, 17 gennaio 2017). Tutto quello che avreste voluto sapere sul FFO premiale – Atto I. ROARS. https://www.roars.it/tutto-quello-che-avreste-voluto-sapere-sullffo-premiale-ma-non-avete-mai-osato-chiedere/ Baccini, A. (2017b, 17 gennaio 2017). Tutto quello che avreste voluto sapere sul FFO premiale – Atto II. ROARS. https://www.roars.it/tutto-quello-che-avreste-voluto-sapere-sullffo-premiale-atto-secondo/ Baccini, A., De Nicolao, G., & Petrovich, E. (2019). Citation gaming induced by bibliometric evaluation: A country-level comparative analysis. PLOS ONE, 14(9), e0221212. https://doi.org/10.1371/journal.pone.0221212 Baccini, A., & Petrovich, E. (2023). A global exploratory comparison of country self-citations 1996-2019. PLoS ONE, 18(12), e0294669. https://doi.org/10.1371/journal.pone.0294669 Banfi, A., & Viesti, G. (2015). Meriti e bisogni nel finanziamento del sistema universitario italiano (3). Fondazione RES. http://profgviesti.it/wp-content/uploads/2013/04/wp_RES_n_3_15_.pdf Barbati, C. (2019). Il sistema delle autonomie universitarie. Giappichelli. Battini, S. (2011). La nuova governance delle università. Rivista trimestrale di diritto pubblico, 2, 359-379. Bertini, I., Garattini, S., & Rappuoli, R. (2008). Italy must invest more in science and technology. Nature, 452(7188), 685-685. https://doi.org/10.1038/452685b Bertoli Barsotti, L. (2017). Le incongruenze dell’ISPD ei dipartimenti di eccellenza. ROARS-Return on Academic ReSearch. https://www.roars.it/le-incongruenze-dellispd-e-i-dipartimenti-di-eccellenza/ Bonaccorsi, A. (2017). La valutazione della ricerca produce effetti indesiderati? In A. Turco (Ed.), Culture della valutazione (pp. 27-48). Carocci. Breno, E., Fava, G. A., Guardabasso, V., & Stefanelli, M. (2002). La ricerca scientifica nelle università italiane. Una prima analisi delle citazioni della banca dati ISI. Breno, E., Fava, G. A., Guardabasso, V., & Stefanelli, M. (2005). Un aggiornamento sull’impatto della ricerca scientifica e tecnologica italiana in ambito internazionale (1981-2004). Analisi preliminare. Bruno, B. (2014, 24 febbraio 2014). Quanto è standardizzato il voto standardizzato? https://www.roars.it/quanto-e-standardizzato-il-voto-standardizzato/ Cabanac, G., Clausse, A., Jégou, L., & Maisonobe, M. (2023). The geography of retracted papers: Showcasing a crossref–dimensions–NETSCITY pipeline for the spatial analysis of bibliographic data. STI 2023: 27th International Conference on Science, Technology and Innovation Indicators, Carlucci, D., & Castaldo, A. (2009). Un paese di baroni. Chiarelettere. Daraio, C., & Moed, H. F. (2011). Is Italian science declining? Research Policy, 40(10), 1380-1392. https://doi.org/https://doi.org/10.1016/j.respol.2011.06.013 De Nicolao, G. (2014, 5 febbraio 2014). L’audace standardizzazione CRUI dei voti VQR: se la conosci, la eviti. https://www.roars.it/laudace-standardizzazione-crui-dei-voti-vqr-se-la-conosci-la-eviti/ De Nicolao, G. (2014). Voti VQR ai dipartimenti: le normalizzazioni fai-da-te di CRUI e ANVUR. www.roars.it. http://www.roars.it/online/voti-vqr-ai-dipartimenti-le-normalizzazioni-fai-da-te-di-crui-e-anvur/ De Nicolao, G. (2017, 15 maggio 2017). Volete scalare la classifica dei Dipartimenti eccellenti? Il trucco sta in un parallelogramma. https://www.roars.it/volete-scalare-la-classifica-dei-dipartimenti-eccellenti-il-trucco-sta-in-un-parallelogramma/ Department for Business, E. a. I. S. (2022). International comparison of the UK research base, 2022. London Dosi, G., & Sembenelli, A. (2007). La produzione scientifica degli economisti italiani: alcune evidenze e proposte normative Rivista Italiana degli Economisti(2), 259-266. Elsevier. (2017). International Comparative Performance of the UK Research Base 2016. Facchini, C., Fia, M., & Sacconi, L. (2018). La governance universitaria in Italia, tra mutamento legislativo e adattamento istituzionale. Teoria ed evidenze. Social Policies(3), 363-386. Fantoni, S. (2015). Il sistema di valutazione ANVUR. Scuola democratica, 6(3), 695-704. Gagliarducci, S., Ichino, A., Peri, G., & Perotti, R. (2005). Lo splendido isolamento dell’università italiana. In T. Boeri, R. Faini, A. Ichino, G. Pisauro, & C. Scarpa (Eds.), Oltre il Declino (pp. 151-207). Il Mulino. https://doi.org/10.978.8815/142368 Galli, F., & Greco, F. (2025). Ranking Departments based on research quality: a statistical evaluation of the ISPD indicator. Scientometrics, 130(2), 705-725. https://doi.org/10.1007/s11192-025-05240-2 Graziosi, A. (2010). L’università per tutti. Riforme e crisi del sistema universitario italiano. Il Mulino. Marco-Cuenca, G., Salvador-Oliván, J. A., & Arquero-Avilés, R. (2021). Fraud in scientific publications in the European Union. An analysis through their retractions. Scientometrics, 126(6), 5143-5164. https://doi.org/10.1007/s11192-021-03977-0 Marino, I. R. (2008). Acceptance of peer review will free Italy’s research slaves. Nature, 453(7194), 449-449. https://doi.org/10.1038/453449a Monti, A. (2007). Indagine sul declino dell’università italiana. Gangemi Perotti, R. (2008). L’università truccata. Einaudi. Regini, M. (2009). Malata e denigrata. L’Università italiana a confronto con l’Europa. Donzelli. http://www.unimi.it/img/news/Universita_malata_e_denigrata.pdf Rubele, R. (2012a, 8 marzo 2012). Appunti per una storia dell’ANVUR (I). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2012b, 21 marzo 2012). Appunti per una storia dell’ANVUR (II). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2012c, 28 maggio 2012). Appunti per una storia dell’ANVUR (III). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2015, 11 settembre 2015). Appunti per una storia dell’ANVUR (IV). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Scarpa, F., Bianco, V., & Tagliafico, L. A. J. S. (2018). The impact of the national assessment exercises on self-citation rate and publication venue: an empirical investigation on the engineering academic sector in Italy [journal article]. https://doi.org/10.1007/s11192-018-2913-5 Seeber, M., Cattaneo, M., Meoli, M., & Malighetti, P. (2017). Self-citations as strategic response to the use of metrics for career decisions. Research Policy. https://doi.org/https://doi.org/10.1016/j.respol.2017.12.004 Simone, R. (2000). L’università dei tre tradimenti (Seconda Edizione ed.). Laterza. Vercelli, S., Pellicciari, L., Croci, A., Cornaggia, C. M., Cecchi, F., & Piscitelli, D. (2022). Self-citation behavior within the health allied professions’ scientific sector in Italy: a bibliometric analysis. Scientometrics. https://doi.org/10.1007/s11192-022-04599-w Viesti, G. (Ed.). (2016). Università in declino. Un’indagine sugli atenei da Nord a Sud. Donzelli.
March 19, 2026
ROARS
Cosa resta dell’Università italiana dopo un quindicennio di riforme?
A quindici anni dalla riforma Gelmini, il divario tra retorica e realtà appare evidente. Presentata come una “svolta meritocratica” per un sistema inefficiente, ha in realtà ridisegnato l’università italiana attorno a logiche burocratiche e indicatori quantitativi gestiti da ANVUR, senza affrontare il nodo cruciale del sottofinanziamento. I dati disponibili raccontano gli effetti della riforma: compressione selettiva e cumulativa del finanziamento, precarizzazione del personale universitario, conformismo accademico e comportamenti opportunistici indotti dalla valutazione. (Pubblichiamo in due parti l’articolo “Cosa resta dell’Università italiana dopo un quindicennio di riforme?”, uscito sul numero monografico de Il Ponte (1/2026) dedicato all’Università.) Sono ormai passati quindici anni dall’approvazione della legge 240/2010, nota come “riforma Gelmini”, che ha segnato una profonda trasformazione del sistema universitario italiano. Presentata come una risposta necessaria all’inefficienza e alla presunta bassa produttività del sistema accademico, la riforma ha introdotto una nuova architettura istituzionale, ridefinendo le regole del reclutamento accademico, i criteri per la valutazione della ricerca e le modalità di allocazione delle risorse. Ispirata a un modello di governance di tipo manageriale, in linea con le tendenze internazionali dei cosiddetti sistemi di “audit society” e di “governance by indicators”, è centrata su un sistema di valutazione amministrativa della performance scientifica che fa leva su indicatori bibliometrici e classificazioni di riviste. A distanza di oltre un decennio, è possibile iniziare a tracciare un bilancio basato su un corpo crescente di dati empirici e analisi comparative. Nella narrazione ufficiale, nel 2010, il sistema universitario italiano sarebbe stato caratterizzato da stagnazione scientifica, inefficienza gestionale e assenza di meritocrazia. La riforma avrebbe garantito maggiore trasparenza e “meritocrazia” e, in generale, il miglioramento della qualità scientifica. In realtà, prima della riforma la produttività scientifica italiana era pienamente comparabile, se non superiore, a quella di altri paesi del G10. La criticità principale risiedeva nella carenza cronica di finanziamenti, che nella storia ufficiale sono ricordati solo di sfuggita. Molti lavori recenti richiamano l’attenzione sugli effetti collaterali apertamente controproducenti della riforma: la precarizzazione strutturale del personale di ricerca in ingresso nel mondo universitario, fenomeni di crescente autoreferenzialità nella produzione scientifica, l’emergere di comportamenti opportunistici finalizzati al miglioramento artificiale degli indicatori individuali. Questo articolo si propone di contribuire al dibattito sul post-riforma, offrendo una ricostruzione critica degli effetti della legge 240/2010 sul sistema universitario italiano. LA PREPARAZIONE.  La riforma Gelmini fu preceduta da una campagna mediatica che preparò il terreno per la sua accettazione. La discussione pubblica che si avviò a partire dal 2005 vide la convergenza di tutte le forze politiche nel dipingere l’università italiana come ostaggio di una corporazione di baroni a difesa di professori privilegiati. Nel 2006, Fabio Mussi (Partito Democratico della Sinistra), ministro dell’Università e della Ricerca del governo di centro-sinistra guidato da Romano Prodi, dichiarò in un’intervista che “l’università è un bordello” (QN, 20/09/2006), annunciando prossimi provvedimenti per modificare la governance delle università e introdurre la “valutazione del merito.” Due anni dopo, su Il Tempo, il presidente del Consiglio Silvio Berlusconi criticò i privilegi e gli sprechi, affermando: “basta baroni all’università” (06/11/2008). La discussione pubblica era influenzata da libri dedicati agli scandali nei concorsi (Carlucci & Castaldo, 2009). Invariabilmente l’università italiana era dipinta in termini negativi: “università dei tre tradimenti” (Simone, 2000), “malata e denigrata” (Regini, 2009), “truccata” (Perotti, 2008), “in declino” (Monti, 2007), “irriformabile” (Gagliarducci et al., 2005). L’argomento centrale era riassunto efficacemente da Perotti  (2008): “l’università italiana non ha un ruolo significativo nel panorama della ricerca mondiale”. Non erano solo gli economisti mainstream a sostenere queste posizioni. Anche Dosi e Sembenelli  (2007) puntavano il dito contro “l’inefficiente […] sistema di incentivazione attualmente in vigore che non premia la ricerca e chi fa la ricerca in modo adeguato”. Il libro di Andrea Graziosi L’università per tutti sintetizzava perfettamente lo stato della discussione dell’epoca, adottando in maniera acritica il linguaggio retorico e ideologico dei “riformatori” (Graziosi, 2010). L’evidenza più ricorrente per mostrare l’inadeguatezza del sistema della ricerca italiano era l’insoddisfacente posizionamento delle università italiane nelle classifiche mondiali; già dal 2002 la Conferenza dei Rettori delle Università Italiane (CRUI), guidata da Luciano Modica, rettore dell’Università di Pisa, sosteneva, sulla base di dati bibliometrici costruiti ad hoc, che, in termini di impatto citazionale, l’Italia “si trova in evidente difficoltà e rischia di perdere ulteriori posizioni” (Breno et al., 2002, p. 20; 2005). Nel 2008 anche Assolombarda creò un indicatore bibliometrico ad hoc, il numero di pubblicazioni per abitante, che permetteva di abbassare significativamente il posizionamento dell’Italia nelle classifiche di produzione. Non solo, citando le indagini CRUI, concludeva, che “l’apporto alla ricerca […] dell’Italia è ritenuto meno autorevole rispetto ai paesi del Nord Europa” (ASSOLOMBARDA 2008). Alcune voci sostenevano che il problema principale fosse la mancanza di finanziamenti adeguati (Bertini et al., 2008), poiché l’Italia era agli ultimi posti tra i paesi OCSE per finanziamenti complessivi alle università. A chi chiedeva più fondi, si rispondeva con la metafora del “secchio bucato”: era inutile aumentare i finanziamenti a un sistema universitario inefficiente e corrotto. Per esempio, Ignazio Marino, all’epoca senatore del Partito Democratico, scrisse in una lettera a Nature che la soluzione non era aumentare i fondi, ma “riformare i criteri per la distribuzione dei finanziamenti” introducendo elementi di “meritocrazia” (Marino, 2008). Perotti riuscì addirittura a sostenere che l’università italiana non era sottofinanziata, e che anzi era uno dei paesi con la spesa per studente più elevata. Per ottenere questo risultato prese i dati OECD della spesa universitaria già normalizzati per studente equivalente a tempo pieno e li normalizzò per studente equivalente a tempo pieno una seconda volta, ottenendo così il risultato desiderato (Perotti, 2008, Tab. 1). La discussione sui media non si placò con l’approvazione della Gelmini, ma accompagnò il lungo percorso dei decreti attuativi negli anni 2011-2012.  L’indicatore di Assolombarda fu adottato dalla Fondazione Treelle, una delle voci al tempo più ascoltate dai decisori politici, in un rapporto dal titolo I numeri da cambiare che contibuì a diffondere l’idea che l’università italiana fosse in declino. Nel giugno 2011 Research Policy pubblicò, dopo una procedura di peer-review durata due giorni,  un articolo firmato da Henk F. Moed e Cinzia Daraio sul declino della scienza italiana (Daraio & Moed, 2011). L’articolo venne rilanciato da Corrado Zunino su La Repubblica del 22 agosto 2011 con il titolo “La ricerca italiana perde pezzi. Italia maglia nera in Europa”. Peccato che i dati del declino fossero un artefatto statistico dovuto al ben noto fenomeno del ritardo nell’aggiornamento dei database bibliografici (per una ricostruzione giornalistica si veda: https://ilmanifesto.it/archivio/2003186455). LA RIFORMA GELMINI (L.240/2010) E I PROVVEDIMENTI SUCCESSIVI È in questo contesto che furono approvate la riforma Gelmini (L. 240/2010) ed i decreti attuativi. L’una e gli altri poterono avvalersi di alcuni strumenti di attuazione che erano stati predisposti dai governi precedenti, con interventi che indicano un orientamento politico sostanzialmente condiviso in materia di governance e organizzazione del sistema universitario, al di là delle alternanze tra le diverse maggioranze di governo. Il primo strumento già disponibile per l’uso era la Legge 4 novembre 2005, n. 230, promossa dal Ministro Letizia Moratti nell’ambito del secondo governo Berlusconi. Essa sancì l’avvio del processo di esaurimento del ruolo dei ricercatori universitari a tempo indeterminato e istituì una nuova figura di ricercatore a tempo determinato – i cosiddetti ricercatori Moratti –, segnando una discontinuità significativa nell’impianto tradizionale della carriera accademica e avviando una nuova configurazione dei percorsi professionali nell’università. Il secondo intervento fu rappresentato dall’istituzione dell’Agenzia Nazionale di Valutazione del sistema Universitario e della Ricerca (ANVUR), voluta dal Ministro Fabio Mussi, sottosegretario Luciano Modica, nel corso del secondo governo Prodi, nel 2006. Sebbene istituita in tale frangente, l’Agenzia divenne pienamente operativa soltanto nel giugno 2010, sotto la guida della Ministra Gelmini, configurandosi come il principale organismo deputato alla valutazione delle attività didattiche e di ricerca del sistema universitario italiano. La complicata genesi dell’agenzia è ricostruita da Renzo Rubele (Rubele, 2012a, 2012b, 2012c, 2015). Il terzo provvedimento di rilievo fu il Decreto Legge del 10 novembre 2008, che introdusse, per la prima volta nell’ordinamento nazionale, la cosiddetta “quota premiale” all’interno del Fondo di Finanziamento Ordinario (FFO). Tale dispositivo legislativo inaugurò un modello di finanziamento in cui l’allocazione delle risorse pubbliche veniva subordinata ai risultati conseguiti in ambito scientifico e organizzativo. Si trattava del primo intervento normativo che in Italia introduceva il principio del finanziamento legato ai risultati (performance-based funding). È significativo rilevare, infine, che questa misura, pur approvata da un governo a guida centrodestra, corrispondeva a uno dei punti qualificanti del programma elettorale del Partito Democratico, allora guidato da Walter Veltroni, in occasione delle elezioni politiche del 2008, successivamente vinte dalla coalizione di Silvio Berlusconi. Ed è altrettanto significativo che quel provvedimento introducesse anche la misura per cui gli scatti stipendiali dei docenti universitari, fino a quel momento legati all’anzianità di servizio,  fossero subordinati alla valutazione della loro produzione scientifica e performance didattica (con criteri stabiliti dalle università). La Riforma Gelmini (Legge 240/2010) si fonda su alcuni assi portanti che hanno profondamente trasformato il sistema universitario italiano, tanto nella sua struttura interna quanto nei meccanismi di finanziamento e valutazione. Il primo elemento è una significativa modifica della governance degli atenei, che ha comportato un rafforzamento del ruolo del Rettore, dei Consigli di amministrazione e del Direttore Generale, a discapito degli organi collegiali tradizionali, come i Senati accademici (Battini, 2011; Facchini et al., 2018). Il secondo elemento caratterizzante è il rafforzamento della quota premiale del Fondo di Finanziamento Ordinario (FFO). Con l’introduzione della quota premiale, una parte del FFO — il principale canale di finanziamento pubblico ordinario per le università italiane — viene progressivamente sottratta alla logica distributiva storica (basata su criteri come la dimensione o l’offerta formativa) per essere invece allocata in base a criteri di performance, in particolare nella ricerca scientifica e, in misura minore, nella didattica. Si afferma così un principio di concorrenza tra atenei, chiamati a competere per ottenere una fetta crescente del finanziamento disponibile. Banfi e Viesti (2015) hanno ricostruito in dettaglio l’evoluzione dei meccanismi di finanziamento. Nel corso degli anni, la parte premiale è salita dal 7% al 30%.  Buona parte di essa viene distribuita agli atenei sulla base dei risultati degli esercizi periodici di valutazione massiva della ricerca condotti da ANVUR. Gli esercizi VQR (Valutazione della Qualità della Ricerca), condotti a cadenza periodica, permettono, nelle intenzioni del legislatore, di avere una “fotografia” dello stato di salute dell’università italiana, prodotta con l’uso di indicatori bibliometrici “oggettivi” calcolati da ANVUR. La competizione per aggiudicarsi quote crescenti di finanziamento spingerebbe gli atenei a migliorare quantità e qualità della ricerca prodotta. Accogliendo in pieno questa logica, il governo guidato da Matteo Renzi, ministra del MIUR Valeria Fedeli, intervenne con la Legge n. 232 dell’11 dicembre 2016, rafforzando il maccanismo di finanziamento basato sui risultati con la creazione della “gara” per i dipartimenti di eccellenza. A partire dai dati della VQR, un algoritmo selezionò i 350 migliori dipartimenti d’Italia che furono chiamati a scrivere un progetto di sviluppo. Sulla base dei risultati dell’algoritmo e di un giudizio sul progetto di sviluppo da parte di una commissione di nomina ministeriale, vennero selezionati i migliori 180 dipartimenti che si divisero una fetta consistente di finanziamento pari a € 1,3 miliardi per 5 anni. Nel 2022 si svolse la seconda edizione della “gara”. E sempre in questa logica, con la stessa legge che istituiva i dipartimenti di eccellenza, sì definì un “Fondo di finanziamento della attività di ricerca di base” rivolto ai ricercatori e ai professori associati, che prevedeva l’assegnazione individuale di 3.000€ ai migliori 15.000, classificati sulla base di un indicatore di produzione scientifica calcolato da ANVUR. Il terzo pilastro della Riforma Gelmini riguarda una profonda trasformazione delle modalità di reclutamento e progressione di carriera dei professori universitari. L’intervento legislativo introdusse l’Abilitazione Scientifica Nazionale (ASN), concepita come un “filtro oggettivo” per verificare la qualificazione scientifica dei candidati. In questo nuovo sistema, non è più sufficiente godere dell’appoggio del proprio “maestro” o della fedeltà a una rete accademica consolidata: la valutazione si basa su criteri quantificabili e standardizzati, che mirano a garantire maggiore trasparenza e meritocrazia.  Può aspirare all’abilitazione, infatti, solo chi supera determinate soglie bibliometriche – ovvero indicatori numerici relativi alla produttività e all’impatto scientifico – che sono fissate dall’ANVUR. Queste soglie variano a seconda del settore concorsuale di appartenenza e sono calcolate sulla base di algoritmi e dati bibliometrici ritenuti “oggettivi”. L’abilitazione viene decisa da una commissione sorteggiata tra studiosi del settore che abbiano fatto domanda per diventarne membri e che rispettino, anche loro, soglie bibliometriche calcolate da ANVUR. L’ottenimento dell’abilitazione non garantisce automaticamente l’accesso al ruolo di professore: gli abilitati dovranno vincere un concorso pubblico bandito dai singoli atenei. La stessa regola vale per la progressione di carriera: per passare da professore associato a professore ordinario, non è sufficiente possedere l’abilitazione; anche in questo caso, è necessario superare una selezione a livello locale. Nel frattempo, i giovani ricercatori che aspirano a una carriera accademica sono chiamati a intraprendere un lungo percorso segnato da condizioni di precarietà. Le tipologie di contratti utilizzate comprendono l’assegno di ricerca, generalmente di durata annuale e rinnovabile; il ruolo di ricercatore a tempo determinato di tipo A (RTD-A), con contratti triennali prorogabili per due anni; e infine il ricercatore di tipo B (RTD-B), per il quale è previsto, dopo tre anni e previo conseguimento dell’abilitazione, il possibile accesso al ruolo a tempo indeterminato come professore associato. La legge 79/2022 ha rivisto le figure pre-ruolo, RTDa e RTDb, sostituendole con il contratto di ricerca e la figura del ricercatore in Tenure Track (RTT). Provvedimenti successivi hanno prorogato fino al 31/12/2024 le previgenti figure, e come vedremo, le risorse del Piano di Ripresa e Resilienza, sono state utilizzate per l’assunzione di assegnisti e RTDa. L’ANVUR occupa una posizione centrale nel nuovo assetto disegnato dalla Legge Gelmini, costituendo lo strumento fondamentale per l’attuazione del “paradigma meritocratico” promosso dalla riforma. La configurazione dell’agenzia non si discosta in modo sostanziale da quella delineata pochi anni prima sotto il Ministero Mussi. Si tratta di un ente autonomo definito come “indipendente”, ma fortemente legato al potere esecutivo nelle modalità di nomina e funzionamento. L’ANVUR è infatti governata da un Consiglio Direttivo composto da sette membri, nominati con decreto ministeriale, al termine di una procedura di selezione che prevede una marcata supervisione da parte del Ministero dell’Università e della Ricerca. Questa architettura istituzionale solleva interrogativi sulla reale autonomia dell’Agenzia, soprattutto in relazione alla sensibilità politica di alcune delle sue funzioni. Le competenze affidate all’ANVUR sono decisive sia per la distribuzione delle risorse che per il reclutamento e si sono progressivamente ampliate nel corso del tempo: ANVUR si occupa non solo della valutazione della ricerca scientifica, ma anche della valutazione della didattica, della qualità dei percorsi formativi universitari, della definizione dei criteri per l’accreditamento dei corsi di studio, e, come abbiamo visto, della determinazione delle soglie quantitative dell’ASN. In altre parole, l’ANVUR non solo valuta la qualità del sistema universitario, ma contribuisce anche a definirne gli standard di funzionamento per ricerca, didattica, reclutamento e progressione di carriera. I risultati degli esercizi di valutazione realizzati da ANVUR sono la base, come abbiamo detto,  per il finanziamento delle università. In altre parole, una parte significativa dei fondi pubblici destinati alle università viene assegnata sulla base delle performance misurate secondo i criteri stabiliti da ANVUR. Nel 2011, l’Agenzia ha condotto il primo esercizio nazionale di Valutazione della Qualità della Ricerca (VQR), relativo al periodo 2004–2010. A questo primo esercizio sono seguiti altri tre cicli: nel 2015 (per il periodo 2011–2014), nel 2019 (per il periodo 2015–2019) e nel 2025 (per il periodo 2020-2024). Questi esercizi si ispirano formalmente al modello inglese del Research Excellence Framework (REF), ma se ne distaccano significativamente nell’impostazione metodologica. In particolare, gli indicatori quantitativi (come il numero di pubblicazioni, le citazioni, l’impact factor delle riviste, i ranking di riviste) assumono un ruolo centrale, spesso prevalente rispetto alla valutazione qualitativa da parte dei pari. GLI EFFETTI DELLA RIFORMA A distanza di quindici anni dalla Riforma Gelmini, è possibile tracciare un bilancio sintetico dell’evoluzione di alcune variabili chiave che definiscono il funzionamento del sistema universitario italiano. Tre espressioni possono riassumere in modo efficace le principali tendenze emerse: compressione selettiva e cumulativa dei finanziamenti, precarizzazione crescente del personale docente, e valutazione amministrativa pervasiva e sistemica. Continua. RIFERIMENTI BIBLIOGRAFICI Akbaritabar, A., Bravo, G., & Squazzoni, F. (2021). The impact of a national research assessment on the publications of sociologists in Italy. Science and Public Policy, 48(5), 662-678. https://doi.org/10.1093/scipol/scab013 ANVUR. (2023). Rapporto sul sistema della formazione superiore e della ricerca. ANVUR. Baccini, A. (2017a, 17 gennaio 2017). Tutto quello che avreste voluto sapere sul FFO premiale – Atto I. ROARS. https://www.roars.it/tutto-quello-che-avreste-voluto-sapere-sullffo-premiale-ma-non-avete-mai-osato-chiedere/ Baccini, A. (2017b, 17 gennaio 2017). Tutto quello che avreste voluto sapere sul FFO premiale – Atto II. ROARS. https://www.roars.it/tutto-quello-che-avreste-voluto-sapere-sullffo-premiale-atto-secondo/ Baccini, A., De Nicolao, G., & Petrovich, E. (2019). Citation gaming induced by bibliometric evaluation: A country-level comparative analysis. PLOS ONE, 14(9), e0221212. https://doi.org/10.1371/journal.pone.0221212 Baccini, A., & Petrovich, E. (2023). A global exploratory comparison of country self-citations 1996-2019. PLoS ONE, 18(12), e0294669. https://doi.org/10.1371/journal.pone.0294669 Banfi, A., & Viesti, G. (2015). Meriti e bisogni nel finanziamento del sistema universitario italiano (3). Fondazione RES. http://profgviesti.it/wp-content/uploads/2013/04/wp_RES_n_3_15_.pdf Barbati, C. (2019). Il sistema delle autonomie universitarie. Giappichelli. Battini, S. (2011). La nuova governance delle università. Rivista trimestrale di diritto pubblico, 2, 359-379. Bertini, I., Garattini, S., & Rappuoli, R. (2008). Italy must invest more in science and technology. Nature, 452(7188), 685-685. https://doi.org/10.1038/452685b Bertoli Barsotti, L. (2017). Le incongruenze dell’ISPD ei dipartimenti di eccellenza. ROARS-Return on Academic ReSearch. https://www.roars.it/le-incongruenze-dellispd-e-i-dipartimenti-di-eccellenza/ Bonaccorsi, A. (2017). La valutazione della ricerca produce effetti indesiderati? In A. Turco (Ed.), Culture della valutazione (pp. 27-48). Carocci. Breno, E., Fava, G. A., Guardabasso, V., & Stefanelli, M. (2002). La ricerca scientifica nelle università italiane. Una prima analisi delle citazioni della banca dati ISI. Breno, E., Fava, G. A., Guardabasso, V., & Stefanelli, M. (2005). Un aggiornamento sull’impatto della ricerca scientifica e tecnologica italiana in ambito internazionale (1981-2004). Analisi preliminare. Bruno, B. (2014, 24 febbraio 2014). Quanto è standardizzato il voto standardizzato? https://www.roars.it/quanto-e-standardizzato-il-voto-standardizzato/ Cabanac, G., Clausse, A., Jégou, L., & Maisonobe, M. (2023). The geography of retracted papers: Showcasing a crossref–dimensions–NETSCITY pipeline for the spatial analysis of bibliographic data. STI 2023: 27th International Conference on Science, Technology and Innovation Indicators, Carlucci, D., & Castaldo, A. (2009). Un paese di baroni. Chiarelettere. Daraio, C., & Moed, H. F. (2011). Is Italian science declining? Research Policy, 40(10), 1380-1392. https://doi.org/https://doi.org/10.1016/j.respol.2011.06.013 De Nicolao, G. (2014, 5 febbraio 2014). L’audace standardizzazione CRUI dei voti VQR: se la conosci, la eviti. https://www.roars.it/laudace-standardizzazione-crui-dei-voti-vqr-se-la-conosci-la-eviti/ De Nicolao, G. (2014). Voti VQR ai dipartimenti: le normalizzazioni fai-da-te di CRUI e ANVUR. www.roars.it. http://www.roars.it/online/voti-vqr-ai-dipartimenti-le-normalizzazioni-fai-da-te-di-crui-e-anvur/ De Nicolao, G. (2017, 15 maggio 2017). Volete scalare la classifica dei Dipartimenti eccellenti? Il trucco sta in un parallelogramma. https://www.roars.it/volete-scalare-la-classifica-dei-dipartimenti-eccellenti-il-trucco-sta-in-un-parallelogramma/ Department for Business, E. a. I. S. (2022). International comparison of the UK research base, 2022. London Dosi, G., & Sembenelli, A. (2007). La produzione scientifica degli economisti italiani: alcune evidenze e proposte normative Rivista Italiana degli Economisti(2), 259-266. Elsevier. (2017). International Comparative Performance of the UK Research Base 2016. Facchini, C., Fia, M., & Sacconi, L. (2018). La governance universitaria in Italia, tra mutamento legislativo e adattamento istituzionale. Teoria ed evidenze. Social Policies(3), 363-386. Fantoni, S. (2015). Il sistema di valutazione ANVUR. Scuola democratica, 6(3), 695-704. Gagliarducci, S., Ichino, A., Peri, G., & Perotti, R. (2005). Lo splendido isolamento dell’università italiana. In T. Boeri, R. Faini, A. Ichino, G. Pisauro, & C. Scarpa (Eds.), Oltre il Declino (pp. 151-207). Il Mulino. https://doi.org/10.978.8815/142368 Galli, F., & Greco, F. (2025). Ranking Departments based on research quality: a statistical evaluation of the ISPD indicator. Scientometrics, 130(2), 705-725. https://doi.org/10.1007/s11192-025-05240-2 Graziosi, A. (2010). L’università per tutti. Riforme e crisi del sistema universitario italiano. Il Mulino. Marco-Cuenca, G., Salvador-Oliván, J. A., & Arquero-Avilés, R. (2021). Fraud in scientific publications in the European Union. An analysis through their retractions. Scientometrics, 126(6), 5143-5164. https://doi.org/10.1007/s11192-021-03977-0 Marino, I. R. (2008). Acceptance of peer review will free Italy’s research slaves. Nature, 453(7194), 449-449. https://doi.org/10.1038/453449a Monti, A. (2007). Indagine sul declino dell’università italiana. Gangemi Perotti, R. (2008). L’università truccata. Einaudi. Regini, M. (2009). Malata e denigrata. L’Università italiana a confronto con l’Europa. Donzelli. http://www.unimi.it/img/news/Universita_malata_e_denigrata.pdf Rubele, R. (2012a, 8 marzo 2012). Appunti per una storia dell’ANVUR (I). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2012b, 21 marzo 2012). Appunti per una storia dell’ANVUR (II). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2012c, 28 maggio 2012). Appunti per una storia dell’ANVUR (III). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2015, 11 settembre 2015). Appunti per una storia dell’ANVUR (IV). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Scarpa, F., Bianco, V., & Tagliafico, L. A. J. S. (2018). The impact of the national assessment exercises on self-citation rate and publication venue: an empirical investigation on the engineering academic sector in Italy [journal article]. https://doi.org/10.1007/s11192-018-2913-5 Seeber, M., Cattaneo, M., Meoli, M., & Malighetti, P. (2017). Self-citations as strategic response to the use of metrics for career decisions. Research Policy. https://doi.org/https://doi.org/10.1016/j.respol.2017.12.004 Simone, R. (2000). L’università dei tre tradimenti (Seconda Edizione ed.). Laterza. Vercelli, S., Pellicciari, L., Croci, A., Cornaggia, C. M., Cecchi, F., & Piscitelli, D. (2022). Self-citation behavior within the health allied professions’ scientific sector in Italy: a bibliometric analysis. Scientometrics. https://doi.org/10.1007/s11192-022-04599-w Viesti, G. (Ed.). (2016). Università in declino. Un’indagine sugli atenei da Nord a Sud. Donzelli.
March 17, 2026
ROARS
Anvur, reclutamento, università: l’epifania della valutazione di stato
Lo stato si appresta a rafforzare i poteri, già non poco oppressivi, del ministero dell’università e della ricerca, dell’Anvur che gli è sottomesso e delle gerarchie accademiche locali. Contro questo disegno FLC-CGIL si è appellata alle “forze libere e pensanti dell’accademia e della comunità universitaria”. In effetti, se, dopo lustri di valutazione di stato, esistessero ancora “forze libere e pensanti”, non sarebbe loro difficile promuovere una campagna di ubbidienza civile alla costituzione, a partire dagli articoli 21 e 33. In un momento in cui dovremmo invece parlare, davanti agli stati armati per la guerra, delle condizioni della pace pubblica, continuare a compilare moduli e a supplicare favori ministeriali ci salverà, forse, come impiegati, ma certamente non come studiosi. Questo post è apparso originariamente sul sito dell’Associazione italiana per la promozione della scienza aperta il 5 gennaio 2026. ANDU, FLC-CGIL, Roars, nonché la Rete delle Società Scientifiche, hanno espresso allarme o almeno preoccupazione per i doni che lo stato si appresta a regalare alla ricerca italiana. Questi doni, che rafforzeranno i poteri, già non poco oppressivi, del ministero dell’università e della ricerca, dell’Anvur che gli è sottomesso e delle gerarchie accademiche locali, consistono: 1. in una riforma del reclutamento, già approvata in senato, che rende i concorsi interamente locali, ma sotto il controllo dell’Anvur sia in ingresso sia in uscita; 2. in una riforma dell’Anvur, per via regolamentare e non legislativa, volta ad accentuarne ulteriormente la subordinazione al ministero; 3. in una riforma dell’amministrazione delle università, per via legislativa, che accentuerebbe il dispotismo locale dei rettori e la loro sudditanza al governo nazionale. La scienza italiana, che nell’età moderna si fondò e perseguì la libertà dell’uso pubblico della ragione e l’emancipazione dal segreto, si trova ora a misurarsi con tre poteri che hanno solo accidentalmente a che vedere con la ricerca della verità: quello, locale, di colleghi e rettori, quello, centralizzato, dell’agenzia sedicente indipendente per la valutazione di stato, la quale attribuisce la quota cosiddetta “premiale” del finanziamento ordinario, e quello del governo a cui essa stessa è sottoposta fin dalla sua istituzione. Promuovendo la scienza aperta come scienza libera e non come costoso adempimento burocratico, abbiamo sostenuto che la valutazione amministrativa della ricerca, in Italia centralizzata in forma di valutazione di stato, è intrinsecamente dispotica e retrograda: dispotica perché sostituisce alla libera discussione entro le comunità scientifiche una statuizione di un’autorità esterna e non scientifica, in quanto derivante da una gerarchia amministrativa; retrograda perché impone indicatori costruiti sul passato che disconoscono non solo la riflessività dell’azione sociale,1 ma anche la natura aperta della ricerca. A questo dispositivo, che Mario Ricciardi descrisse precocemente come un “apparato burocratico di tipo sovietico”, i professori italiani si sono – sostanzialmente – piegati. Fra gli effetti della sottomissione c’è stato il blocco di un’evoluzione verso una scienza aperta nel senso di libera da oligopoli editoriali privati e liste di riviste “scientifiche” ed “eccellenti” di composizione amministrativa. Accettarla, ai più, è parsa una scelta prudente: si tratta però di capire se è stata anche una scelta sapiente. 1. LA METAMORFOSI DEL “CRETINO LOCALE” Pietro Rossi, in un fortunato articolo, criticò i concorsi introdotti nel 1998, in cogestione fra “facoltà e corporazione disciplinare”. Secondo Rossi, in un sistema in cui la sede che fa il favore di bandire una valutazione comparativa può barattare la vittoria del proprio candidato interno con le idoneità di candidati esterni supplementari che trovano cattedra a casa loro, l’ascesa del “cretino locale”, entro comunità di disciplina sempre più frammentate e chiuse, non può che essere irresistibile. Il disegno di legge approvato in senato abolisce l’Abilitazione Scientifica Nazionale a favore di concorsi esclusivamente locali con vincitori unici, accessibili tramite un’autocertificazione della soddisfazione di criteri stabiliti con decreto ministeriale su proposta dell’Anvur, sentito il CUN, i quali comprenderanno “indicatori minimi di quantità, continuità e distribuzione temporale dei prodotti della ricerca”. I commissari dovranno godere dei medesimi requisiti. Dopo tre anni i vincitori verranno valutati dall’Anvur, con eventuali conseguenze sanzionatorie in termini di finanziamento istituzionale. Si tornerà dunque al “cretino locale”, o, come scrive più gentilmente Roberta Calvano, a un sistema in cui “il nepotismo e gli abusi sono stati per anni alla radice di un diffuso malcostume accademico”? No: in virtù dell’Anvur e del ministero, questa volta il “cretino”, selezionato tramite valutazione amministrativa in ingresso e in uscita e giudicato da commissari simili a lui, sarà probabilmente bibliometrico, sicuramente governativo, e giocoforza sottomesso ai colleghi disposti a usare il loro potere di ricatto – qualità, queste, che con la scienza libera hanno ben poco a che vedere. 2. L’AUTOAFFERMAZIONE DELL’UNIVERSITÀ ITALIANA “Noi vogliamo noi stessi” proclamava un rettore a Friburgo, perorando l’autoaffermazione dell’università. Correva l’anno 1933: Martin Heidegger diceva “noi”, ma era entrato in carica su pressione del governo nazista, dopo che il suo predecessore, riluttante a licenziare gli ebrei, era stato indotto alle dimissioni. Tra poco, forse, anche i rettori italiani, pur più sottilmente e con qualche sbavatura normativa, potranno dire “noi” al modo di Heidegger: 1. la composizione, legalmente determinata, del consiglio di amministrazione consentirà loro di contare su una maggioranza certa purché ubbidiscano al governo. Eliminato il rappresentante del personale tecnico-amministrativo, degli 11 membri del consiglio uno sarà il rettore stesso, quattro saranno nominati direttamente da lui (due docenti e due componenti esterni); a questi si aggiungerà uno studente eletto, come residuo vestigiale di democrazia, due docenti indicati dal senato, il candidato rettore soccombente e un membro nominato dal governo. Al rettore basterà restare agli ordini di quest’ultimo – esercizio che, probabilmente, non gli sarà difficile – per avere una maggioranza garantita;2 2. il mandato del rettore sarà prolungato da sei a otto anni, con un eventuale plebiscito di conferma dopo quattro anni, qualora proposto dai 3/5 del senato accademico. A proposito del mandato, dall’ipotetico testo di riforma cadono le parole “non rinnovabile”; 3. nella programmazione triennale il rettore dovrà tener conto anche di “linee generali di indirizzo stabilite dal Ministro”. I rettori preferiranno continuare a regnare all’inferno o proveranno a servire in paradiso? Non si sa: ma certamente con “rettori che agiscono sotto l’occhiuta vigilanza del ministro e da cui dipenderanno a catena tutte le cariche interne agli atenei (i cui mandati vengono allineati alla durata di quello dei rettori)” l’esercizio della libertà della ricerca, sia in senso negativo sia in senso positivo, sarà ancor più difficile, e rischioso. 3. L’EPIFANIA DELL’ANVUR Come ha osservato Roberto Caso, l’Anvur, istituita nel 2006 sotto il governo Prodi II, è nata così dipendente da aver ricevuto critiche perfino da una sostenitrice della valutazione amministrativa come Fiorella Kostoris. Il regolamento di riforma – che viola, secondo il Consiglio di Stato, la gerarchia delle fonti3 – renderebbe più intenso un controllo del governo sulla ricerca già in atto, al quale i più, a dispetto del primo comma dell’articolo 33 della costituzione italiana, hanno ritenuto opportuno sottomettersi. 1. L’Anvur sarà ancor più ministeriale e dipendente: rispetto al regime attuale, il presidente dell’Anvur diverrebbe di nomina ministeriale diretta, così come i comitati di selezione delle rose dei candidati fra i quali il ministro sceglierà i quattro membri del consiglio direttivo, non più costituiti su indicazione di enti esterni. 2. L’Anvur diverrà la valutatrice generale di stato: l’agenzia, che attualmente valuta solo università ed enti di ricerca vigilati dal MUR (quali CNR, INAF, INDIRE, INFN, INGV, INVALSI), allungherà il suo occhio agli altri enti di ricerca pubblici (ASI, CREA, ENEA, ISPRA, ISS, ISTAT) in base ad accordi con i ministeri vigilanti, alle Accademie e all’Alta Formazione Artistica e Musicale (AFAM) a enti privati ma finanziati pubblicamente (IIT di Genova, HT di Milano e Fondazione Biotecnopolo di Siena) e simili, nonché, per chi mai volesse richiederlo, in ambito internazionale. E non si occuperà solo di arte, musica e ricerca bensì anche delle cosiddette “competenze trasversali e disciplinari” acquisite dagli studenti e degli “sbocchi occupazionali dei laureati”. Tutto ciò, chiarisce la relazione di accompagnamento, nel “rispetto dell’indirizzo politico dato dal Ministero dell’università e della ricerca, quale Ministero vigilante”. Il modello dell’università-azienda – si è detto – è neoliberale; quello nei disegni del governo è autoritario. Qui però il “liberale” che segue al “neo-” non ha nulla a che vedere con Benedetto Croce: l’azienda è una struttura non democratica, bensì autoritaria e chi la impone come modello sostiene un’ideologia altrettanto autoritaria, se non totalitaria. In questo senso, il disegno di “riforma” dell’Anvur non è una metamorfosi, bensì un’epifania. Non esiste una valutazione amministrativa buona o cattiva, così come non esiste un dispotismo cattivo o buono a seconda che sul trono sieda Commodo oppure Marco Aurelio. Se si accetta che la valutazione della ricerca non sia scientifica – e parte della ricerca stessa – bensì amministrativa e a essa esterna, si accetta anche che chi amministra ne fissi e ne muti i criteri e abbia titolo a controllare i suoi eventuali agenti in modo più o meno stretto. Il vizio della valutazione di stato non sta nel modo in cui valuta, come suggerito elusivamente dell’Unione Europea, ma nel fatto che Caesar sia supra grammaticos, non importa se come Marco Aurelio o come Commodo. Non è, questa, un’idea radicale, né sul piano della storia, né su quello della cronaca: lo scorso aprile, in Francia, l’assemblea nazionale ha votato a favore dell’abolizione dell’agenzia di valutazione di stato HCERES. In questa prospettiva non ha senso limitarsi a chiedere un guinzaglio appena un po’ più lungo, o a sollevare il problema dei finanziamenti alla ricerca senza toccare quello della sua libertà, vale a dire della possibilità stessa di fare scienza – libertà, questa, che non si promuove difendendo l’Anvur attuale4 come se fosse indipendente, bensì considerandone l’abolizione. Contro il disegno di intensificare il controllo politico di “un’università più piccola, gerarchica e precaria”, FLC-CGIL5 si è appellata alle “forze libere e pensanti dell’accademia e della comunità universitaria”. In effetti, se, dopo lustri di valutazione di stato, esistessero ancora “forze libere e pensanti”, non sarebbe loro difficile promuovere una campagna di ubbidienza civile alla costituzione, a partire dagli articoli 21 e 33. In un momento in cui dovremmo invece parlare, davanti agli stati armati per la guerra, delle condizioni della pace pubblica, continuare a compilare moduli e a supplicare favori ministeriali ci salverà, forse, come impiegati, ma certamente non come studiosi. -------------------------------------------------------------------------------- 1. Questa riflessività è nota a chi si occupa di valutazione come legge di Goodhart: i soggetti valutati non si limitano a farsi valutare, ma adeguano riflessivamente le loro prestazioni al criterio di valutazione. Così chi viene premiato per il numero di pubblicazioni inflazionerà i testi, mentre chi viene premiato per le citazioni scriverà solo per farsi citare. Le conseguenze sono tristemente note. ︎ 2. Per un aggiornamento sugli orientamenti ministeriali si veda però quanto riferito dall’ANDU qui. ︎ 3. Il Consiglio di Stato, nel parere formulato nell’adunanza del 23 settembre 2025, ha ricordato che, proprio in virtù della gerarchia delle fonti del diritto, un regolamento, perfino se riguarda la valutazione di stato, non può cambiare la legge che l’ha istituita. ︎ 4. L’agenzia, peraltro, si è mostrata incapace di onorare gli impegni di riforma della valutazione che aveva sottoscritto aderendo alla coalizione europea COARA. ︎ 5. ANVUR: un’Agenzia che diventa governativa, con l’intenzione di valutare e quindi disciplinare anche saperi e conoscenze (2025) merita di essere letto per la sua analisi dettagliata della bozza di DPR qui solo sommariamente esposta. ︎
January 16, 2026
ROARS
I pericoli dell’uso della bibliometria con dati inquinati
La valutazione della ricerca basata sulle metriche viene spesso presentata come una soluzione ai problemi di equità e oggettività. «La bibliometria è per la valutazione della ricerca ciò che la diagnostica per immagini è per la medicina»: è quanto sostenuto da Giovanni Abramo in un recente webinar. L’esperienza suggerisce però che il cambiamento degli incentivi non abbia eliminato i comportamenti opportunistici, ma li abbia trasformati. Il caso italiano delle review mills ne è soloun esempio: gruppi organizzati hanno sfruttato il ruolo di revisori per imporre citazioni e gonfiare artificialmente gli indicatori. Quando i dati sono inquinati, bibliometria e “intelligenza artificiale” assomigliano piuttosto a una diagnostica per immagini che confonde i dati di pazienti diversi, producendo valutazioni distorte e premiando chi sa manipolare il sistema invece di chi fa buona ricerca. Questa settimana ho partecipato a un webinar organizzato da Clarivate sul tema “Celebrazione del centenario di Eugene Garfield: passato, presente e futuro della scientometria”. Il webinar ha trattato la storia delle prime opere del compianto Eugene Garfield, nonché gli sviluppi attuali e le tendenze future. Le sessioni storiche sono state affascinanti e hanno descritto le straordinarie innovazioni apportate da Garfield nella sua ricerca per comprendere il corpus di informazioni scientifiche come una rete. Garfield si rese conto che le somiglianze tra gli articoli potevano essere identificate dalle citazioni condivise e, negli anni ’50, ideò dei sistemi per acquisire queste informazioni utilizzando schede perforate. Sono abbastanza vecchia da ricordare quando, negli anni ’70, andavo in biblioteca a consultare lo Science Citation Index, che non solo mi indicava articoli importanti nel mio campo, ma spesso mi portava in direzioni inaspettate, facendomi scoprire altri argomenti affascinanti. Garfield è conosciuto come il padre del Journal Impact Factor, considerato da molti un abominio che distorce il comportamento degli autori a causa delle sue connotazioni di prestigio. Tuttavia, in origine era stato concepito come un indice che aiutasse i bibliotecari a decidere quali riviste acquistare, e solo in seguito è stato riproposto come parametro utilizzato come indicatore dello status dei ricercatori che pubblicavano su quelle riviste. Mi è piaciuto ascoltare la storia di Garfield, che sembra essere stato un poliedrico personaggio affabile e umano, che ha riconosciuto il valore delle informazioni contenute negli indici e ha trovato modi ingegnosi per sintetizzarle. Consiglio di consultare l’archivio delle sue opere conservato dall’Università della Pennsylvania. I relatori successivi del webinar si sono concentrati sui nuovi sviluppi nell’uso della scientometria per valutare la qualità della ricerca. Giovanni Abramo ha osservato come la scienza italiana sia stata influenzata dal favoritismo, a causa dell’esclusivo ricorso alla revisione soggettiva tra pari per valutare i ricercatori e le loro istituzioni. La sua opinione è che l’uso delle metriche migliori la valutazione della ricerca rendendola più equa e obiettiva. Ha osservato che, mentre le metriche potrebbero non essere un’opzione in alcuni settori delle arti e delle discipline umanistiche, per le discipline in cui i risultati appaiono generalmente su riviste indicizzate, la bibliometria è preziosa, concludendo che “la bibliometria è per la valutazione della ricerca ciò che la diagnostica per immagini è per la medicina”, ovvero una fonte fondamentale di informazioni oggettive. Stranamente, 12 anni fa sarei stata d’accordo con lui, quando suggerii che un semplice indice bibliometrico (indice H dipartimentale) potesse ottenere risultati molto simili al complesso e dispendioso processo di revisione tra pari adottato nel REF. All’epoca in cui scrivevo, pensavo che la legge di Goodhart (“Quando una misura diventa un obiettivo, smette di essere una buona misura”) non si applicasse a una metrica basata sulle citazioni, perché le citazioni non erano controllate dagli autori, quindi sarebbe stato difficile manipolarle. A quanto pare ero ingenua. Il metodo più rozzo per manipolare il sistema è l’eccesso di autocitazioni, ma esistono anche i circoli di citazione (tu citi il mio articolo e io citerò il tuo). Quest’anno Maria Ángeles Oviedo-García, René Aquarius e io abbiamo descritto una versione più sofisticata, una “review mill”, in cui un gruppo di medici italiani ha sfruttato la propria posizione di revisori per costringere altri a citare i lavori del gruppo. Abbiamo suggerito che il cambiamento nella valutazione della ricerca italiana, che era stato implementato con le migliori intenzioni, ha condotto a un cinico gioco di revisione tra pari. Si potrebbe rispondere dicendo che questa attività, sebbene inquietante, riguarda solo una piccola percentuale di articoli e quindi non avrebbe un effetto rilevante. Ancora una volta, dieci anni fa sarei stata d’accordo. Ma ora, con un’esplosione di pubblicazioni che sembra guidata da editori più interessati al guadagno che alla qualità (vedi Hanson et al, 2024) e standard editoriali straordinariamente laschi, questo potrebbe non essere più vero. Il punto chiave dei review mill è che abbiamo visto evidenze della loro attività perché utilizzavano modelli generici per le revisioni tra pari, ma questi possono essere rilevati solo per le riviste che pubblicano revisioni tra pari aperte, una piccola minoranza. Il membro più prolifico del review mill era un editor di riviste che aveva quasi 3000 revisioni tra pari verificate elencate su Web of Science, ma solo una manciata di queste era consultabile. Temo quindi che la bibliometria sia più simile a un’immagine diagnostica che ha confuso i dati di diversi pazienti: contiene alcune informazioni valide, ma sono distorte dall’errore. La presentazione finale di Valentin Bogorov ha descritto il futuro della scientometria, in cui l’intelligenza artificiale sarebbe stata sfruttata per fornire informazioni molto più dettagliate e aticolate sull’impatto sociale della ricerca. Ma ho avuto l’impressione che ignorasse il problema della frode che si è insinuato nei database bibliometrici. Le review mills sono un problema per la validità dei dati citazionali, ma le paper mills sono un problema molto più grave. Mentre le review mills si basano sull’auto-organizzazione di gruppi di ricerca dubbi per migliorare la loro reputazione, molte paper mills sono gestite da organizzazioni esterne la cui unica motivazione è il profitto  (Parker et al., 2024). Vendono authorship e citazioni a un prezzo che dipende dall’Impact Factor della rivista: Eugene Garfield si rivolterebbe nella tomba. Sono state individuate per la prima volta circa 12 anni fa, ma si sono moltiplicate come un virus e stanno infettando gravemente interi ambiti di ricerca. A volte vengono riconosciute per la prima volta quando un ricercatore esperto in materia trova articoli anomali o fraudolenti mentre cerca di esaminare il campo (vedi, ad esempio, Aquarius et al, 2025). Le paper mills prosperano in un ambiente favorevole, dove editor corrotti o incompetenti approvano articoli che contengono chiare violazioni del metodo scientifico o che sono evidentemente una collazione di vari articoli plagiati. La speranza degli editori è che l’IA fornisca dei modi per individuare gli articoli fraudolenti e rimuoverli prima che entrino nella letteratura, ma i produttori di articoli di bassa qualità hanno dimostrato di essere abili nel mutare per eludere l’individuazione. Purtroppo, proprio le aree in cui l’IA e i big data sembrano essere più promettenti, come i database che collegano geni, proteine, molecole e biomarcatori, sono già contaminate. Il timore è che gli stessi produttori di articoli di bassa qualità utilizzino sempre più l’IA per creare articoli sempre più plausibili. Non sono contraria alla bibliometria o all’intelligenza artificiale in linea di principio, ma trovo preoccupante l’ottimismo riguardo alla sua applicazione alla valutazione della ricerca, soprattutto perché non è stato fatto alcun riferimento ai problemi che emergeranno se il database interrogato dall’intelligenza artificiale sarà inquinato. Qualsiasi metodo di valutazione avrà costi, benefici e conseguenze impreviste. La mia preoccupazione è che, se ci concentriamo solo sui benefici, potremmo ritrovarci con un sistema che incoraggia i truffatori e premia coloro che sono più abili a manipolare il sistema piuttosto che i migliori scienziati.  
December 17, 2025
ROARS
Un bug nei dati Springer Nature scuote la bibliometria
Un errore nei metadati di Springer Nature potrebbe aver alterato in modo sistematico i conteggi di citazioni in tutti i principali database bibliografici, compresi Scopus a Web of Science. Le conseguenze? Indicatori distorti, carriere accademiche potenzialmente alterate e un segnale d’allarme per l’intero sistema della valutazione quantitativa della ricerca. Cosa altro deve accadere perché si abbandoni la cieca fede nelle metriche bibliometriche? Può un errore di codifica nei metadati, apparentemente banale, alterare la geografia della scienza mondiale, falsare classifiche, influenzare carriere e politiche di ricerca? Secondo l’analisi di Tamás Kriváchy, ricercatore al Barcelona Institute of Science and Technology, contenuta in un preprint recentemente diffuso su arXiv è esattamente ciò che potrebbe essere accaduto. Frederik Joelving Categoriesha coperto la notizia per Retraction Watch con un articolo uscito l’11 novembre 2025. La storia è semplice: un difetto tecnico nei metadati di Springer Nature riferiti alle riviste pubblicate solo online avrebbe generato una distorsione sistemica nei conteggi di citazioni di centinaia di migliaia di ricercatori. IL CASO  Tamás Kriváchy mostra che la distorsione dei dati ha origine da un’anomalia nella gestione dei metadati di molte riviste online-only di Springer Nature (come Nature Communications, Scientific Reports e vari BMC journals). Secondo Kriváchy, l’origine del problema risiede nel passaggio dai numeri di pagina tradizionali agli “article numbers” adottati dalle riviste online. Un campo mancante o mal gestito nei metadati distribuiti tramite API e file RIS di Springer avrebbe causato una catena di errori nel collegamento tra articoli e citazioni.  In sostanza, una grande quantità di citazioni verrebbe erroneamente attribuita al primo articolo del volume (“Article 1”) di ciascun anno, invece che all’articolo effettivamente citato. Intervistato da Retraction Watch spiega: > “Sembra che milioni di scienziati abbiano perso alcune citazioni, mentre > decine di migliaia — gli autori degli Article 1 — le abbiano guadagnate tutte, > arrivando a conteggi assurdi”. Un difetto tecnico apparentemente minore, ma dalle enormi conseguenze sistemiche. Infatti l’anomalia nei dati non è limitata alla piattaforma Springer e al suo database bibliografico Dimensions, ma si propaga a tutti i database bibliografici che ne importano i metadati come Crossref, OpenCitations, Scopus e Web of Science. Le conseguenze, osserva Retraction Watch, sono potenzialmente enormi: confusione nella tracciabilità delle citazioni, alterazione di indici bibliometrici e, in alcuni casi, vantaggi indebiti per autori o istituzioni. Il caso emblematico è quello del primo articolo del volume 2018 di Nature Communications, intitolato “Structural absorption by barbule microstructures of super black bird of paradise feathers”. Secondo il sito della rivista, l’articolo avrebbe ricevuto ben 7.580 citazioni. Google Scholar ne riporta 584, Web of Science 582 e Scopus 1.323. La coautrice Dakota McCoy (Università di Chicago) ha confermato a Retraction Watch di aver cercato, invano, di ottenere la correzione di centinaia di citazioni spurie. Analogamente l’articolo n. 1 dell’anno 2021 di Scientific reports presenta lo stesso problema: 5.332 citazioni sul sito dell’editore e solo 118 su Google Scholar. E si potrebbe continuare. Kriváchy scrive di non essere in grado di precisare l’elenco esatto delle riviste interessate e quindi fornire un conteggio preciso: > Si noti, tuttavia, che sono interessate le due riviste più grandi in base al > numero di articoli pubblicati ogni anno, Scientific Reports e Nature > Communications, nonché le riviste BMC, che comprendono un gran numero di > riviste ad alto volume che utilizzano il riferimento al numero dell’articolo. > Il numero totale di articoli per Scientific Reports è di circa 250.000, per > Nature Communications di circa 75.000 e per diverse riviste BMC e Discover > Applied Sciences di circa 126.000. Quindi, solo per queste 10 riviste ci sono > circa 450.000 articoli potenzialmente interessati, con un numero totale > probabilmente ancora più elevato. Springer Nature dichiara di ospitare 7 > milioni di articoli. Data l’immensa crescita degli articoli online negli > ultimi anni, ci si può aspettare che una parte ignificativa dei 7 milioni sia > presente in riviste solo online, portando il numero reale di articoli > interessati a milioni. L’estensione temporale del problema risale, secondo l’autore, al 2011, quando il bug fu introdotto nelle API di Springer. PERCHÉ TUTTO QUESTO È IMPORTANTE?  I risultati di Kriváchy sono molto importanti perché è la prima volta che errori nei metadati vengono documentati su scala globale, interessando tutti i principali database bibliografici, commerciali e non. Siamo abituati ai problemi di Google Scholar, dove le incongruenze restano perlopiù localizzate — come nel celebre caso di Ike Antkare o in quelli italici, meno noti, di citazioni attribuite all’autore “Primo Capitolo” [si veda qui]. Nel caso dei metadati di Springer Nature, invece, siamo di fronte a qualcosa di radicalmente diverso: un errore sistematico nei metadati che produce un effetto domino su molti indicatori bibliometrici, a tutti i livelli di aggregazione. Il problema questa volta va considerato su tre piani distinti. 1. Il livello dei dati e delle metriche. Gli errori influenzano direttamente gli indici basati sulle citazioni: molti articoli attualmente “highly cited” diventeranno articoli “normali” dopo la correzione. Ciò avrà effetto sugli autori (sui loro h-index, conteggi complessivi, ecc.), su indicatori avanzati come SNIP, e sututti quelli basati su “top-cited papers” per rivista, istituzione, settore o Paese. In pratica, abbiamo lavorato per anni con dati in cui molti (quanti?) “highly cited papers” non erano realmente tali. (L’IF,  per costruzione non è alterato dall’errore). 2. Il livello comportamentale. Qui entra in gioco il ben noto Effetto Matteo: gli articoli percepiti come molto citati tendono a ricevere ulteriori citazioni proprio per la loro fama. L’errore iniziale nei metadati ha quindi verosimilmente influenzato il comportamento dei ricercatori, che hanno citato lavori “falsamente” molto citati. Questo secondo effetto non è correggibile: quante di quelle citazioni sopravvivranno anche dopo la bonifica dei dati? 3. Il livello istituzionale. Le conseguenze riguardano la valutazione della ricerca e le carriere accademiche. Il peso di questo errore è proporzionale all’uso — spesso acritico — che le istituzioni fanno delle metriche di citazione. In Italia, come è ben noto, il ministero e ANVUR hanno imposto l’uso di indicatori bibliometrici come requisito per l’Abilitazione Scientifica Nazionale e per le progressioni di carriera universitarie. Dobbiamo chiederci fino a che punto un errore sistemico come questo possa aver alterato carriere individuali e valutazioni istituzionali. La comunità scientifica, in particolare quella italiana, non è abbastanza consapevole dell’inquinamento che affligge la scienza contemporanea e dell’estensione dei meccanismi — come le citation mills — che hanno corrotto il significato delle citazioni. La percezione prevalente è che si tratti di problemi localizzati, che riguardano pochi casi isolati, e che una opportuna “polizia bibliometrica” sia in grado di ripulire gli indiciatori dai dati anomali.  Questo caso è diverso e non solo per la scala: nasce da un errore genuino, non da una manipolazione intenzionale, e proprio per questo è ancora più istruttivo. Mostra la fragilità di un sistema che ha affidato la valutazione della ricerca a numeri e algoritmi di cui spesso non si conoscono nemmeno i fondamenti tecnici. Forse, paradossalmente, questo bug potrebbe avere un effetto benefico: costringerci a ripensare la nostra cieca fede nelle metriche quantitative, una fede che ha contribuito in modo determinante alla corruzione della scienza contemporanea.  
November 19, 2025
ROARS
Valutare e obbedire. Il Governo vuole il controllo totale di ANVUR
La proposta di riforma dell’ANVUR rende finalmente evidente ciò che da anni era solo implicito: l’Agenzia è lo strumento con cui il governo attua il controllo centralizzato e indirizza le attività di università e ricerca. Con la riforma, nomine e attività di valutazione passano sotto l’iniziativa esclusiva del Ministro, riducendo drasticamente l’indipendenza tecnica di ANVUR. La proposta è già stata duramente bocciata dal Consiglio di Stato, che segnala contraddizioni con la legge istitutiva e mette in dubbio la legittimità di molte novità. Tutto ciò avviene in chiara contraddizione con i principi di libertà di ricerca e insegnamento ancora sanciti dalla Costituzione. Il governo intende varare la riforma del regolamento dell’Agenzia Nazionale di Valutazione del sistema Universitario e della Ricerca (ANVUR) tramite un decreto del Presidente della Repubblica, attualmente in discussione presso le commissioni parlamentari (qui la documentazione). PREAMBOLO. Malgrado i proclami sulla sua presunta autonomia, ANVUR è già, di fatto, controllata dal Ministero dell’Università e della Ricerca. Il consiglio direttivo composto da 7 membri è definito dal Ministro dell’Università e della Ricerca che li sceglie da una rosa di 15 nominativi che gli viene sottoposta da una commissione di selezione. La commissione di selezione è composta da quattro membri nominati da enti esterni più un quinto membro nominato direttamente dal ministro. Tutti i membri del consiglio direttivo ANVUR restano in carica 4 anni e il presidente viene eletto tra di loro. Apparentemente distante, ma in realtà è il Ministro a assumere un peso determinante nella composizione dell’Agenzia. Tanto è vero che, attualmente, il Consiglio è incompleto: solo quattro membri, compreso il Presidente che siede in ANVUR dal lontano 2019. La ministra Bernini non ha infatti mai ricostituito l’organo, malgrado abbia in mano la rosa dei nominativi scelti dalla commissione di selezione da un anno (la commissione, dei cui lavori sui siti ministeriali non c’è traccia, era stata nominata nel 2023 e aveva pubblicato l’avviso di selezione per i candidati nel febbraio 2024). Voci dal MUR raccontano la rosa fosse sgradita alla ministra. In particolare sembra che la commissione abbia bocciato il prof. Marco Mancini (il presidente ANVUR che la ministra avrebbe desiderato). Il prof. Mancini che la ministra ha da poco nominato Segretario Generale del MUR, e che scrive irritualmente ai rettori chiedendo loro di tenere sotto controllo le proteste degli studenti. Lo stesso Mancini che qualche anno fa il Giornale annoverava tra i baroni rossi, il Mancini, sempre lo stesso, che anima da oltre un quindicennio le riunioni del Partito Democratico su università e ricerca, che è entrato e uscito dal MUR in vari ruoli con ministri di qualsiasi colore. In sintesi: anche l’attuale “leggera autonomia” dell’ANVUR appare troppo pericolosa alla ministra ed al gruppo di lavoro voluto dalla ministra e che ha suggerito la proposta di riforma. LA PROPOSTA DI RIFORMA  Il cuore della riforma è la modifica sostanziale della struttura dell’agenzia e delle modalità di nomina dei membri del direttivo. Oltreché la subordinazione dell’attività dell’agenzia alle direttive del Ministro del MUR. Nell’articolo 7 viene modificato il processo di nomina del Presidente dell’ANVUR destinato a restare in carica 5 anni, che passa a essere di diretta nomina ministeriale, indipendente dal Consiglio direttivo.  Con la nuova procedura, il Ministro istituisce un comitato di selezione che propone una terna di candidati, dalla quale il Ministro effettua la scelta finale, previa consultazione (non vincolante) delle Commissioni parlamentari. La nomina formale avviene poi con Decreto del Presidente della Repubblica. Il Presidente nominato può successivamente designare un vicepresidente all’interno del Consiglio. Questa riforma viene (orwellianamente) presentata come rafforzamento dell’indipendenza di ANVUR. Nell’articolo 8, la procedura di costituzione del Consiglio direttivo, la cui durata è confermata in 4 anni, viene anch’essa sottoposta al controllo diretto del Ministro. Il Consiglio passa da 7 a 5 membri, compreso il Presidente, e la nomina dei componenti è ora gestita dal Ministro. Dopo la raccolta delle candidature tramite bandi pubblici, un comitato di selezione propone terne di candidati, che includono tre rappresentanti di altrettante macroaree CUN (una invenzione estemporanea, che non rispecchia neanche la idiosincratica e unica al mondo divisione del mondo tra settori bibliometrici e non bibliometrici inventata da ANVUR anni fa) e un membro AFAM. Cambia anche la composizione del comitato di selezione: anziché definito da enti esterni anch’esso è scelto direttamente dal Ministro del MUR. E anche questa modifica viene orwellianamente giustificata come una misura a tutela dell’indipendenza dell’Agenzia. Per le attività di valutazione che, da norma primaria, sono di iniziativa dell’agenzia, la riforma prevede che siano assoggettate al volere del Ministro. Come si legge nella relazione illustrativa, ANVUR deve assicurare il: > rispetto dell’indirizzo politico dato dal Ministero dell’università e della > ricerca, quale Ministero vigilante. Questo si riflette, nella proposta legislativa, nella previsione che gran parte delle attività di valutazione avvenga solo “su richiesta del Ministro”. Queste attività sono ampliate, includendo in modo sistematico tutto il mondo AFAM. E sono ampliate anche in profondità prevedendo adesso che ANVUR valuti: > le competenze trasversali e disciplinari acquisite dagli studenti edalle > studentesse e gli sbocchi occupazionali dei laureati. La proposta di riforma toglie dai compiti di ANVUR la definizione – su richiesta del ministro – dei parametri di riferimento per l’allocazione dei finanziamenti statali, che torna nelle salde mani del MUR. La riforma elimina il riferimento alla cadenza quinquennale della VQR: termine considerato troppo rigido e troppo ampio per tenere conto della evoluzione del sistema della ricerca. E, infine, stabilisce (qualsiasi cosa questo significhi) che la valutazione della qualità dei prodotti della ricerca deve essere condotta > utilizzando criteri omogenei rispetto a quelli previsti per l’ammissione ai > concorsi universitari, valutati, ove possibile, tramite procedimenti di > valutazione tra pari. IL CONSIGLIO DI STATO FA A PEZZI LA PROPOSTA DI RIFORMA Cosa potrebbe mai andare storto se un gruppo di lavoro di iper-competenti professori universitari è chiamato dalla Ministra a scrivere un progetto di riforma? Potrebbe accadere che il Consiglio di Stato faccia a pezzi la proposta di riforma, proprio nei suoi punti chiave. Come è puntualmente avvenuto nel parere formulato nell’adunanza del 23 settembre 2025. Il Consiglio di Stato mette in evidenza una contraddizione: la proposta di riforma attribuisce al Ministro, tramite regolamento, il potere esclusivo di avviare alcune delle attività più importanti dell’ANVUR. Tuttavia, la legge (art. 2, comma 138, del decreto-legge 262/2006) assegna queste competenze direttamente all’ANVUR. In altre parole, la riforma toglierebbe all’Agenzia, attribuendoli al ministro, poteri che la norma primaria le riconosce espressamente. Il Consiglio di Stato, seppur con una fraseologia più educata, fa capire che non è disposto a bersi la storiella che questo serve a “riallineare” “il funzionamento [dell’ANVUR] agli standard europei (ESG)” e “a rafforzare il ruolo tecnico-istituzionale dell’Agenzia nell’ordinamento”. La riforma mira a subordinare l’attività dell’ANVUR alla volontà del Ministro, attribuendogli un potere esclusivo di iniziativa sulle funzioni più rilevanti dell’Agenzia. Una scelta che va in aperto contrasto con la legge istitutiva dell’ANVUR, la quale garantisce all’Agenzia autonomia organizzativa, amministrativa e contabile. La riforma, secondo il Consiglio di Stato, va in contrasto con  i principi costituzionali di libertà di ricerca e autonomia universitaria. Il Consiglio di Stato critica duramente la proposta di riforma anche per un altro aspetto: la concentrazione nelle mani del Ministro della nomina dei componenti del comitato di selezione e del Presidente dell’ANVUR. Dietro l’apparente “semplificazione” del procedimento, la riforma finisce per eliminare le garanzie di indipendenza che derivavano dal coinvolgimento di enti e istituzioni diversi dal Ministero, come previsto dalla normativa vigente. La legge istitutiva dell’ANVUR aveva voluto un sistema di nomine plurale e bilanciato, proprio per evitare, secondo il Consiglio di Stato, che l’Agenzia diventasse uno strumento politico. La proposta di riforma, invece, accentrando il potere di scelta nel Ministro, riduce la trasparenza e aumenta il rischio di nomine troppo discrezionali, basate su criteri vaghi come la generica “esperienza pluriennale”. Anche la nuova modalità di nomina del Presidente, non più eletto dal Consiglio direttivo ma designato dal Ministro, rappresenta un chiaro passo indietro rispetto all’autonomia organizzativa garantita dalla legge. In sintesi, sotto il pretesto della semplificazione, la riforma svuota l’indipendenza dell’ANVUR, trasformando un organismo tecnico e autonomo in uno direttamente dipendente dalle scelte del potere politico. Il Consiglio di Stato, con una pazienza quasi pedagogica, ricorda agli estensori della riforma un principio elementare del diritto amministrativo: un regolamento non può modificare una legge. Pare però che chi ha scritto la proposta non ne sia pienamente consapevole, visto che ha pensato bene di allungare da quattro a cinque anni la durata del mandato del Presidente dell’ANVUR, ignorando che la legge istitutiva (art. 2, comma 140, del d.l. 262/2006) stabilisce chiaramente una durata quadriennale per tutti i componenti del Consiglio direttivo, Presidente compreso. Come se non bastasse, l’interpretazione fantasiosa secondo cui il Presidente non farebbe parte del Consiglio direttivo (e quindi non sarebbe soggetto alla stessa durata di mandato) sfiora l’assurdo: significherebbe che il principale organo dell’ANVUR avrebbe un Presidente “fuori organigramma”, nominato e disciplinato dal nulla. In sostanza, il Consiglio di Stato deve ricordare ai riformatori che le norme di rango primario non si cambiano con un colpo di penna in un regolamento. Ma, a quanto pare, qualcuno al Ministero ha bisogno di un rapido ripasso in merito all gerarchia delle fonti del diritto. La perla finale riguarda il Direttore di ANVUR che la proposta di riforma trasforma in organo dell’agenzia e battezza Direttore generale. Il Consiglio di Stato segnala con discreta diplomazia un curioso paradosso: la riforma che proclama di “inasprire” le incompatibilità del Direttore generale in realtà le smantella quasi del tutto. La norma vigente vietava ogni rapporto professionale o pubblico potenzialmente conflittuale; la nuova versione lascia in piedi solo un divieto residuale – non lavorare per chi l’ANVUR valuta. Eppure, nella relazione illustrativa, questo alleggerimento viene descritto come una “disciplina più rigorosa”. Un capolavoro di burocratese orwelliano, dove restringere diventa ampliare e allentare diventa irrigidire. FINALMENTE CHIAREZZA Il Consiglio di Stato assume che l’assetto attuale dell’ANVUR garantisca già un sufficiente equilibrio tra autonomia e vigilanza ministeriale. Noi siamo più scettici. L’esperienza concreta mostra che l’ANVUR da tempo opera come un braccio amministrativo del Ministero, traducendo in “valutazioni” le linee politiche definite altrove. La riforma, più che introdurre una novità, rende esplicito ciò che da anni avviene nei fatti: l’Agenzia agisce su impulso politico, non come organo indipendente. Dietro il linguaggio neutro della “razionalizzazione” e della “trasparenza” la riforma consolida un modello di governo centralizzato, in cui la valutazione è il principale strumento di controllo del sistema universitario e della libertà accademica. Non sorprende che nel gruppo di lavoro che ha redatto la proposta siedano molti protagonisti delle politiche universitarie degli ultimi vent’anni, mentre mancano del tutto voci indipendenti o critiche. La riforma, insomma, non cambia la direzione di marcia: si limita a dichiararla apertamente. È il compimento di un processo che attraversa governi di ogni colore e che ha progressivamente trasformato la “valutazione” in governo politico mascherato da tecnica.  Oggi, con la proposta di riforma, cade ogni ambiguità: l’ANVUR è lo strumento del Ministero per controllare e dirigere il mondo accademico, in aperta tensione con quei principi di autonomia e libertà di ricerca che la Costituzione continua, almeno sulla carta, a garantire. Qua si può leggere l’analisi della proposta di riforma di FLC-CGIL.         
October 20, 2025
ROARS
La finta imparzialità della valutazione: le reti che governano la ricerca italiana
Dietro la facciata neutrale delle regole formali, i panel VQR in area economica mostrano legami fitti e opachi, dominati da gruppi accademici vicini all’università Bocconi. L’analisi di rete svela che le nomine operate direttamente dai consigli direttivi di ANVUR nelle prime due VQR dettero luogo a strutture chiuse e autoreferenziali, a differenza della terza VQR quando il panel venne sorteggiato. Con la VQR in corso si è tornati indietro: ANVUR ha ripreso il controllo diretto dei panel, nominando un quarto dei membri, e riaprendo la porta a bias e conformismo. La valutazione della ricerca soffoca il pluralismo e rafforza le gerarchie accademiche consolidate. Da anni una questione agita il mondo accademico senza trovare la dovuta attenzione politica: la composizione dei panel di valutazione della ricerca. C’è una grande attenzione formale al rispetto di regole di composizione dei panel in termine di genere, provenienza geografica o appartenenza a settori scientifico disciplinari. Il rispetto di questi attributi ‘formali’ fa apparire bilanciate, composizioni dei panel che nascondono profonde asimmetrie intellettuali e scientifiche. Attraverso un’analisi empirica basata su tecniche di network analysis, abbiamo documentato e rese visibili alcune di queste asimmetrie. Il paper completo, uscito su Scientometrics è accessibile a questo link. Il caso di studio che consideriamo è quello della composizione dei panel di valutazione (GEV) dell’area di economia, statistica e scienze aziendali nei tre esercizi della Valutazione della Qualità della Ricerca (VQR): 2004–2010, 2011–2014 e 2015–2019. I primi due panel furono nominati direttamente dall’ANVUR, mentre per il terzo si ricorse al sorteggio tra i candidati. Questa discontinuità procedurale ci ha permesso di trattare il terzo panel come termine di confronto, evidenziando quanto forti e pervasive fossero le connessioni nei panel nominati da ANVUR rispetto a quello estratto a sorte. Le tecniche di network analysis adottate ci hanno consentito di osservare la struttura invisibile dei legami tra i commissari. In particolare, abbiamo ricostruito le reti di co-autorialità tra i membri del panel, la comunanza di strategie di pubblicazione sulle stesse riviste, la rete che individua provenienza ed affiliazioni comuni in università e centri di ricerca, e infine la rete di blog e riviste di divulgazione che hanno ospitato contributi dei membri dei panel.  Nei due panel nominati da ANVUR si osservano reti fitte, chiuse e dominate da pochi nodi centrali e gruppi. Nel panel sorteggiato, invece, la frammentazione delle reti è decisamente maggiore, segno di un’effettiva pluralità di percorsi accademici e orientamenti teorici. Il risultato è inequivocabile: le nomine dirette hanno prodotto gruppi omogenei e non rappresentativi della pluralità accademica. In aggiunta, abbiamo osservato che una parte rilevante dei legami emersi riguarda un preciso gruppo di potere accademico, riconducibile all’ambiente dell’Università Bocconi: non solo docenti, ma anche ex allievi che orbitano intorno agli stessi centri di ricerca, agli stessi network professionali, agli stessi giornali e think tank. Il nostro lavoro fornisce una mappa sistematica di queste connessioni: quali sono gli istituti e i centri più fortemente legati a questo network, e chi sono gli esponenti che ne rappresentano il fulcro. Che sia l’università Bocconi il centro del sistema, non dovrebbe certo meravigliare, almeno i lettori di Roars. Già in passato le scelte operate dall’ANVUR erano state duramente criticate, in particolare per quanto riguarda proprio la scelta dei membri del GEV di economia. Nella terza VQR, il ministro Fioramonti introdusse il sorteggio dei membri, probabilmente anche in relazione alle polemiche che avevano accompagnato le prime due VQR.  Con l’ultimo esercizio VQR si è tornati indietro, seppure parzialmente: ANVUR ha infatti scelto direttamente il 25% dei membri dei GEV, garantendosi così un controllo commissariale sui lavori dei panel: non è inverosimile pensare che un membro GEV nominato da ANVUR abbia uno status diverso dai membri estratti. E forse non è un caso che, per restare in Area economica, sia stato nominato nel panel di economia il presidente del GEV della prima VQR, che nei nostri network rappresenta lo snodo centrale dei legami nei primi due panel. Quello che succede nell’area dell’economia è particolarmente delicato. La disciplina è da sempre caratterizzata da profonde differenze teoriche, metodologiche e ideologiche. Anche se le cose sono in realtà più complicate, ci si riferisce a questa situazione dicendo che c’è una economia mainstream e una eterodossa. A nostro parere, il pluralismo di visioni è essenziale alla vitalità della ricerca. I processi valutativi, in Italia e non solo, hanno favorito la marginalizzazione sistematica delle scuole di pensiero non mainstream, contribuendo a rafforzare meccanismi autoreferenziali e a consolidare il predominio di approcci omogenei mainstream. In questo gioca un ruolo fondamentale la composizione dei panel: un panel composto da valutatori mainstream strettamente collegati non solo mina la credibilità del processo valutativo, ma espone l’intero sistema a rischi di bias strutturale. Se la valutazione scientifica finisce per premiare solo ciò che è conforme ai paradigmi dominanti, la qualità stessa della ricerca ne risulta gravemente compromessa, riducendo la capacità di innovazione del sistema e lo spazio per il dissenso costruttivo e i percorsi di ricerca non convenzionali. Non è inutile sottolineare che non è certo sufficiente a garantire una composizione fair dei panel la presenza di un paio di figure “eterodosse”, come avvenuto nei panel delle due prime VQR. Quelle presenze appaiono piuttosto come sforzo superficiale e simbolico per apparire inclusivi nei confronti di gruppi minoritari (tokenism), in modo da ridurne le manifestazioni di dissenso. Tutto ciò richiama la necessità di una riflessione più ampia sul ruolo e sugli obiettivi della valutazione della ricerca in Italia. Fin dalla sua istituzione, l’ANVUR ha imitato un mix di modelli sviluppati altrove e ispirati a logiche di efficienza, competizione e misurazione standardizzata, trascurando la complessità e la specificità dei processi di produzione della conoscenza. L’obiettivo implicito non è stato quello di promuovere il pluralismo, l’innovazione o la capacità critica, ma piuttosto di allineare la ricerca alle esigenze di un sistema economico fondato su metriche di performance e riconoscimenti formali. Gli effetti della valutazione della ricerca sono oggi visibili: una ricerca più omologata, meno incline al rischio teorico e alla sperimentazione radicale, più orientata a soddisfare indicatori quantitativi che a rispondere a interrogativi scientifici profondi, con preoccupanti segnali di corruzione endemica. Una ricerca che, in definitiva, rischia di perdere la propria funzione pubblica, trasformandosi in un’attività funzionale alla “ricchezza della nazione” e al rafforzamento delle gerarchie accademiche consolidate. Crediamo sia necessario riportare al centro del confronto pubblico il senso stesso della ricerca come bene comune, emancipandola dalle logiche burocratiche, competitive e oligarchiche che oggi ne soffocano lo sviluppo.
July 21, 2025
ROARS
Misura responsabilmente. COARA, la riforma della valutazione della ricerca e l’Unione Elusiva
L’Unione Europea ha patrocinato la formazione di COARA, una coalizione composta promiscuamente da università, enti di ricerca, associazioni scientifiche e agenzie di valutazione, con lo scopo di limitare la bibliometria a un uso responsabile. Ha avuto cura di escludere dalla coalizione, perché in conflitto di interessi, gli editori commerciali, che in una lega per la temperanza farebbero la parte dei produttori di alcolici, ma non le agenzie della valutazione di stato o comunque amministrativa, che farebbero la parte delle osterie. Ma mentre nelle osterie che spacciano spirito si va liberamente, quelle che impongono bibliometria di stato come arma di valutazione di massa sono a frequentazione coatta e, in una lega per la sobrietà bibliometrica, in radicale conflitto di interessi. Per quanto, come spiega l’articolo di Francesca Di Donato di cui questo intervento è una revisione paritaria aperta, sarebbe stato possibile sviluppare creativamente i principi di COARA in senso kantiano, la riforma, in Italia, sta risultando poco incisiva. La responsabilità è anche dell’UE, la quale, in veste di Unione Elusiva, ha dato antikantianamente indicazioni su come si valuta senza chiedersi chi valuta, e dunque senza toccare la valutazione amministrativa – il che è come promuovere una campagna per la sobrietà fra i bevitori lasciando aperte le osterie di stato a frequentazione coatta e addirittura permettendone la collaborazione.   > Un ministro francese convocò alcuni dei commercianti più stimati, per chiedere > loro suggerimenti sul modo in cui poter sollevare le sorti del commercio, come > se intendesse scegliere l’avviso migliore. Dopo che uno ebbe suggerito questo > e l’altro quel rimedio, un vecchio commerciante, che fino ad allora era > rimasto in silenzio, prese a dire: costruite buone strade, battete buona > moneta, accordate uno diritto snello in materia di cambio e così via; quanto > al resto, ‘lasciateci fare!’ Questa sarebbe la risposta che dovrebbe dare la > facoltà di filosofia, se il governo le chiedesse quali dottrine deve imporre > agli studiosi: solo di non impedire il progresso delle idee e delle scienze.1 1. IL RITORNO DELLA QUALITÀ COARA è una coalizione composta promiscuamente da università, enti di ricerca, associazioni scientifiche e agenzie di valutazione che si è formata in seguito all’Agreement on Reforming Research Assessment (ARRA), reso pubblico nel luglio 2022. La coalizione comporterebbe un reciproco impegno a superare o integrare la valutazione amministrativa della ricerca, che è bibliometrica e quantitiva, e a riconoscere la sua qualità e varietà tramite la revisione fra pari. Secondo un articolo offerto alla revisione paritaria aperta da Francesca Di Donato, che è fra i redattori dell’accordo, per riconoscere la qualità occorrerebbe riaffermare, al modo di Kant, l’autonomia della comunità scientifica. Kant assegnava la ricerca di base alla facoltà di filosofia e trattava la valutazione come intrinseca alla ricerca stessa, se per ricerca si intende “l’esercizio di un metodo che consiste nel sottoporre a critica qualsiasi dottrina, e come tale è presupposto essenziale di ogni conoscenza”. Una valutazione di questo tipo, però, non può svolgersi senza “libere comunità di pari che imparano dai propri errori e si correggono costantemente a vicenda.” Perciò, conclude Francesca Di Donato, per riportare la qualità nella ricerca “non basta cambiare il modo in cui si valuta”: occorre sviluppare un principio dell’accordo ARRA (pp. 3, 5, 6, 9) – quello di coinvolgere la comunità scientifica, incoraggiandola a “controllare collettivamente le infrastrutture necessarie per il successo della riforma.” Vale però la pena ricordare che i quattro impegni fondamentali dell’accordo ARRA, riassunti qui a fianco, riguardano il come si valuta. Il coinvolgimento della comunità scientifica è fra gli impegni di sostegno ed è spesso formulato in modo da suggerire che questa possa dar suggerimenti, di nuovo, sul come si valuta, dando per scontato chi valuta, e dunque la sua legittimazione e la sua assenza di conflitto di interessi. Come recita, per esempio, la spiegazione del punto 6.1 (in traduzione italiana a p. 17, corsivo aggiunto) “questo impegno garantirà che le autorità nazionali / regionali / organizzative e le agenzie di valutazione rivedano e, se necessario, sviluppino criteri per la valutazione delle unità e delle istituzioni di ricerca, in conformità con i Principi”. 2. VALUTATORI E VALUTATI L’origine dell’ Agreement on Reforming Research Assessment su cui si basa COARA ha poco a che vedere con Kant. È infatti esito di un’iniziativa che non nasce fra gli studiosi, bensì nella Commissione, con il sostegno del Consiglio dell’Unione Europea, quando la pandemia di Covid-19 mostrò anche ai più conservatori che una valutazione della ricerca basata sulla quantità di pubblicazioni e citazioni non garantisce, come tale, né accessibilità né qualità alla scienza. Sebbene gli organi dell’Unione Europea abbiano fondato la loro iniziativa su numerosi studi, sia indipendenti sia su commissione, il loro intervento non ha preso di mira le infrastrutture, bensì la qualità della ricerca. Per riconoscere la qualità di un’opera – ha ammesso l’Unione Europea – bisogna leggerla e comprenderla: per questo una valutazione che la prenda sul serio deve mettere in primo piano la revisione fra pari, compiuta dagli studiosi stessi, e usare la bibliometria in modo “responsabile”. E però il difetto della bibliometria – la pretesa di valutare la ricerca solo quantitativamente, senza leggerla e senza capirla – diventa una virtù, quando la valutazione, strappata alle comunità degli studiosi, è affidata ad agenzie governative centralizzate. La revisione fra pari – si dice – non può essere usata come arma di valutazione di massa perché non è scalabile. La bibliometria invece lo è, proprio perché esonera dalla lettura e dalla comprensione. Come possiamo dunque sperare di eliminare o ridimensionare l’uso valutativo della bibliometria senza ridimensionare o eliminare le agenzie amministrative centralizzate – quali l’ANVUR italiana e l’ANECA spagnola – a cui il governo ha conferito il compito della valutazione di massa? COARA, che pure non ammette gli editori scientifici commerciali per il loro evidente conflitto di interessi, non si è posta questo problema: non solo le agenzie statali di valutazione ne possono fare parte, ma possono addirittura sedere nel suo consiglio direttivo. Semplice distrazione o consapevole ambiguità? Come riferisce Francesca Di Donato il secondo impegno di ARRA richiede che la ricerca sia valutata tramite la lettura e la discussione delle opere dei ricercatori. La revisione fra pari è dunque fondamentale, come parte di un dibattito scientifico pubblico che dovrebbe essere esso stesso oggetto di ricerca, allo scopo di “tenere il meccanismo efficiente e vitale”. Inoltre, il terzo impegno patrocina una “misurazione responsabile”, che prenda congedo “dagli usi inappropriati di indicatori come il fattore d’impatto delle riviste e l’indice H”. A chi è destinata la ricerca sul dibattito scientifico? Alla riflessione della comunità scientifica o ai valutatori amministrativi per sperimentazioni behavioristiche in corpore vili? Come racconta Melinda Baldwin, negli USA la revisione paritaria chiusa in doppio cieco divenne marchio di scientificità per motivi politici: l’esibizione della procedura permise di sfuggire allo scrutinio del Congresso sui finanziamenti pubblici alla ricerca. Questo arrocco – nella veste di una versione procedurale dell’ipse dixit – non è stato privo di conseguenze, e non solo in termini di conformismo.2 Ma una cosa è un’autocritica della comunità scientifica sul proprio uso pubblico e privato della ragione, un’altra è che funzionari o studiosi-funzionari ne facciano un impiego amministrativo, coinvolgendo, o no, i ricercatori semplici. 3. “NEGAZIONISMO BIBLIOMETRICO” A chiarire la posizione di COARA, o, almeno, di chi la guida, ha aiutato la recente accusa di “negazionismo bibliometrico”, a cui Luciana Balboa, Elizabeth Gadd, Eva Mendez, Janne Pölönen, Karen Stroobants, Erzsebet Toth Cithra e l’intero consiglio direttivo di COARA si sono affrettati a rispondere cosi: > Usare solo la scientometria per valutazioni a livelli di granularità più > bassi, cioè per la valutazione degli individui, che comprende scopi importanti > quali l’assegnazione di riconoscimenti (finanziamenti, posti di lavoro), è > altamente problematico. In casi come questi si dovrebbe preferire la revisione > paritaria. Tuttavia > l’uso della scientometria a livelli di aggregazione superiori, come quello > nazionale o universitario, e per forme di valutazione meno importanti come la > conoscenza scientifica, è molto meno problematico (anche se ancora > imperfetto). La loro risposta mostra anche la consapevolezza della difficoltà di tener confinata la bibliometria a livelli superiori. Un ricercatore che si trova a lavorare in un’istituzione valutata e finanziata con criteri quantitativi sarà spinto a orientarsi bibliometricamente, a dispetto di tutti gli impegni a farne un uso responsabile. > Resta il fatto che una dipendenza eccessiva da una scientometria pur > responsabile può comunque avere un impatto negativo, per trascinamento, > sull’ecosistema della valutazione della ricerca. Un uso legittimo della > bibliometria per comprendere l’attività a livello di paese può velocemente > estendersi ai criteri di promozione, se, a livelli di aggregazione superiori, > si associa alla valutazione bibliometrica un riconoscimento troppo grande. La risposta rende chiaro che COARA non intende eliminare le armi di valutazione di massa e le agenzie statali che ne fanno uso, bensì solo limitarne il danno. Quanto all’effetto trascinamento (trickle-down) la soluzione – si dice – può essere il principio 9 del Leiden Manifesto for the responsible use of bibliometrics, il quale suggerisce di adottare “un insieme di indicatori” invece che “uno solo”, in modo da render difficili la manipolazione (gaming) e la trasformazione dell’indicatore in obiettivo. Se non ci accontentiamo di soluzioni “soluzioniste”, dobbiamo però ricordare che è così facile manipolare il sistema perché gli indicatori bibliometrici sono connessi solo ortogonalmente alla qualità della ricerca, anche se sono indispensabili alle burocrazie valutatrici centralizzate, munite o meno di programmi per computer, perché incapaci di leggere e comprendere la scienza non solo come è scritta, ma anche com’è fatta. I ricercatori non sono necessariamente più truffaldini del resto della popolazione: semplicemente, sono esposti alla tentazione di truccare il sistema per amor di carriera o di mera sopravvivenza accademica proprio perché sottomessi a criteri di valutazione che non afferrano la sostanza della scienza. La prima manipolazione del sistema, in altre parole, è il sistema stesso.3 E il sistema è anche, letteralmente, un sistema di sottomissione: chi guida COARA si è sentito in dovere di rispondere a critici che non parlano come ricercatori che si rivolgono a colleghi, ma con i toni del padrone, o del consulente del padrone, che vede gli studiosi come risorse il cui uso va ottimizzato. > Nel ventunesimo secolo, patrocinare una valutazione della ricerca basata sulla > revisione paritaria invece che su metodi scientometrici appare obsoleto e > controproducente. Da decenni si va perseguendo una costante innovazione > tecnologica trainata dalla necessità di ottimizzare risorse limitate quali gli > scienziati. La ricerca scientometrica conduce a soluzioni più efficienti ed > economiche per valutare la ricerca e soddisfare le esigenze degli utenti.4 Anche se COARA, come pare, mira solo alla riduzione del danno, l’ammissione delle agenzie di valutazione non solo alla coalizione ma al suo stesso consiglio direttivo mette a rischio pure questo modesto obiettivo: le agenzie di valutazione di massa, avendo bisogno di armi di valutazione di massa, portano con sé un enorme conflitto di interessi, che può condurre – come mostra il caso italiano5 – l’intrapresa al fallimento. 4. QUALITÀ E LIBERTÀ La valutazione fra pari, anche in COARA, è legata, come discussione idealmente libera e accessibile, alle pratiche della scienza aperta – pratiche che numerose istituzioni politiche si sono date la pena di definire e raccomandare. In un ambiente addomesticato dalla valutazione amministrativa questi interventi inducono a trattare l’open science come uno dei tanti adempimenti richiesti agli addetti alla ricerca, spesso pensati senza neppure una particolare lungimiranza. Per esempio, nel 2015 la Commissione europea rappresentava la scienza aperta (p. 33) così: “L’ Open Science è un cambiamento tanto importante e dirompente quanto l’e-commerce per la vendita al dettaglio”. Era già, allora, chiaro che i cosiddetto platform capitalism stava esponendo il web pubblico a privatizzazione, monopolio e sfruttamento: nel 2010 lo stesso inventore del web, Tim Berners-Lee, aveva già lanciato il suo allarme. Ma la Commissione europea inseriva spensieratamente nell’ecosistema della scienza aperta (p.39) piattaforme proprietarie come Academia.edu o Mendeley, acquistata da Elsevier nel 2013. Oggi è diventato facile criticare la scienza di stato, quando viene stabilita per decreto oltreoceano. Ma non si tratta di qualcosa di nuovo, spuntato nottetempo come un fungo: anche se riducessimo a periferica la valutazione di stato italiana, non possiamo trattare come tale l’interferenza dell’Unione Europea nelle modalità e nelle valutazioni della scienza – a dispetto di un Kant molto invocato e poco letto. La rivoluzione scientifica moderna, dal canto suo, non nacque da prescrizioni di monarchi e di despoti illuminati. Secondo Paul David, l’idea della scienza come bene comune, basata sulla collaborazione e finanziata da mecenati aristocratici, si radica in un mondo pre-capitalistico e assai meno burocratico. Se vogliamo allentare la morsa della burocrazia che priva la ricerca di qualità, non possiamo concepire l’apertura come un compito amministrativo. Infatti, l’obiettivo non è quello di devolvere risorse in pubblicazioni a pagamento per i profitti o le rendite private,6 ma di mantenere o ricreare le condizioni che consentono alle comunità scientifiche di curarsi della qualità del loro lavoro attraverso la collaborazione e la critica libera. 5. QUALITÀ: UNA DEFINIZIONE SFUGGENTE Secondo Wilhelm von Humboldt, la cui riforma universitaria è stata per lo più smantellata dall’Unione Europea tramite il cosiddetto processo di Bologna, è “caratteristica degli istituti scientifici superiori continuare a trattare la scienza come un problema ancora non del tutto risolto e perciò rimanere sempre alla ricerca”. Anche per questo – non solo perché non sappiamo concepire un criterio universale di verità – la definizione di qualità è così elusiva. Nel linguaggio aziendale la qualità consiste in parametri rigorosamente definiti a cui si devono adeguare prodotti e processi. La qualità della ricerca, però, non essendo riducibile a standard amministrativamente accertabili, può essere meglio indagata a partire da un testo eccentrico: Lo Zen e l’arte della manutenzione della motocicletta di Robert M. Pirsig. Nel libro l’alter ego di Pirsig a Bozeman, Fedro, prova in primo luogo a trattare la qualità non come una questione teoretica, bensì pragmatica. Il docente abolisce i voti e chiede agli studenti di valutare i loro compiti da sé, giorno per giorno. Alla fine scopre che gli studenti tendono all’imitazione reciproca e dell’insegnante. Non è una sorpresa: se ci si affida alla pratica senza nessuna riflessione teoretica si otterrà soltanto una moda, i cui capricci sono imitabili ma irriducibili a concetto. Paradossalmente, questa è anche il peccato originale della valutazione bibliometrica della ricerca: perché cercare l’inafferrabile e non scalabile qualità quando si può facilmente calcolare, tramite le citazioni, quanto va di moda? Il metodo scientifico, per Pirsig, è il modo in cui esseri razionali ma finiti selezionano una singola (e forse provvisoria) verità tra molte ipotesi, pur senza essere in grado di afferrare la Verità in generale. E nell’uso di questo metodo – che è diverso dall’annotazione amministrativa dell’impatto di qualcosa che non ci si cura di capire – si manifesta, di volta in volta e provvisoriamente, la qualità. Per cogliere il senso di questo processo, però, bisogna farne parte, cioè essere ricercatori e non burocrati che, più o meno “responsabilmente”, registrano l’“impatto” di qualcosa che rimane loro oscuro. Questa tesi non va interpretata come una mistica della ricerca: semplicemente, quando adottiamo criteri “statici” di qualità per valutazioni puntuali quali concorsi e assunzioni, dobbiamo essere consapevoli che non sono in grado di render giustizia all’intero processo, che non è statico ma dinamico.7 Pertanto, come Kant sostenne nel Conflitto delle facoltà, ridurre le università a istituzioni ministeriali sottomesse a criteri di verità interamente estrinseci e amministrativamente applicati, mette a repentaglio la credibilità stessa della scienza. La credibilità scientifica, infatti, non dipende dall’adesione a parametri bensì dalla libertà della critica pubblica, proprio perché si forma entro un processo non terminato e non terminabile. Questa libertà degli studiosi, che è condizione della scienza, non consiste in una facoltà di dare ordini, bensì nella possibilità di mettere in discussione anche gli studiosi-funzionari al servizio dell’amministrazione – criteri amministrativi di valutazione compresi. Perciò > alla domanda “chi valuta?” Kant risponde: la comunità scientifica, perché solo > studiosi possono giudicare altri studiosi. Se questo giudizio venisse alterato > da ragioni esterne alla sua propria ragione, cioè la ricerca della verità, la > scienza non sarebbe più tale. 6. L’UNIONE ELUSIVA Per Kant l’economia interna dell’università richiede, in primo luogo, la libertà. I politici, da parte loro, dovrebbero occuparsi delle infrastrutture della ricerca e non del modo in cui i ricercatori la fanno. Caesar non est supra grammaticos. Molti tecnocrati europei, quando si tratta di appellarsi ai “nostri valori”, amano o amavano presentarsi, a proposito o a sproposito, come kantiani. Ma l’accordo ARRA e COARA non possono dirsi tali se non propagandisticamente. 1. La Commissione europea scopre, sia pure in grave ritardo, che la valutazione quantitativa della ricerca produce quantità e non qualità. 2. Per risolvere il problema promuove una coalizione lasca di università, istituzioni di ricerca, società di studi e agenzie di valutazione, anche centralizzate, con lo scopo di riformare la valutazione della ricerca, come se il dominio della bibliometria e il danno alla qualità della ricerca fosse esito esclusivo di iniziative venute dai ricercatori, che vanno incoraggiati ad autocorreggersi. Un politico kantiano avrebbe fatto esattamente l’opposto. 1. In primo luogo, avrebbe lasciato la valutazione della ricerca ai ricercatori. 2. In secondo luogo, avrebbe indagato sulle eventuali condizioni infrastrutturali – le buone strade, la buona moneta, lo snello diritto di cambio della citazione in epigrafe – che un’azione politica avrebbe potuto migliorare. E non avrebbe fatto fatica a scoprire che la bibliometria, come arma di valutazione di massa, è indispensabile dove la valutazione è amministrativa e centralizzata – come in Italia con l’ANVUR e in Spagna con l’ANECA. E avrebbe usato la sua autorità legislativa per eliminare o ridurre al minimo questo tipo di valutazione. “Quanto al resto, lasciateci fare!” L’iniziativa politica europea si è invece concentrata, soluzionisticamente, sul come si valuta non solo senza chiedersi chi valuta, ma anche dando per scontata la legittimità delle agenzie di valutazione statali e soprattutto che queste, ammesso e non concesso che siano indipendenti, possa seriamente impegnarsi a minimizzare o abolire le armi – bibliometriche – di valutazione di massa e quindi a ridimensionare o abolire se stesso. Così il peccato originale della sovrapposizione di potere amministrativo e ricerca continua ad affliggere COARA, senza che l’UE, in veste di Unione Elusiva, abbia il cervello e il cuore di redimerlo.8 -------------------------------------------------------------------------------- 1. I. Kant, Il conflitto delle facoltà, AK VII, 19-20 n2, traduzione di Domenico Venturelli (Brescia : Morcelliana, 1994), con qualche modifica. ︎ 2. Ha, infatti, reso facile sostenere che qualsiasi pretesa è “scientifica” perché pubblicata su una rivista a revisione paritaria (Adam Marcus, Ivan Oransky. “The Scientific Literature Can’t Save You Now”. In: The Atlantic (2025) https://www.theatlantic.com/science/archive/2025/02/rfk-kennedy-vaccines-scientific-literature/681681/ ︎ 3. “Rather than serving as a scientific certification process, administrative evaluation functions as a mechanism for ascribing value to research outputs and contributions based on criteria established by administrative or policy authorities”: Alberto Baccini, COARA will not save science from the tyranny of administrative evaluation, https://arxiv.org/abs/2408.05587v3, 2025, §6. ︎ 4. Giovanni Abramo, The forced battle between peer-review and scientometric research assessment: Why the CoARA initiative is unsound, 2024. ︎ 5. Come mostra, per quanto concerne l’Anvur, la distanza fra gli impegni sottoscritti e quelli programmati. ︎ 6. Come nei conservativi accordi trasformativi, finiti un vicolo cieco. ︎ 7. Per esempio la discussione fra matematici può essere documentata da pubblicazioni che in passato erano riviste e ora, come mostra il caso Perel’man, un archivio istituzionale ad accesso aperto. ︎ 8. Anche perché i suoi consulenti più rispettati, ancorché non eletti (The Future of European Competitivenss: A competitiveness strategy for Europe (Part A) 2024), deplorando che poche università europee raggiungano “top levels of excellence” (eccellenza misurata, a dispetto di COARA, sulla base del volume di pubblicazioni in “top academic journals”, p. 24) e pesando il valore della ricerca pubblica in base alla sua capacità di privatizzarsi in brevetti (p.25), trattano i ricercatori come risorse da spremere per estrarne “innovazione” (p.24) senza mai chiedersi se a renderli conformisti non sia proprio la servitù amministrativa a cui sono sottomessi. ︎
June 11, 2025
ROARS