Tag - A volte ritrattano

Cosa resta dell’università italiana (II): precarizzazione e distorsioni della ricerca
A quindici anni dalla riforma Gelmini, l’università italiana appare più fragile, diseguale e precaria. I tagli e i criteri di finanziamento hanno ampliato le distanze tra atenei e territori. La precarizzazione è diventata la condizione normale del lavoro accademico. La valutazione ha aumentato la produttività, ma anche le distorsioni nei comportamenti scientifici. Dietro i numeri, prende forma un “falso miracolo” che mette in discussione la qualità stessa della ricerca. (Pubblichiamo la seconda parte l’articolo “Cosa resta dell’Università italiana dopo un quindicennio di riforme?”, uscito sul numero monografico de Il Ponte (1/2026) dedicato all’Università.) Per leggere la prima parte si può cliccare qui. GLI EFFETTI DELLA RIFORMA A distanza di quindici anni dalla Riforma Gelmini, è possibile tracciare un bilancio sintetico dell’evoluzione di alcune variabili chiave che definiscono il funzionamento del sistema universitario italiano. Tre espressioni possono riassumere in modo efficace le principali tendenze emerse: compressione selettiva e cumulativa dei finanziamenti, precarizzazione crescente del personale docente, e valutazione amministrativa pervasiva e sistemica. Compressione selettiva e cumulativa. L’espressione, coniata da Gianfranco Viesti (2016), descrive sinteticamente gli effetti delle politiche di finanziamento dell’università a partire dal 2008. Secondo Viesti, queste politiche hanno comportato una riduzione complessiva dei fondi destinati all’istruzione superiore. La Figura 1 ricostruisce l’andamento del FFO a prezzi correnti e a prezzi costanti dal 2000 al 2024. A prezzi costanti, solo nel 2021 il FFO è tornato al livello dell’anno immediatamente precedente la riforma Gelmini, per poi tornare a contrarsi negli anni successivi. Contestualmente, la quota premiale è aumentata dal 7% nel 2009 al 30% nel 2021, facendo sì che una porzione sempre più ampia delle risorse disponibili fosse distribuita su base competitiva. “Compressione selettiva” indica che i tagli si sono concentrati su specifiche sedi e aree geografiche, in particolare nel Mezzogiorno. “Cumulativa” indica che gli effetti di queste riduzioni si sono amplificati nel tempo, creando un divario crescente tra atenei. Questo processo ha portato a una segmentazione del sistema universitario nazionale, con la creazione di università di “serie A” e di “serie B”, influenzando negativamente la mobilità sociale e lo sviluppo delle aree più svantaggiate del paese. In modo paradossale, la retorica sui finanziamenti legati al merito della ricerca come “fotografato” dalla VQR, si scontra però con i dati FFO, che mostrano che la quota premiale ricevuta da ciascun ateneo è semplicemente proporzionale alla sua dimensione, misurata in termine di personale docente (Baccini, 2017a, 2017b). Cosa ha determinato quindi la compressione selettiva e cumulativa?   Figura 1. Il Fondo di Finanziamento Ordinario delle università italiane a prezzi correnti e a prezzi costanti. Secondo Viesti, la compressione selettiva e cumulativa del finanziamento è il frutto della combinazione dell’applicazione del criterio del costo standard (Viesti, 2016), del proporzionamento di parte del finanziamento alla contribuzione studentesca (Viesti, 2016), e dei finanziamenti legati ai dipartimenti di eccellenza. In effetti la distribuzione di risorse operata dai dipartimenti di eccellenza è fortemente sperequata tra atenei. È plausibile ritenere che il governo Renzi, come suggerivano da tempo i “Bocconi boys” dal sito de LaVoce.info, abbia introdotto la gara per i dipartimenti di eccellenza proprio per correggere l’anomalia di una quota premiale che non operava una redistribuzione significativa dei fondi tra università. La distribuzione dei fondi per i dipartimenti di eccellenza è legata all’uso di un indicatore (ISPD) calcolato a partire dai risultati della VQR. I problemi di quell’indicatore, fortemente voluto dalla CRUI, furono subito segnalati pubblicamente (Bertoli Barsotti, 2017; Bruno, 2014; Giuseppe De Nicolao, 2014; G. De Nicolao, 2014; De Nicolao, 2017), nell’indifferenza generale dei decisori politici e dell’ANVUR. Un recente articolo ha mostrato che l’indicatore ISPD opera una standardizzazione “anomala” che amplifica differenze non significative tra dipartimenti, con la conseguenza che alcuni che vengono premiati hanno performance identiche a quelle di altri che invece non ottengono nessun premio (Galli & Greco, 2025). Precarizzazione. A partire dalla Legge Gelmini le università italiane sono state sottoposte alla sistematica sostituzione di personale a tempo indeterminato, con personale a tempo determinato (Figura 2). Nel 2010 erano occupati a tempo indeterminato 57.449 professori ordinari, professori associati e ricercatori a tempo indeterminato (RTI) che rappresentavano l’81% del personale docente e ricercatore complessivo. Il restante 19% era rappresentato da 13.109 titolari di assegni di ricerca. La legge Gelmini mise ad esaurimento i ricercatori a tempo indeterminato, sostituendoli con due figure di ricercatori a tempo determinato, cosiddetti di tipo A (RTDA) e di tipo B (RTDB). Da quel momento la forbice tra personale a tempo indeterminato e personale a tempo determinato si è progressivamente allargata: nel 2020 si contavano 46.245 ordinari/associati/RTI pari al 65% del personale. Gli assegnisti appresentavano il 22% del totale (15.849), gli RTDA il 7% (5.192) e gli RTDB il restante 6% (4.616). Figura 2. Personale di ricerca delle università italiane, totale e a tempo indeterminato (ordinari, associati e ricercatori a tempo indeterminato). Nel 2022 il legislatore è intervenuto sul pre-ruolo universitario con la legge 79/2022. La riforma prevede l’abolizione di RTDA, RTDB e assegni di ricerca, che vengono sostituiti dalla figura del RTT (Ricercatore in Tenure Track) e dal contratto di ricerca. In particolare, il contratto di ricerca introduce tutele per il lavoro di ricerca proprie dei contratti di lavoro dipendente, che erano del tutto assenti per gli assegni di ricerca. Poiché entrambe le nuove figure sono più costose delle precedenti e la norma non prevede nessuno stanziamento aggiuntivo di risorse per gli atenei, i governi Draghi prima e Meloni poi, hanno prorogato le figure previgenti. Questa proroga ha permesso di usare i finanziamenti straordinari del Piano Nazionale di Ripresa e Resilienza per assumere personale con contratti RTDA e soprattutto con assegni di ricerca (Figura 3). Negli anni 2022 e 2023 gli RTDA sono cresciuti del 36%, passando da 6.803 a 9.222. Figura 3. Personale di ricerca delle università italiane a tempo determinato (RTDA, RTDB, RTT, Assegni di ricerca). Per gli assegni di ricerca la crescita abnorme è avvenuta con un anno di ritardo, verosimilmente in seguito all’entrata in esercizio dei PRIN 2022/PNRR: dai 15.891 assegnisti del 2023 si passa a 23.958 nel 2024 (+51%). Al 31 dicembre 2024 gli RTDA rappresentavano l’8% e gli assegnisti il 27% del totale del personale di ricerca degli atenei. Per completare il quadro, c’è da tenere conto che le risorse PNRR sono state usate anche per fare crescere in modo abnorme gli iscritti al dottorato di ricerca, passati dagli 11mila del 2019 agli oltre 17mila del 2023.Figura 3. Personale di ricerca delle università italiane a tempo determinato (RTDA, RTDB, RTT, Assegni di ricerca).Di fatto, mentre il Parlamento scriveva una norma (L. 79/2022) per allineare il contratto di ricerca pre-ruolo ai contratti post-dottorato prevalenti in Europa, i governi Draghi e Meloni con i fondi PNRR si muovevano in direzione contraria, realizzando la più grande assunzione di personale precario nella storia dell’università italiana. Personale destinato nella grandissima parte a essere espulso dal lavoro di ricerca entro il 2027, quando scadranno i contratti RTDA e gli assegni di ricerca attualmente attivi. Valutazione pervasiva. Come anticipato, con la legge Gelmini viene istituito un capillare sistema di valutazione amministrativa della ricerca governato da ANVUR. La valutazione riguarda sia le istituzioni che sono soggette a valutazione massiva con i periodici esercizi VQR, sia i singoli ricercatori con l’istituzione dell’Abilitazione Scientifica Nazionale. Entrambi i livelli di valutazione sono agganciati a sistemi di incentivazione che agiscono sia a livello istituzionale che individuale (abilitazione, assunzione, passaggio di carriera). Non esistono studi sistematici sul punto, ma molta evidenza aneddotica documenta che i sistemi di incentivazione che agiscono a livello nazionale si trasmettono per imitazione a livello locale. Questo significa, per esempio, che la distribuzione dei fondi ai dipartimenti all’interno degli atenei avviene con una varietà di meccanismi specifici che tendono a riprodurre la premialità adottata per la distribuzione del FFO alle università. Non sono poche le università che trasferiscono risorse ai dipartimenti sulla base di algoritmi che premiano le stesse pubblicazioni premiate dall’ANVUR nella VQR.In modo analogo, le regole per i concorsi per l’assunzione o i passaggi di carriera tendono a adottare le regole di valutazione vigenti nella ASN, per cui, per esempio, anche a livello locale, vengono attribuiti punteggi diversi ad articoli usciti su riviste che ANVUR ha classificato in Classe A. La pervasività di questo sistema di incentivi nazionali e locali ha prodotto una modificazione profonda del modo in cui si fa ricerca in Italia. Stefano Fantoni, primo presidente di ANVUR, scriveva nel 2015: > A ormai più di quattro anni dalla nascita dell’ANVUR possiamo dire che la > valutazione e il riconoscimento del merito siano entrati a far parte in modo > definitivo e irreversibile delle pianificazioni delle università e delle > organizzazioni di ricerca. Il reclutamento dei giovani nei ruoli accademici e > degli enti di ricerca, gli avanzamenti di carriera, l’identificazione delle > specificità che tengono conto della qualità della ricerca svolta, la > programmazione didattica, il processo di una continua autovalutazione: tutto è > ormai pervaso dalle informazioni e dalle valutazioni che l’ANVUR ha fatto e > sta facendo. […] La battaglia contro il partito de: ‘la valutazione sì, > tuttavia…’, del continuo rimandare per paura di rinnovarsi e riformarsi può > dirsi vinta. Il comparto dell’alta formazione e della ricerca è tra i pochi, > se non addirittura l’unico, che ha intrapreso questo percorso con decisione e > senza manifestazioni di protesta” (Fantoni, 2015). Qualche mese dopo, Andrea Graziosi, neo presidente del consiglio direttivo di ANVUR, in una intervista a Il Sole24ore (9 maggio 2016) sosteneva: > “la valutazione della ricerca è entrata nella vita ordinaria delle università > italiane. Come spesso accade nel nostro paese, l’innovazione arriva in ritardo > rispetto ad altri sistemi nazionale. […] La valutazione può essere > un’operazione di verità che permette all’università di prendere atto dei suoi > pregi e difetti e di evidenziare sacche di malcostume. […] la valutazione > migliora l’università”. Non si contano i contributi di coloro che sostengono che VQR e ASN hanno contribuito a modernizzare i meccanismi di funzionamento dell’accademia italiana, promuovendo la meritocrazia e incrementando significativamente la qualità scientifica della produzione nazionale. Ci limitiamo pertanto alla storia “ufficiale” contenuta nei rapporti biennali sull’università italiana redatti da ANVUR. Nel 2018 il secondo Rapporto Biennale sullo Stato dell’Università Italiana si riconosce che l’Italia spende poco per ricerca, che le entrate delle università italiane sono diminuite, e che tutte le voci di finanziamento si sono ridotte. Questa riduzione non si è accompagnata a una sperequazione territoriale del finanziamento: anzi la quota di risorse destinate al Sud, considerato che al Sud sono diminuiti gli studenti, è addirittura cresciuta grazie alla parte premiale del FFO. Per quanto riguarda la ricerca, “la crescita della produzione scientifica italiana è stata soprattutto nel decennio in corso superiore alla media mondiale”. Il miglioramento non è stato solo quantitativo, ma anche “qualitativo”: > “La posizione dell’Italia della ricerca è oggi, grazie ai miglioramenti > registrati negli ultimi 15 anni, migliore rispetto a quella di grandi paesi > come Francia e Germania”. Addirittura, la produttività scientifica italiana sopravanza quella di Francia e Germania. Gli indicatori citazionali sono in netto miglioramento.Nel rapporto successivo (ANVUR, 2023), arrivato a cinque anni di distanza dal precedente, il miglioramento della ricerca italiana è confermato: > “In termini di produzione scientifica l’Italia mostra nel decennio in corso > una crescita superiore alla media mondiale. Di conseguenza, l’Italia aumenta > la propria quota di produzione mondiale, giungendo fino al 3,9% nella media > del sessennio 2016-2021: tale dato si rivela particolarmente significativo, > dato che nello stesso periodo i Paesi europei più importanti (Francia, > Germania e Regno Unito) mostrano una lieve riduzione della propria quota. […] > L’impatto citazionale medio della produzione scientifica (calcolato come > rapporto tra numero di citazioni e numero di pubblicazioni, normalizzato per > la diversa rilevanza dei settori scientifici) pone la ricerca italiana tra le > migliori d’Europa, sopravanzando Paesi quali la Francia e la Germania e, > guardando al di fuori dell’Europa, anche Stati Uniti e Canada. […] La ricerca > scientifica italiana, in termini di produttività, sopravanza sia quella della > Francia, che quella della Germania, attestandosi sui livelli di Spagna e Regno > Unito, che confermano il loro ruolo al vertice tra i Paesi europei”. Anziché limitarsi a descrivere la crescita della ricerca in Italia come nel precedente Rapporto, ANVUR ha una spiegazione per questi risultati: > “è probabile che una spinta significativa l’abbiano data le regole e le > procedure per l’abilitazione scientifica nazionale al ruolo di professore > universitario”. Quindi, parafrasando Graziosi, la valutazione ha migliorato l’università italiana. Anche fonti internazionali hanno riconosciuto il miglioramento della performance scientifica dell’Italia. Un rapporto commissionato dal governo britannico già nel 2016 esprimeva preoccupazione per la possibilità che il sistema universitario italiano potesse superare quello del Regno Unito in termini di produttività e impatto normalizzato della ricerca (Elsevier, 2017). Questa tendenza è stata confermata dai dati più recenti: nel 2020 l’Italia ha infatti superato paesi storicamente leader nella ricerca come Francia, Canada, Germania e Stati Uniti per impatto citazionale standardizzato, raggiungendo i livelli del Regno Unito (Department for Business, 2022). Alla luce di questi risultati, non sarebbe errato usare l’espressione “il miracolo italiano” della ricerca: in un contesto di contrazione delle risorse pubbliche, l’introduzione di rigorosi meccanismi di valutazione avrebbe innescato un recupero di efficienza che avrebbe a sua volta consentito al sistema universitario italiano di riacquisire un ruolo di primo piano nella geografia scientifica globale. Ma questa storia “ufficiale” è credibile? IL FALSO MIRACOLO ITALIANO. L’adozione capillare e pervasiva di procedure di valutazione amministrativa della ricerca massive (VQR) e individuali (ASN, FFABR etc.) governate da ANVUR ha determinato una modificazione profonda dei comportamenti individuali e collettivi che non è ancora stata studiata in modo sistematico. La crescita della produzione, della produttività e dell’impatto citazionale della ricerca italiana è stata accompagnata dalla adozione di cattive pratiche di pubblicazione e citazione da parte dei ricercatori italiani, al fine di rispondere agli incentivi quantitativi definiti nei processi di valutazione. Le evidenze aneddotiche sono conoscenza comune degli universitari italiani. Alcune di queste evidenze sono anche scritte in articoli pubblicati. Andrea Bonaccorsi, già membro del consiglio direttivo di ANVUR, in un articolo in cui sostiene che i “comportamenti opportunistici [..] rappresentano un fenomeno marginale e limitabile con opportune misure” (Bonaccorsi, 2017), scrive: > “Su questi aspetti [gift-authorship] l’esperienza personale degli ultimi anni > è straordinaria, All’indomani della VQR nel mio Ateneo [Pisa ndr] un direttore > di dipartimento, il cui posizionamento nel settore scientifico era molto > debole, ha scritto ai colleghi di provvedere, in vista della successiva > valutazione, a inserire come co-autori coloro che risultavano inattivi, cioè > con un numero di pubblicazioni inferiori al richiesto. […] all’indomani della > uscita dei criteri per l’Abilitazione Scientifica Nazionale ho visto con i > miei occhi la tabellina di un settore concorsuale nella quale veniva fatta la > lista dei lavori sottomessi [sic] a rivista o già accettati, con una > ripartizione scientifica dei casi nei quali agli autori (tutti giovani) > sarebbe stato chiesto di aggiungere il nome di un altro prima della > pubblicazione finale, il tutto controllato da un ben organizzato gruppo di > professori ordinari” (Bonaccorsi, 2017, pp. 36-37). Il fenomeno più studiato è il cambiamento delle abitudini citazionali, ed in particolare l’uso opportunistico delle autocitazioni. Studi empirici sono stati condotti a livello di singoli settori di ricerca in riferimento sia alle procedure VQR che ASN (Akbaritabar et al., 2021; Scarpa et al., 2018; Seeber et al., 2017; Vercelli et al., 2022). Baccini, De Nicolao e Petrovich (2019) hanno mostrato che la crescita dell’impatto scientifico dell’Italia è dovuta ad un massiccio cambiamento nelle abitudini citazionali nazionali dopo la riforma del 2010. L’ipotesi di partenza del lavoro è la seguente: in Italia avere un elevato numero di citazioni è necessario per superare le soglie ed aspirare ad ottenere l’abilitazione scientifica nazionale. I ricercatori sono portati ad adottare strategie di citazione in grado di accrescere i propri indicatori: il modo più semplice è quello di autocitarsi e magari farsi citare dai propri collaboratori. Baccini e coautori hanno costruito un indice di autoreferenzialità nazionale nella ricerca (inwardness) che misura quanto i vari paesi citano sé stessi nella propria letteratura scientifica. L’indicatore è definito come il rapporto tra il numero totale di autocitazioni di un paese e il numero totale di citazioni ricevute da quello stesso paese. L’indicatore è in grado di tracciare non solo le autocitazioni dei singoli autori, ma anche i club di citazione intra-nazionali, cioè gruppi di autori che si citano mutuamente. Il confronto dell’andamento dell’indicatore nel tempo per l’Italia rispetto agli altri paesi del G10 indica che in Italia, dopo il 2009, l’autoreferenzialità citazionale è cresciuta nella maggior parte dei campi scientifici; una tendenza unica tra i paesi del G10. Nel 2016 l’Italia è diventata – sia a livello complessivo che per la grande maggioranza dei campi di ricerca – il secondo paese con più alta autoreferenzialità citazionale. Solo gli Stati Uniti hanno un’autoreferenzialità strutturalmente più alta, spiegabile però con la leadership scientifica di quel paese.   Figura 4. Andamento dell’indicatore di inwardness nei paesi del G10 (da Baccini et al.  2019). Baccini e coautori considerano due obiezioni fondamentali al loro lavoro. La prima è che il valore dell’indicatore di autoreferenzialità dipende dalle collaborazioni internazionali, cioè dal numero di pubblicazioni scritte da italiani con coautori stranieri. L’aumento dell’autoreferenzialità potrebbe essere dovuto ad un aumento del grado di internazionalizzazione della scienza italiana. I dati mostrano però che l’Italia non cresce molto in collaborazioni internazionali: a fine periodo continua ad essere il paese del G10 con la seconda minore quota di pubblicazioni internazionali. Figura 5. Inwardness e collaborazioni internazionali. La seconda obiezione è che la crescita delle autocitazioni italiane sia dovuta ad un effetto “leadership”: la scienza italiana si autocita di più perché ha guadagnato in questi anni una posizione di preminenza nel panorama scientifico internazionale. Se questo fosse vero la crescita delle autocitazioni sarebbe accompagnata da una crescita delle citazioni provenienti da altri paesi. In realtà, per quanto riguarda le citazioni provenienti da altri paesi, l’Italia passa dalla penultima alla terzultima posizione tra i paesi del G10. Figura 6. L’impatto della produzione scientifica italiana sui paesi del G10. Baccini e Petrovich (2023) hanno rafforzato l’analisi considerando l’evoluzione delle autocitazioni scientifiche a livello nazionale in 50 paesi, utilizzando dati Scopus dal 1996 al 2019. I risultati mostrano che, per la maggior parte dei Paesi, i tassi di autocitazione sono diminuiti nel tempo seguendo andamenti simili. In questo contesto, tuttavia, vi sono alcuni Paesi che presentano un comportamento anomalo, con tendenze all’autocitazione significativamente diverse da quelle della maggior parte dei paesi “standard”. In particolare dodici paesi mostrano un andamento anomalo, con tassi di autocitazione in crescita, tra cui l’Italia. Gli altri paesi con trend anomali includono India, Iran, Pakistan, Cina, Russia, Corea del Sud, Malesia, Egitto, Arabia Saudita, Turchia e Indonesia. Figura 7. I paesi fuori dalla nuvola hanno andamento anomalo delle autocitazioni (Baccini-Petrovich 2023) Questi paesi condividono l’adozione di politiche della ricerca caratterizzate da un tratto comune: l’introduzione di premi diretti o indiretti per le prestazioni bibliometriche degli scienziati. I dati documentano una associazione temporale per tutti i paesi anomali tra i cambiamenti nelle politiche, da un lato, e i cambiamenti nel comportamento autocitazionale della comunità scientifica nazionale. Ciò suggerisce che gli scienziati rispondono effettivamente al nuovo clima di incentivi, modificando, tra le altre cose, le loro abitudini citazionali. La pressione generata da aggressive politiche di incentivazione sembra quindi in grado di influenzare rapidamente e visibilmente il comportamento citazionale di interi Paesi, distorcendo le classifiche globali dei Paesi basate sulle citazioni. Baccini e Petrovich sostengono che il fattore cruciale che influenza questo comportamento anomalo in termini di autocitazioni sia la vicinanza degli incentivi basati sulle citazioni alla carriera e al salario del singolo ricercatore: quanto più gli incentivi influenzano la progressione di carriera e il salario, tanto più è probabile che influenzino il comportamento citazionale. Nei paesi in cui gli indicatori citazionali contribuiscono a complesse formule di finanziamento a livello istituzionale, l’influenza sul comportamento citazionale è più distante dai singoli ricercatori e, di conseguenza, meno significativa. Un’ultima, ma cruciale, area di riflessione riguarda la diffusione di comportamenti che configurano vere e proprie frodi scientifiche. Tra questi rientrano la manipolazione o la fabbricazione di dati e immagini, il plagio, la pubblicazione multipla dello stesso lavoro in sedi diverse e la compravendita dell’autorialità degli articoli. Questi fenomeni siano difficili da osservare direttamente.   Uno degli indicatori indiretti più significativi della loro diffusione è rappresentato dal numero di ritrattazioni di articoli scientifici. Una ritrattazione è un atto formale con cui un editore o gli stessi autori dichiarano pubblicamente che un articolo già pubblicato non avrebbe dovuto essere accettato, e che le informazioni contenute al suo interno non devono essere considerate valide né utilizzate come base per future ricerche. In altre parole, la ritrattazione rappresenta un segnale forte di anomalia nel processo scientifico. Secondo un’analisi comparativa condotta da Marco-Cuenca et al. (2021), l’Italia è, insieme alla Germania, il paese dell’Unione Europea con la più alta incidenza di ritrattazioni scientifiche. Anche i dati raccolti dal database Retraction Watch confermano questa tendenza, evidenziando un netto aumento del numero di articoli ritrattati in Italia a partire dal 2010, proprio in concomitanza con l’adozione su larga scala di meccanismi valutativi basati su indicatori quantitativi. Cabanac et al. (2023) analizzano la distribuzione geografica delle ritrattazioni, combinando dati da Crossref e Dimensions, al fine di identificare contesti a rischio e pattern sistemici. L’analisi mostra che le ritrattazioni non sono distribuite uniformemente tra paesi, ma si concentrano in alcune aree geografiche con intensità diverse. L’Italia emerge come uno dei paesi europei con una densità significativa di articoli ritrattati, sia in termini assoluti che in rapporto alla produzione complessiva. UNA DIAGNOSI SBAGLIATA, UNA CURA DANNOSA La diagnosi sullo stato di salute dell’università italiana, formulata negli anni immediatamente precedenti alla riforma Gelmini, si è rivelata in larga parte fuorviante. I mali dell’università erano reali — carenza cronica di risorse, opacità delle procedure di reclutamento —, ma l’analisi dominante, condivisa trasversalmente da forze politiche e accademiche, ha finito per attribuire la responsabilità principale al supposto basso rendimento del sistema e all’assenza di meccanismi di valutazione meritocratica. La “cura” proposta e adottata con il consenso trasversale di tutte le principali forze politiche, sia di centro-destra sia di centro-sinistra, è stata quella già sperimentata in diversi paesi emergenti con l’obiettivo di migliorare il posizionamento nelle classifiche internazionali: una spinta decisa verso la monetizzazione, diretta o indiretta, delle prestazioni scientifiche, valutate attraverso indicatori quantitativi standardizzati di produttività e impatto. La valutazione è così diventata uno strumento centrale per regolare l’allocazione delle risorse e la distribuzione del potere all’interno del sistema accademico. Tuttavia, questa cura non ha affrontato — né tanto meno risolto — i problemi strutturali dell’università italiana: le risorse continuano a essere scarse e le pratiche di reclutamento, seppur rinnovate nella forma, restano spesso opache nella sostanza. Anzi, la nuova architettura valutativa ha introdotto sintomi inediti: autoreferenzialità crescente, omologazione tematica, e una preoccupante diffusione di comportamenti opportunistici e veri e propri fenomeni patologici, come frodi scientifiche, citazioni incrociate strategiche, e, nelle scienze umane e sociali, controllo sistematico da parte di gruppi di ordinari delle riviste più importanti nelle classifiche ANVUR. Di fatto, la riforma Gelmini, mettendo al centro del sistema la valutazione condotta da ANVUR, ha introdotto un controllo amministrativo e tecnocratico di emanazione governativa sull’università e sulla ricerca italiana. Più precisamente, come scrive Carla Barbati: > “La valutazione viene progressivamente configurata come una sorta di funzione > indivisibile, capace sia di fissare le proprie regole sia di verificane il > rispetto sia di farsi titolo per la definizione della misura, premiale o > sanzionatoria, connessa ai suoi risultati, che perciò sposta […] l’asse di > governo del settore” verso un “nuovo centro”, l’ANVUR che “acquisisce la > capacità conformativa di un’attività che diventa regolazione e insieme > controllo, assistita dalla forza speciale di esprimersi in determinazioni che > l’Autorità di Governo è chiamata a recepire nei propri provvedimenti” > (Barbati, 2019, p. 18). La valutazione ha finito così per ridefinire profondamente la distribuzione del potere all’interno del mondo accademico. Il sistema di valutazione governato da ANVUR ha spostato il potere dai “baroni”, ad una élite accademica scelta dalla politica direttamente, come i membri del consiglio direttivo di ANVUR, o indirettamente, come i membri dei gruppi di valutazione della VQR e delle commissioni per la classificazione delle riviste ai fini della ASN.  Ai cosiddetti “baroni” del periodo pre-Gelmini si sono sostituiti nuovi gruppi dominanti — i “baroni post-Gelmini” — spesso coincidenti, peraltro, con i precedenti. Ma questi nuovi vincitori, oltre a detenere più risorse e più leve di potere, beneficiano ora di una legittimazione formale: l’etichetta di eccellenza certificata dagli esercizi di valutazione dell’ANVUR. Il messaggio implicito è chiaro: chi ha vinto lo ha fatto perché lo meritava. Ai perdenti non resta che attendere il prossimo turno, sperando in un riscatto futuro, o più realisticamente adattarsi, possibilmente in silenzio, a un ruolo subalterno. La riforma Gelmini, attraverso il processo di precarizzazione del personale, ha accentuato la gerarchizzazione interna all’università. Un esercito di dottorandi, assegnisti e ricercatori a tempo determinato si trova in posizione di dipendenza crescente nei confronti del proprio principal investigator. Le carriere si decidono entro compartimenti disciplinari rigidi, dominati dai gruppi già vincenti, che controllano i percorsi di abilitazione nazionale e i concorsi locali. Nei settori cosiddetti bibliometrici, le prospettive di carriera sono legate a una corsa alla pubblicazione e alle citazioni; in quelli non-bibliometrici, alla pubblicazione di articoli in riviste classificate in “fascia A” dall’ANVUR. È in questo contesto che, come abbiamo visto, si sono moltiplicati comportamenti di “gioco strategico” del sistema: doping citazionale, pubblicazioni su riviste cosiddette “predatorie”, auto-citazioni di comodo, e controllo selettivo degli spazi editoriali rilevanti.Tutto ciò sta progressivamente restringendo il campo della ricerca accademica. Temi originali, approcci rischiosi o non immediatamente produttivi, lavori di replica o di verifica di risultati altrui, tendono a essere scoraggiati perché poco compatibili con i parametri valutativi dominanti. Si osserva così una progressiva omologazione delle linee di ricerca, fenomeno già documentato anche nei contesti anglosassoni (Regno Unito e Australia) dove da anni sono in vigore sistemi di valutazione centralizzati. Nel 2010, un incremento delle risorse avrebbe probabilmente avuto effetti positivi sulla quantità e qualità della ricerca e della didattica. Ma oggi, a distanza di anni, non basta più immettere fondi nel sistema. Se non si interviene sui meccanismi profondi che regolano la valutazione e la distribuzione del potere accademico, ogni risorsa aggiuntiva rischia di alimentare proprio quelle distorsioni che minano la salute dell’università italiana. Occorre un’azione radicale: smantellare gli attuali dispositivi di valutazione centralizzata, spezzare il vincolo della precarietà, ridurre la concentrazione di potere nelle mani di pochi, e restituire autonomia e pluralismo al sistema universitario. Senza una riforma profonda, non sarà possibile invertire davvero la rotta. RIFERIMENTI BIBLIOGRAFICI Akbaritabar, A., Bravo, G., & Squazzoni, F. (2021). The impact of a national research assessment on the publications of sociologists in Italy. Science and Public Policy, 48(5), 662-678. https://doi.org/10.1093/scipol/scab013 ANVUR. (2023). Rapporto sul sistema della formazione superiore e della ricerca. ANVUR. Baccini, A. (2017a, 17 gennaio 2017). Tutto quello che avreste voluto sapere sul FFO premiale – Atto I. ROARS. https://www.roars.it/tutto-quello-che-avreste-voluto-sapere-sullffo-premiale-ma-non-avete-mai-osato-chiedere/ Baccini, A. (2017b, 17 gennaio 2017). Tutto quello che avreste voluto sapere sul FFO premiale – Atto II. ROARS. https://www.roars.it/tutto-quello-che-avreste-voluto-sapere-sullffo-premiale-atto-secondo/ Baccini, A., De Nicolao, G., & Petrovich, E. (2019). Citation gaming induced by bibliometric evaluation: A country-level comparative analysis. PLOS ONE, 14(9), e0221212. https://doi.org/10.1371/journal.pone.0221212 Baccini, A., & Petrovich, E. (2023). A global exploratory comparison of country self-citations 1996-2019. PLoS ONE, 18(12), e0294669. https://doi.org/10.1371/journal.pone.0294669 Banfi, A., & Viesti, G. (2015). Meriti e bisogni nel finanziamento del sistema universitario italiano (3). Fondazione RES. http://profgviesti.it/wp-content/uploads/2013/04/wp_RES_n_3_15_.pdf Barbati, C. (2019). Il sistema delle autonomie universitarie. Giappichelli. Battini, S. (2011). La nuova governance delle università. Rivista trimestrale di diritto pubblico, 2, 359-379. Bertini, I., Garattini, S., & Rappuoli, R. (2008). Italy must invest more in science and technology. Nature, 452(7188), 685-685. https://doi.org/10.1038/452685b Bertoli Barsotti, L. (2017). Le incongruenze dell’ISPD ei dipartimenti di eccellenza. ROARS-Return on Academic ReSearch. https://www.roars.it/le-incongruenze-dellispd-e-i-dipartimenti-di-eccellenza/ Bonaccorsi, A. (2017). La valutazione della ricerca produce effetti indesiderati? In A. Turco (Ed.), Culture della valutazione (pp. 27-48). Carocci. Breno, E., Fava, G. A., Guardabasso, V., & Stefanelli, M. (2002). La ricerca scientifica nelle università italiane. Una prima analisi delle citazioni della banca dati ISI. Breno, E., Fava, G. A., Guardabasso, V., & Stefanelli, M. (2005). Un aggiornamento sull’impatto della ricerca scientifica e tecnologica italiana in ambito internazionale (1981-2004). Analisi preliminare. Bruno, B. (2014, 24 febbraio 2014). Quanto è standardizzato il voto standardizzato? https://www.roars.it/quanto-e-standardizzato-il-voto-standardizzato/ Cabanac, G., Clausse, A., Jégou, L., & Maisonobe, M. (2023). The geography of retracted papers: Showcasing a crossref–dimensions–NETSCITY pipeline for the spatial analysis of bibliographic data. STI 2023: 27th International Conference on Science, Technology and Innovation Indicators, Carlucci, D., & Castaldo, A. (2009). Un paese di baroni. Chiarelettere. Daraio, C., & Moed, H. F. (2011). Is Italian science declining? Research Policy, 40(10), 1380-1392. https://doi.org/https://doi.org/10.1016/j.respol.2011.06.013 De Nicolao, G. (2014, 5 febbraio 2014). L’audace standardizzazione CRUI dei voti VQR: se la conosci, la eviti. https://www.roars.it/laudace-standardizzazione-crui-dei-voti-vqr-se-la-conosci-la-eviti/ De Nicolao, G. (2014). Voti VQR ai dipartimenti: le normalizzazioni fai-da-te di CRUI e ANVUR. www.roars.it. http://www.roars.it/online/voti-vqr-ai-dipartimenti-le-normalizzazioni-fai-da-te-di-crui-e-anvur/ De Nicolao, G. (2017, 15 maggio 2017). Volete scalare la classifica dei Dipartimenti eccellenti? Il trucco sta in un parallelogramma. https://www.roars.it/volete-scalare-la-classifica-dei-dipartimenti-eccellenti-il-trucco-sta-in-un-parallelogramma/ Department for Business, E. a. I. S. (2022). International comparison of the UK research base, 2022. London Dosi, G., & Sembenelli, A. (2007). La produzione scientifica degli economisti italiani: alcune evidenze e proposte normative Rivista Italiana degli Economisti(2), 259-266. Elsevier. (2017). International Comparative Performance of the UK Research Base 2016. Facchini, C., Fia, M., & Sacconi, L. (2018). La governance universitaria in Italia, tra mutamento legislativo e adattamento istituzionale. Teoria ed evidenze. Social Policies(3), 363-386. Fantoni, S. (2015). Il sistema di valutazione ANVUR. Scuola democratica, 6(3), 695-704. Gagliarducci, S., Ichino, A., Peri, G., & Perotti, R. (2005). Lo splendido isolamento dell’università italiana. In T. Boeri, R. Faini, A. Ichino, G. Pisauro, & C. Scarpa (Eds.), Oltre il Declino (pp. 151-207). Il Mulino. https://doi.org/10.978.8815/142368 Galli, F., & Greco, F. (2025). Ranking Departments based on research quality: a statistical evaluation of the ISPD indicator. Scientometrics, 130(2), 705-725. https://doi.org/10.1007/s11192-025-05240-2 Graziosi, A. (2010). L’università per tutti. Riforme e crisi del sistema universitario italiano. Il Mulino. Marco-Cuenca, G., Salvador-Oliván, J. A., & Arquero-Avilés, R. (2021). Fraud in scientific publications in the European Union. An analysis through their retractions. Scientometrics, 126(6), 5143-5164. https://doi.org/10.1007/s11192-021-03977-0 Marino, I. R. (2008). Acceptance of peer review will free Italy’s research slaves. Nature, 453(7194), 449-449. https://doi.org/10.1038/453449a Monti, A. (2007). Indagine sul declino dell’università italiana. Gangemi Perotti, R. (2008). L’università truccata. Einaudi. Regini, M. (2009). Malata e denigrata. L’Università italiana a confronto con l’Europa. Donzelli. http://www.unimi.it/img/news/Universita_malata_e_denigrata.pdf Rubele, R. (2012a, 8 marzo 2012). Appunti per una storia dell’ANVUR (I). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2012b, 21 marzo 2012). Appunti per una storia dell’ANVUR (II). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2012c, 28 maggio 2012). Appunti per una storia dell’ANVUR (III). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Rubele, R. (2015, 11 settembre 2015). Appunti per una storia dell’ANVUR (IV). ROARS. https://www.roars.it/appunti-per-una-storia-dellanvur-i/ Scarpa, F., Bianco, V., & Tagliafico, L. A. J. S. (2018). The impact of the national assessment exercises on self-citation rate and publication venue: an empirical investigation on the engineering academic sector in Italy [journal article]. https://doi.org/10.1007/s11192-018-2913-5 Seeber, M., Cattaneo, M., Meoli, M., & Malighetti, P. (2017). Self-citations as strategic response to the use of metrics for career decisions. Research Policy. https://doi.org/https://doi.org/10.1016/j.respol.2017.12.004 Simone, R. (2000). L’università dei tre tradimenti (Seconda Edizione ed.). Laterza. Vercelli, S., Pellicciari, L., Croci, A., Cornaggia, C. M., Cecchi, F., & Piscitelli, D. (2022). Self-citation behavior within the health allied professions’ scientific sector in Italy: a bibliometric analysis. Scientometrics. https://doi.org/10.1007/s11192-022-04599-w Viesti, G. (Ed.). (2016). Università in declino. Un’indagine sugli atenei da Nord a Sud. Donzelli.
March 19, 2026
ROARS
La cattiva scienza e la sua diffusione
Quali sono i motivi per cui gli scienziati adottano comportamenti scorretti? Perché commettono frodi nel loro lavoro scientifico? Cosa è il doping accademico? La valutazione amministrativa della ricerca funziona da incentivo o da freno alle malefatte? Quale è la diffusione della cattiva scienza? E la ricerca italiana soffre di questi problemi? Sono le domande cui si è tentato di rispondere in questo intervento all’Open Science Café organizzato dal Italian Education & Research Network (IRDN)/ ICDI / GARR svoltosi il 12 febbraio 2026. Le slide sono disponibili qua sotto e scaricabili da qua: https://zenodo.org/records/18629005 Open_science_café
February 17, 2026
ROARS
Lo scontro tra le commissioni per la riforma dell’università
La riforma dell’università promossa dalla ministra Bernini dovrebbe nascere dal lavoro opaco di due commissioni ministeriali, una “fantasma” guidata da Ernesto Galli della Loggia, e una formalmente istituita, composta della stessa oligarchia accademica che governa l’università da decenni, al di là di maggioranze e scandali. In questo post raccontiamo che lo scontro tra le due commissioni è esploso quando la proposta sulla governance attribuita alla commissione Galli della Loggia è stata dichiarata accantonata da Marco Mancini, segretario generale del MUR e membro della seconda commissione.  La riforma a pezzi dell’università predisposta dalla ministra Bernini nasce dal lavoro di due commissioni ministeriali parzialmente sovrapposte. La prima è una commissione fantasma, quella presieduta da Ernesto Galli della Loggia, incaricata forse di definire la “visione” politica della riforma. Questa commissione non è mai stata nominata formalmente (se non con un comunicato stampa della ministra Bernini) e non ha mai operato alla luce del sole. Nel comunicato stampa del MUR (23 luglio 2024) il primo dei sei nomi è quello di Ernesto Galli della Loggia, tra gli altri, spicca Alberto Mingardi, direttore generale dell’Istituto Bruno Leoni. E, sempre secondo il comunicato stampa di luglio, la commissione aveva già calendarizzato riunioni per l’ottobre 2024 con all’ordine del giorno “la governance degli atenei”.  Verosimilmente, la proposta di riforma della governance degli atenei, che abbiamo pubblicato qualche mese fa, è frutto del lavoro di questa commissione. La seconda commissione è stata invece nominata con un decreto dalla ministra.  Ne fanno parte ben 18 membri, alcuni dei quali sono o erano al momento della nomina, figure istituzionali di vertice del sistema universitario. C’è il presidente di ANVUR Antonio Felice Uricchio, c’è la allora presidente della CRUI Giovanna Iannantuoni, il presidente del CUN Paolo Vincenzo Pedone, il Presidente della Consulta dei Presidenti degli Enti pubblici di Ricerca (CONPER) Antonio Zoccoli, e c’è la presidente del Consiglio Nazionale degli Studenti Universitari Alessia Conti. C’è Marco Mancini che di lì a qualche mese sarebbe assurto al ruolo di segretario generale del MUR.  Ci sono poi altri personaggi ben noti a chi in questi anni si è occupato di vicende universitarie in Italia, la cui autorevolezza e fortuna politica sembra immune da cambi di maggioranze parlamentari, da vicende giudiziarie, record di presenze su pubpeer [si veda qui e qui] e reiterate ritrattazioni di articoli scientifici [qui]. Anche questa seconda commissione, come la prima, se ha lavorato, lo ha fatto nel più completo riserbo, senza la produzione di documenti pubblici. Perché due commissioni? Quale il loro ruolo rispettivo? Quali i loro rapporti? Difficile dirlo visto che non hanno prodotto documenti. Ciò che i membri delle due commissioni non hanno risparmiato sono gli interventi pubblici sulla stampa nazionale. E analizzandoli forse potremmo capire qualcosa di più. Non ci soffermiamo qui su Andrea Graziosi,  membro della seconda commissione, che dalle colonne del Foglio si è limitato a prospettare le magnifiche sorti e progressive che aspettano l’università italiana con le nuove riforme. Visto che a suo tempo aveva cantato le lodi della riforma Gelmini e di ANVUR, diventandone poi il ben remunerato presidente, ha dovuto anche ammettere di essersi pentito. Ci interessa di più sottolineare due vicende recenti. La prima, illumina i rapporti non idilliaci tra le due commissioni ministeriali e le difficoltà politiche del MUR. La seconda, oggetto di un post specifico, il modo in cui gli accademici sono disposti a massaggiare i dati per difendere le scelte politiche di chi li ha cooptati al potere. SCONTRO DI TITANI. Sabato 16 gennaio il Corriere della Sera pubblica come articolo di fondo un editoriale di Ernesto Galli della Loggia dal titolo “Università la riforma impossibile”. Dopo una (fantasiosa) ricostruzione delle vicende dell’università, l’articolo arriva al punto. C’è bisogno di una riforma che ridia al ministro il “diritto-dovere di guidare e normare l’istituzione universitaria”, che gli è stato progressivamente tolto dall’estensione dell’autonomia che ha spostato il “potere di decisione ministeriale a favore di altri organismi”. La situazione, secondo Della Loggia, è paradossale: > “il ripensamento del ruolo dell’università e della sua organizzazione -che > pure a giudizio di coloro che più sanno e non hanno interessi da difendere [la > commissione ministeriale di cui fa parte ndr] sarebbe necessarissima, in > realtà non la chiede veramente nessuno”. Eppure, continua Della Loggia, “qualche ministro di buona volontà c’è sempre” [come la ministra Bernini]. Peccato che debba ascoltare il consiglio di “persone esperte” [la seconda commissione ministeriale] “che troppo spesso sono più o meno le stesse persone che in precedenza hanno gestito (male) le cose che adesso si tratterebbe di cambiare”.  È qui che Galli della Loggia rincara la dose e non risparmia nessuno. Completiamo con nomi e cognomi il testo di Galli della Loggia. Secondo della Loggia, gli esperti cui si è rivolta la ministra sono una > “ristretta oligarchia accademica perlopiù formata di esponenti alla testa di > atenei importanti [Iannantuoni, Cuzzocrea, Zauli, Mancini, Paleari], la quale, > forte del proprio ruolo e di troppi legami con la politica, si è abituata da > tempo ad occupare luoghi direttivi dell’alta dirigenza ministeriale [Mancini, > Schiesaro] e degli organismi ausiliari dipendenti dal ministero [Graziosi, > Uricchio]”. È questo gruppo oligarchico che soffoca la ministra e ne > “paralizza ogni autonoma capacità di decidere, di contare e di agire, > oscurandone l’immagine pubblica”. Non è il caso questa volta di leggere l’editoriale come segnale di senilità e rimpianto dei bei tempi andati, come alcuni suggeriscono. C’è invece da capire cosa abbia scatenato l’ira di Galli della Loggia. È del tutto verosimile che Galli della Loggia abbia saputo che dalle parti del ministero si tenta di fare carta straccia della riforma della governance partorita, o quantomeno ‘sponsorizzata’, dalla sua commissione. Chi ha dichiarato pubblicamente che la riforma non è da prendere sul serio è nientepopodimenoche Marco Mancini, segretario generale del MUR, nonché membro della seconda commissione nominata dalla ministra. Lo ha fatto il 18 dicembre 2025 durante un incontro tra l’ANDU (Associazione Nazionale Docenti Universitari) e il MUR rappresentato appunto dal segretario generale e dalla direttrice generale per le istituzioni della formazione superiore, dott.ssa Marcella Gargano (membro della commissione della Loggia) . Questa la sintesi dell’incontro sul tema della governance > “il Segretario e la Direttrice hanno voluto subito chiarire che il documento > cosiddetto “Galli della Loggia”, pur essendo “autentico”, non è all’attenzione > del Ministro e che quella Commissione ha esaurito il suo compito istruttorio. > Invece la Commissione di lavoro costituita per ‘riformare’ la Legge 240/10, > coordinata dallo stesso Mancini e dal Prof. Zauli, non ha ancora elaborata una > sua completa proposta che sarà comunque “meditata, coerente e di ampio > spettro”. In ogni caso tale proposta affronterà vari passaggi: attività > istruttoria del Gabinetto, Ufficio legislativo, Ministro. Da parte sua Mancini > ha affermato di essere contrario a un mandato del rettore di 8 anni (4+4). > Mancini ha inoltre affermato che il MUR non è interessato all’introduzione di > un suo rappresentante nei CdA degli atenei, in quanto il Ministero è più > preoccupato della tenuta finanziaria degli atenei e per questo ritiene più che > sufficiente la presenza, già prevista, di un rappresentante ministeriale nei > collegi dei revisori, che, tra l’altro, può dare l’allerta al Ministero in > caso di disavanzi. Il Segretario ha infine anticipato che tra le proposte > della Commissione c’è un rafforzamento del ruolo dei Senati Accademici.” Ecco spiegata l’ira di Galli della Loggia: la sua commissione ha esaurito il suo compito e la sua proposta sta in qualche cestino dei rifiuti del ministero. Pare del tutto plausibile che dietro questo scontro di titani al MUR ci sia uno una disputa politica che avviene sottotraccia tra le diverse anime del governo di destra. Ciò che appare certo a questo punto, è che ad occuparsi della riforma sarà – e qui Galli della Loggia ha perfettamente ragione – la “migliore” oligarchia accademica, quella che ha gestito l’università italiana nell’ultimo ventennio sotto qualsiasi bandiera e a prova di qualsiasi scandalo.    
January 26, 2026
ROARS
Un bug nei dati Springer Nature scuote la bibliometria
Un errore nei metadati di Springer Nature potrebbe aver alterato in modo sistematico i conteggi di citazioni in tutti i principali database bibliografici, compresi Scopus a Web of Science. Le conseguenze? Indicatori distorti, carriere accademiche potenzialmente alterate e un segnale d’allarme per l’intero sistema della valutazione quantitativa della ricerca. Cosa altro deve accadere perché si abbandoni la cieca fede nelle metriche bibliometriche? Può un errore di codifica nei metadati, apparentemente banale, alterare la geografia della scienza mondiale, falsare classifiche, influenzare carriere e politiche di ricerca? Secondo l’analisi di Tamás Kriváchy, ricercatore al Barcelona Institute of Science and Technology, contenuta in un preprint recentemente diffuso su arXiv è esattamente ciò che potrebbe essere accaduto. Frederik Joelving Categoriesha coperto la notizia per Retraction Watch con un articolo uscito l’11 novembre 2025. La storia è semplice: un difetto tecnico nei metadati di Springer Nature riferiti alle riviste pubblicate solo online avrebbe generato una distorsione sistemica nei conteggi di citazioni di centinaia di migliaia di ricercatori. IL CASO  Tamás Kriváchy mostra che la distorsione dei dati ha origine da un’anomalia nella gestione dei metadati di molte riviste online-only di Springer Nature (come Nature Communications, Scientific Reports e vari BMC journals). Secondo Kriváchy, l’origine del problema risiede nel passaggio dai numeri di pagina tradizionali agli “article numbers” adottati dalle riviste online. Un campo mancante o mal gestito nei metadati distribuiti tramite API e file RIS di Springer avrebbe causato una catena di errori nel collegamento tra articoli e citazioni.  In sostanza, una grande quantità di citazioni verrebbe erroneamente attribuita al primo articolo del volume (“Article 1”) di ciascun anno, invece che all’articolo effettivamente citato. Intervistato da Retraction Watch spiega: > “Sembra che milioni di scienziati abbiano perso alcune citazioni, mentre > decine di migliaia — gli autori degli Article 1 — le abbiano guadagnate tutte, > arrivando a conteggi assurdi”. Un difetto tecnico apparentemente minore, ma dalle enormi conseguenze sistemiche. Infatti l’anomalia nei dati non è limitata alla piattaforma Springer e al suo database bibliografico Dimensions, ma si propaga a tutti i database bibliografici che ne importano i metadati come Crossref, OpenCitations, Scopus e Web of Science. Le conseguenze, osserva Retraction Watch, sono potenzialmente enormi: confusione nella tracciabilità delle citazioni, alterazione di indici bibliometrici e, in alcuni casi, vantaggi indebiti per autori o istituzioni. Il caso emblematico è quello del primo articolo del volume 2018 di Nature Communications, intitolato “Structural absorption by barbule microstructures of super black bird of paradise feathers”. Secondo il sito della rivista, l’articolo avrebbe ricevuto ben 7.580 citazioni. Google Scholar ne riporta 584, Web of Science 582 e Scopus 1.323. La coautrice Dakota McCoy (Università di Chicago) ha confermato a Retraction Watch di aver cercato, invano, di ottenere la correzione di centinaia di citazioni spurie. Analogamente l’articolo n. 1 dell’anno 2021 di Scientific reports presenta lo stesso problema: 5.332 citazioni sul sito dell’editore e solo 118 su Google Scholar. E si potrebbe continuare. Kriváchy scrive di non essere in grado di precisare l’elenco esatto delle riviste interessate e quindi fornire un conteggio preciso: > Si noti, tuttavia, che sono interessate le due riviste più grandi in base al > numero di articoli pubblicati ogni anno, Scientific Reports e Nature > Communications, nonché le riviste BMC, che comprendono un gran numero di > riviste ad alto volume che utilizzano il riferimento al numero dell’articolo. > Il numero totale di articoli per Scientific Reports è di circa 250.000, per > Nature Communications di circa 75.000 e per diverse riviste BMC e Discover > Applied Sciences di circa 126.000. Quindi, solo per queste 10 riviste ci sono > circa 450.000 articoli potenzialmente interessati, con un numero totale > probabilmente ancora più elevato. Springer Nature dichiara di ospitare 7 > milioni di articoli. Data l’immensa crescita degli articoli online negli > ultimi anni, ci si può aspettare che una parte ignificativa dei 7 milioni sia > presente in riviste solo online, portando il numero reale di articoli > interessati a milioni. L’estensione temporale del problema risale, secondo l’autore, al 2011, quando il bug fu introdotto nelle API di Springer. PERCHÉ TUTTO QUESTO È IMPORTANTE?  I risultati di Kriváchy sono molto importanti perché è la prima volta che errori nei metadati vengono documentati su scala globale, interessando tutti i principali database bibliografici, commerciali e non. Siamo abituati ai problemi di Google Scholar, dove le incongruenze restano perlopiù localizzate — come nel celebre caso di Ike Antkare o in quelli italici, meno noti, di citazioni attribuite all’autore “Primo Capitolo” [si veda qui]. Nel caso dei metadati di Springer Nature, invece, siamo di fronte a qualcosa di radicalmente diverso: un errore sistematico nei metadati che produce un effetto domino su molti indicatori bibliometrici, a tutti i livelli di aggregazione. Il problema questa volta va considerato su tre piani distinti. 1. Il livello dei dati e delle metriche. Gli errori influenzano direttamente gli indici basati sulle citazioni: molti articoli attualmente “highly cited” diventeranno articoli “normali” dopo la correzione. Ciò avrà effetto sugli autori (sui loro h-index, conteggi complessivi, ecc.), su indicatori avanzati come SNIP, e sututti quelli basati su “top-cited papers” per rivista, istituzione, settore o Paese. In pratica, abbiamo lavorato per anni con dati in cui molti (quanti?) “highly cited papers” non erano realmente tali. (L’IF,  per costruzione non è alterato dall’errore). 2. Il livello comportamentale. Qui entra in gioco il ben noto Effetto Matteo: gli articoli percepiti come molto citati tendono a ricevere ulteriori citazioni proprio per la loro fama. L’errore iniziale nei metadati ha quindi verosimilmente influenzato il comportamento dei ricercatori, che hanno citato lavori “falsamente” molto citati. Questo secondo effetto non è correggibile: quante di quelle citazioni sopravvivranno anche dopo la bonifica dei dati? 3. Il livello istituzionale. Le conseguenze riguardano la valutazione della ricerca e le carriere accademiche. Il peso di questo errore è proporzionale all’uso — spesso acritico — che le istituzioni fanno delle metriche di citazione. In Italia, come è ben noto, il ministero e ANVUR hanno imposto l’uso di indicatori bibliometrici come requisito per l’Abilitazione Scientifica Nazionale e per le progressioni di carriera universitarie. Dobbiamo chiederci fino a che punto un errore sistemico come questo possa aver alterato carriere individuali e valutazioni istituzionali. La comunità scientifica, in particolare quella italiana, non è abbastanza consapevole dell’inquinamento che affligge la scienza contemporanea e dell’estensione dei meccanismi — come le citation mills — che hanno corrotto il significato delle citazioni. La percezione prevalente è che si tratti di problemi localizzati, che riguardano pochi casi isolati, e che una opportuna “polizia bibliometrica” sia in grado di ripulire gli indiciatori dai dati anomali.  Questo caso è diverso e non solo per la scala: nasce da un errore genuino, non da una manipolazione intenzionale, e proprio per questo è ancora più istruttivo. Mostra la fragilità di un sistema che ha affidato la valutazione della ricerca a numeri e algoritmi di cui spesso non si conoscono nemmeno i fondamenti tecnici. Forse, paradossalmente, questo bug potrebbe avere un effetto benefico: costringerci a ripensare la nostra cieca fede nelle metriche quantitative, una fede che ha contribuito in modo determinante alla corruzione della scienza contemporanea.  
November 19, 2025
ROARS
I Lincei premiano Carlo M. Croce. Hanno fatto bene?
L’accademia dei Lincei ha da poco assegnato i premi Feltrinelli. Quest’anno il premio Feltrinelli per la medicina, consistente in €100.000, è stato assegnato a Carlo M. Croce. Questa la motivazione: > Carlo Croce – Medicina  > È stato un pioniere nell’identificazione del ruolo della deregolazione dei > microRNA nello sviluppo del cancro umano, rivoluzionando la nostra > comprensione dei meccanismi molecolari alla base della tumorigenesi. La sua > scoperta del coinvolgimento di miR-15 e miR-16 nella regolazione di BCL-2 e > nella patogenesi della leucemia linfatica cronica, ha aperto la strada a una > nuova era della ricerca oncologica, stimolando studi su numerosi altri > microRNA implicati in diversi tipi di tumore. L’impatto del suo lavoro non si > è limitato alla ricerca di base: le sue intuizioni hanno portato allo sviluppo > di terapie innovative, tra cui gli inibitori di BCL-2, oggi approvati e > utilizzati nella pratica clinica per il trattamento di alcuni tumori > ematologici. Questo traguardo rappresenta un esempio emblematico di come la > ricerca traslazionale possa trasformare le conoscenze scientifiche in > trattamenti salvavita. Oltre ai suoi straordinari risultati scientifici, Croce > ha ispirato generazioni di ricercatori, promuovendo un approccio > multidisciplinare allo studio dei tumori e contribuendo a ridefinire il ruolo > dei microRNA come potenziali biomarcatori e target terapeutici. La sua eredità > nella lotta contro il cancro è immensa e il suo lavoro continua a influenzare > profondamente la ricerca e la pratica clinica, con il potenziale di salvare > ancora molte vite in futuro. Non sappiamo se chi ha preso la decisione abbia avuto a disposizione una serie di informazioni che, circolando prevalentemente in lingua inglese e su web, potrebbero non aver raggiunto le felpate stanze Lincee. A dire il vero per avere quelle informazioni, anche se di seconda mano, sarebbe bastato leggere in italiano il Corriere della Sera o Wired. E non possiamo certo pretendere che un Linceo apra wikipedia per cercare informazioni su un candidato alla premiazione (in versione italiana o in inglese) o per fare un controllo della list of scientific misconduct incidents. Carlo M. Croce è ovviamente un Top Italian Scientist con un enorme h-index. Ce lo ricorda anche Il Fatto Quotidiano (che sia questo l’unica fonte di informazione usata dai Lincei?). Non possiamo nemmeno pretendere che ai Lincei conoscano Pubpeer che è una piattaforma notissima e punto di riferimento per la comunità dei detective della scienza. Pubpeer accoglie commenti e revisioni aperte, anche in forma anonima, di articoli già pubblicati (post-publication open peer-review). E’ utilizzato soprattutto per segnalare problemi relativi a duplicazioni, manipolazioni di immagini, uso fraudolento di AI, e così via. La piattaforma è moderata, e contiene soltanto documentazione verificabile. Su Pubpeer sono “flaggati” e commentati 113 articoli in cui Carlo M. Croce figura tra gli autori.   Forse ai Lincei non sanno neanche cosa siano le retraction di articoli scientifici. E forse non sanno neanche che queste si trovano facilmente sulla piattaforma PubMed, il punto di riferimento per le ricerche di area biomedica. Ad oggi, Pubmed registra 28 articoli ritrattati in cui Carlo M. Croce figura tra gli autori.     Questo è uno degli articoli ritrattati sulla rivista Cancer Cell dopo che essa è stata “notified” dalla Ohio State University. Gran parte degli autori “disagree” con la decisione della rivista.   Il New York Times dedicò a Carlo M. Croce un lungo articolo nel 2017 a firma James Glanz and Agustin Armendariz. Può essere letto qui. Croce iniziò una causa per diffamazione contro i due giornalisti e contro David A. Sanders, virologo della Purdue University. La causa si concluse con il proscioglimento dei giornalisti e di Sanders che per l’occasione fu difeso “d’ufficio” dai legali del suo ateneo (qua una intervista di Sanders su Retraction Watch).   Questo un articolo su Nature che ricostruisce il clima nel laboratorio di Carlo A. Croce. > Exclusive: City of Hope cancer researcher goes to court to fight misconduct > finding Sulle vicende successive, il lettore interessato può leggere questo. L’assenza di reazioni pubbliche, se non i comunicati stampa ufficiali accolti acriticamnete dai giornali, è un segnale, l’ennesimo, della mancanza sempre più evidente di anticorpi e pensiero critico e più in generale dell’indebolimento delle istituzioni scientifiche e accademiche italiane.
June 23, 2025
ROARS