Source - ROARS

Return On Academic Research and School

Restare umani: il documento del Liceo Selvatico di Padova
Riceviamo e volentieri pubblichiamo il documento dei docenti del Liceo Artistico Statale “Selvatico” di Padova, che segnalano pubblicamente le iniziative realizzate dalla loro scuola su e per Gaza.   Noi docenti del Liceo Artistico Statale P. Selvatico, alla luce delle iniziative realizzate e degli ultimi eventi – soprattutto alla luce delle ispezioni richieste per gli […]
Chi ha paura della libertà? Lo Scudo europeo per la democrazia e la deriva autoimmune dell’UE
Lo Scudo europeo per la democrazia viene presentato come un argine a disinformazione e interferenze straniere, ma finirà per istituzionalizzare la censura preventiva nello spazio informativo. Diventano suscettibili di limitazioni contenuti “altrimenti legali” ma “rischiosi”, una categoria tanto elastica da inglobare qualunque contenuto politicamente scomodo. La “difesa della democrazia” comporta la stigmatizzazione del conflitto delle […]
Anvur, reclutamento, università: l’epifania della valutazione di stato
Lo stato si appresta a rafforzare i poteri, già non poco oppressivi, del ministero dell’università e della ricerca, dell’Anvur che gli è sottomesso e delle gerarchie accademiche locali. Contro questo disegno FLC-CGIL si è appellata alle “forze libere e pensanti dell’accademia e della comunità universitaria”. In effetti, se, dopo lustri di valutazione di stato, esistessero […]
La riforma a pezzi: costruire un’università gerarchica, sotto controllo politico e militarizzata
La maggioranza di governo avanza una riforma dell’università spezzata in tre frammenti: governance, ANVUR e reclutamento. Il rischio più grande? Che opporsi a una riforma sbagliata significhi difendere uno status quo indifendibile. Questa riforma non cura le cause: accentra ancora più potere nelle mani del ministro e dei rettori, rafforzando il controllo governativo su ANVUR, e […]
Ricerca e valutazione: l’Italia può imparare dall’Europa
Per la ricerca italiana, l’anno 2025 si chiude con la buona notizia di una programmazione triennale che promette di mettere a disposizione risorse con scadenze e date certe. Risorse esigue, ma comunque un passo avanti rispetto all’andamento casuale con il quale fino ad oggi comparivano (o più di frequente non comparivano) bandi competitivi pubblici per il finanziamento di attività di ricerca. Lo stesso 2025 si chiude senza che sia comparso un solo bando fra quelli che entreranno nel paniere della programmazione dall’anno prossimo. Un anno senza bandi non torna indietro: è un anno di ricerca che semplicemente scompare. I progetti si fermano, le competenze si disperdono e molte persone lasciano i laboratori.   Insieme ai bandi sono necessarie procedure di valutazione affidabili. Poche settimane fa sono stati pubblicati gli esiti della selezione dei progetti presentati nell’ambito del programma Fondo Italiano per la Scienza (FIS) 3, bandito alla fine del 2024. Non sono ancora noti i dettagli, ma la situazione generale non sembra discostarsi di molto da quella della precedente edizione (FIS2), nella quale meno del 5% dei progetti è stato finanziato. Una percentuale bassissima che, insieme all’evidente debolezza della valutazione, ha ormai trasformato i FIS in una sorta di lotteria, da cui vengono “estratti” i nomi dei vincitori, magari scelti sulla sola base del curriculum piuttosto che su una necessaria, rigorosa, ragionata e comparata valutazione sul merito dei progetti.   Ma il dato più allarmante, che conferma quanto avvenuto con il FIS2, riguarda le procedure di valutazione che hanno portato a graduatorie così severe. A fronte di migliaia di progetti sottomessi, nessuno sa quanti siano stati i revisori per ciascuna proposta, ma è presumibile che sia stato soltanto uno. Sarebbe infatti uno spreco di tempo e risorse insensato, se la commissione incaricata avesse coinvolto più revisori indipendenti e raccolto i loro pareri solo per poi “nasconderli” ai candidati dietro uno scarno voto numerico. A valle di questa revisione opaca sia in merito al numero dei valutatori, sia al livello di approfondimento – è stata fatta una prima ampia selezione, assegnando punteggi numerici (arrotondati al mezzo punto) su due parametri: qualità del proponente e qualità del progetto. Attribuire un numero in maniera apodittica, senza un vero confronto tra revisori e senza motivazioni dettagliate, è la forma più facile e superficiale di valutazione: richiede pochi secondi, non impone di leggere, non costringe a capire. Sembrerebbe un modo per sbrigare la pratica riducendo al massimo il numero di vincitori, senza entrare nel merito di nulla: chi prendeva meno di 9 punti su 10 in anche uno solo dei parametri rimaneva escluso. Migliaia (!) di colleghi che si sono impegnati per settimane a lavorare su progetti sottomessi ai FIS si sono visti bocciati – dopo un intero anno o più di attesa – con un numero, senza avere la minima idea del perché. E non è chiaro neppure come siano stati gestiti i casi di ex aequo, che verosimilmente saranno stati moltissimi, con una valutazione arrotondata al mezzo punto su una scala da 1 a 20.   I progetti che hanno superato la soglia sono stati successivamente ri-valutati in modo più dettagliato, utilizzando criteri esplicitati e tradotti – ancora una volta – in numeri interi o mezzi punti, la cui somma determinava la graduatoria finale. Anche in questo caso non è stato reso noto come si arrivasse a questi punteggi, quanti revisori avessero valutato ciascun progetto, quanti italiani e quanti stranieri, né quali fossero i giudizi di ognuno. I punteggi erano infatti accompagnati solo da pochissime righe – formule spesso generiche e indistinguibili da un progetto all’altro. Pochissime parole, insomma, per assegnare o negare 2 milioni di euro a un singolo ricercatore.   Un simile processo di valutazione è approssimativo, opaco, improduttivo. I bandi a cui esplicitamente si ispira il FIS, quelli dello European Research Council (ERC), sono l’esatto contrario. La prima fase di selezione è affidata a un panel di studiosi la cui composizione è resa pubblica. In una seconda fase i progetti vengono valutati approfonditamente da almeno una decina di revisori esterni, ciascuno dei quali redige un giudizio scritto di almeno una pagina sulla base di parametri e criteri chiaramente definiti. Il panel è poi chiamato a sintetizzare tali valutazioni, mettendo in evidenza le convergenze tra i giudizi e delineando con chiarezza i punti di forza e di debolezza di ciascun progetto. Al termine di questa fase avviene una seconda scrematura: i progetti esclusi ricevono una relazione dettagliata sull’intero processo valutativo e tutti (tutti!) i giudizi scritti del panel e dei revisori esterni. In sintesi, ogni progetto, anche se bocciato, riceve una quindicina di pagine di commenti scientifici preziosi per aiutare i proponenti a migliorare i loro progetti ed eventualmente ri-sottoporli alla successiva edizione del bando. Nella terza fase, i proponenti dei progetti considerati migliori vengono infine invitati a Bruxelles, per una presentazione e discussione diretta con il panel: una vera e propria “interrogazione” orale sul progetto (l’interrogazione da parte del panel era prevista anche nel FIS1 ma è stata poi abolita). A conclusione di questo confronto, il panel redige una sintesi complessiva dell’intera procedura (inclusi ovviamente i giudizi della fase due) che viene condivisa sia con i vincitori che con i bocciati.   Insomma, c’è una distanza siderale tra le modalità di valutazione italiane e quelle europee. È chiaro che una procedura come quella dell’ERC non può essere fatta a costo zero: non richiede solo attenzione, cura e trasparenza, ma anche risorse economiche dedicate, oltre a personale altamente qualificato per la gestione del processo, esperto nelle procedure di valutazione. Questo personale non può coincidere con gli scienziati o i docenti, perché il lavoro richiesto è ben diverso. Come sottolinea Kelly Cobey, ricercatrice e co-chair di DORA (Declaration on Research Assessment), in un editoriale su Nature, una valutazione superficiale e approssimativa trasmette il messaggio che l’organizzazione finanziatrice non crede nella ricerca ed è disposta a sprecare tempo e risorse.   Da qualche settimana, la Ministra Anna Maria Bernini ha affidato al Prof. Matteo Bassetti la Presidenza del nuovo Gruppo di Lavoro incaricato di affiancare il Ministero dell’Università e della Ricerca nella definizione e nello sviluppo di linee guida per la gestione e la valutazione dei bandi pubblici, con l’obiettivo di allineare il sistema italiano agli standard europei. Da decenni attendiamo un governo che creda nella ricerca e nei giovani ricercatori. Che investa risorse ben più significative di quelle minime previste oggi. Che smetta di “trascinare i piedi” e si impegni con convinzione a costruire un sistema di valutazione solido, trasparente, efficiente, capace di avvicinare il nostro Paese agli standard internazionali più elevati. Le competenze, l’energia e il capitale umano non mancano, soprattutto nella nuova generazione: non possono e non devono essere traditi.  
Open science e research security: trovare il giusto equilibrio
“Sembra tramontata la stagione dell'”Open Science”. Ora si moltiplicano le politiche di research security: basta condivisione, autonomia tecnologica, protezione dei sistemi…” Così sta scritto in un articolo apparso sulla Lettura del Corriere della Sera di Alessandro de Angelis. L’articolo si riferisce al report OCSE:Science, Technology and Innovation Outlook 2025 In questi anni, più o meno dal Settimo Programma Quadro, mentre il resto dell’Europa implementava politiche connesse alla apertura, creava infrastrutture e reti di infrastrutture (EOSC), elaborava sistemi di valutazione più equi e inclusivi (CoARA) monitorava gli effetti di queste politiche e ne modificava gli assetti, in Italia ….non succedeva niente. Dopo una inutile legge sull’open access promossa da un Ministero che non era quello della ricerca e ampiamente disattesa  e un Piano nazionale sulla Scienza aperta nato vecchio, senza sostegno economico e soprattutto mai monitorato e verificato nella impostazione, poco si è parlato di Open science nel nostro Paese ed esclusivamente in ottica adempimentale (per altro senza che nessuno abbia mai fatro verifiche). Alcune istituzioni si sono organizzate per supplire al vuoto lasciato dalla politica cercando di allinearsi alle istanze europee, altre invece si sono accontentate della stipula di contratti trasformativi come testimonianza dell’orientamento del Paese verso la apertura. Con la research security, invece, le cose sono andate assai diversamente. Coerentemente con quanto avvenuto in Europa, sono state emanate raccomandazioni, linee guida, sono stati fatti incontri e proposti eventi formativi. E’ stato predisposto un sito su cui è possibile recuperare modelli e guide. La reserach security così come la open science sono temi importanti per l’Europa e per le politiche della ricerca, ma in Italia non abbiamo siti del Ministero dedicati all’open science, non abbiamo potuto assistere ad eventi formativi promossi dal Ministero, né sono state fornite linee guida e raccomandazioni. Semplicemente non se ne è parlato. Per cui per tornare all’articolo e al suo incipit ci si chiede se in effetti possa tramontare qualcosa che non è mai nato. Leggendo il testo si ha l’impressione di imbattersi nell’errore tipico di chi ha poca dimestichezza con almeno uno dei due aspetti (l’open science), per cui sembra quasi che i due aspetti siano messi in contrapposizione o siano in alternativa. Perché mai una ricerca sicura non dovrebbe essere riproducibile o replicabile? perché mai non dovrebbe essere tracciabile in tutti gli step effettuati. Perché l’open science dovrebbe essere in contrasto con una ricerca condotta in maniera sicura e soprattutto secondo principi ferrei di integrità della ricerca, rispondendo ai requisiti di trasparenza e fairness che sono alla base di una condotta responsabile? O vogliamo dire che responsabilità, trasparenza, riproducibilità nella ricerca sicura non contano? A blanket application of strict research security measures would pose a direct or indirect risk to the quality, productivity, integrity and, therefore, the societal and economic value of the national research system [così recita il report OCSE] Misure di sicurezza ben progettate possono tutelare la libertà accademica, proteggendo ricercatori e istituzioni da pressioni indebite, e migliorare la qualità della ricerca grazie a una maggiore trasparenza su collaborazioni e finanziamenti. L’OCSE propone un principio guida chiaro:  proteggere in modo rigoroso solo ambiti scientifici realmente sensibili, lasciando il resto del sistema della ricerca il più aperto possibile. Un approccio proporzionato e basato sul rischio consente di salvaguardare sia la sicurezza sia i benefici dell’open science. La sfida, oggi, non è scegliere tra apertura e protezione, ma trovare il giusto equilibrio che garantisca da un lato la sicurezza e dall’altro la affidabilità, un tema che in questi ultimi tempi è stato più e più volte messo in discussione.
Tutto..ma non i test INVALSI
La famiglia dello studente ha il diritto di accedere, comprendere ed entrare nel merito della documentazione scolastica. Lo sanciscono le norme e lo Statuto degli Studenti e delle Studentesse. Lo ribadisce il TAR del Veneto. Purtroppo questo diritto non vale dinanzi all’INVALSI.  -------------------------------------------------------------------------------- La famiglia dello studente ha il diritto di accedere, comprendere ed entrare nel merito della documentazione scolastica. Lo sanciscono le norme sulla trasparenza amministrativa, quelle del nostro ordinamento scolastico, lo Statuto degli Studenti e delle Studentesse. Lo ribadisce il TAR del Veneto nella sentenza 2074/2025, di cui dà notizia il Sole24ore. Dinanzi alla richiesta di accesso ai compiti scritti, ai criteri di valutazione e ad ogni documento riguardante lo studente da parte dei genitori, il Tribunale Amministrativo ritiene che il rifiuto da parte dell’Istituzione scolastica sia illegittimo e . I documenti richiesti sono utili per comprendere, ed eventualmente contestare, le scelte della scuola e degli insegnanti. Purtroppo questi diritti non sono esercitabili dinanzi all’INVALSI. Nonostante: -i test INVALSI siano individuali e certifichino le competenze dei singoli studenti (Dl.g 62/17) -i risultati entrino nel loro curriculum digitale (L.164/25) alle famiglie che fanno richiesta di poter accedere ai dati delle prove svolte per comprendere la logica della correzione e del punteggio acquisito, viene negato l’accesso. Il Garante della Privacy, a cui si è fatto ricorso, tace da oltre 8 mesi; forse è occupato in altro. A quanto pare solo le valutazioni umane dei docenti sono soggette a controllo, per chi può permetterselo. Chi tutela il diritto collettivo degli studenti di poter accedere e comprendere dati che sono obbligati a cedere e che li riguardano? L’INVALSI vive in uno stato di eccezione?
ARTeD: proposte di modifica al piano straordinario di reclutamento
Pubblichiamo il documento di ARTeD di commento e proposta di modifica al piano straordinario di reclutamento del personale RTDA previsto in un emendamento della legge di bilancio. Secondo ARTeD “In generale, per quanto sia da salutare con favore la proposta di un piano straordinario, la dotazione finanziaria prevista appare inadeguata rispetto alle necessità. Il piano prevende infatti, nello scenario ottimistico in cui tutti gli atenei riuscissero a coprire la quota esclusa dal cofinanziamento, un numero massimo di circa 1600 posizioni da RTT. Questo a fronte di circa 4500 RTDa in scadenza entro il 2026 e circa 20000 assegnisti di ricerca recentemente cessati o di prossima scadenza. Il piano propone quindi una soluzione che è di un ordine di grandezza inferiore rispetto alle necessità legate ai contratti in scadenza e, più in generale, all’esigenza del sistema universitario di non vedere significativamente ridotti i propri organici”. comunicato ARTeD – Osservazioni e proposte di modifi ca all?emendamento 4.7 (te sto 4) all’A.S. 1689-1
La Cina è leader nella ricerca nel 90% delle tecnologie cruciali: Il più grande cambiamento tecnologico della nostra epoca
In pochi giorni la rivista Nature ha pubblicato due notizie di un certo rilievo “geopolitico”. La prima è che la prima classifica del Nature Index nel settore delle Scienze Applicate mostra che ci sia stato un trasferimento di egemonia dall’occidente all’oriente. La Cina domina la classifica, e altri Paesi asiatici come Corea del Sud e Singapore ottengono risultati eccezionali, se rapportati alla scala complessiva della loro produzione scientifica. Il quadro è invece molto diverso per molti Paesi occidentali, la cui produzione nelle scienze applicate rappresenta una quota relativamente piccola rispetto al totale. La classifica si basa sugli articoli pubblicati nel 2024 in 25 riviste e conferenze specializzate nelle scienze applicate, selezionate da circa 4.200 ricercatori che le hanno indicate come le sedi in cui vorrebbero pubblicare i propri lavori “più significativi”. Le riviste coprono ambiti come l’ingegneria, l’informatica, la scienza alimentare, e includono anche pubblicazioni multidisciplinari già presenti nel Nature Index, come Nature e Science. (ndr: Il Nature Index considera esclusivamente gli articoli pubblicati in 145 riviste scientifiche nel settore e di alto impatto, selezionate da comitati indipendenti di esperti. E’ un indicatore globale della performance scientifica di un paese. Tuttavia, come per altre classifiche di questo tipo, il Nature Index si basa su alcune ipotesi e metodologie che non sono pienamente trasparenti e possono essere oggetto di critica. Dato che l’indice si fonda sul conteggio quantitativo degli articoli pubblicati in riviste peer-reviewed — e che la valutazione è condotta a livello nazionale — i suoi risultati possono essere considerati, almeno qualitativamente, come un indicatore ragionevolmente affidabile delle tendenze scientifiche globali.) I ricercatori basati in Cina hanno contribuito al 56% della produzione scientifica totale nel settore, con un Share (indice frazionario del Nature Index) pari a 22.261. Gli Stati Uniti seguono a grande distanza con un Share di 4.099, pari al 10%. I primi dieci istituti di ricerca nel campo delle scienze applicate sono tutti cinesi. La Corea del Sud, settima nella classifica generale del Nature Index 2025 per le scienze naturali e della salute, si posiziona quarta nelle scienze applicate con uno Share di 1.342 (3,4% della produzione globale), appena dietro alla Germania (terza con 1.488). Il Regno Unito è quinto con 1.024 (2,6%), seguito da Giappone e India. La Francia, sesta nella classifica generale, si trova solo dodicesima nelle scienze applicate. La differenza tra Oriente e Occidente è ancora più evidente se si considera la quota di produzione scientifica nazionale dedicata alle scienze applicate (includendo le nuove riviste). * In Malesia, le scienze applicate rappresentano quasi il 90% del totale, consentendole di entrare al 31º posto (non era presente tra i primi 50 nella classifica generale). * In Cina, la quota è 52%, * in Corea del Sud 53%, * e a Singapore 49%. Al contrario: * in Germania solo il 27%, * nel Regno Unito 23%, * in Francia e negli USA meno del 18%.     La Cina ha costruito una strategia per diventare centro mondiale in settori come tecnologia, calcolo e intelligenza artificiale. È il primo produttore mondiale di auto elettriche (70% della produzione globale) e tra il 2014 e il 2023 ha brevettato oltre 38.000 tecnologie di IA generativa, sei volte più degli USA. Nel 2022, la Cina ha superato gli USA per produzione scientifica nelle scienze naturali nel Nature Index e ha continuato ad aumentare il vantaggio. La Cina spende circa un terzo degli investimenti mondiali in energie rinnovabili, contro il 15% degli USA. Le aziende farmaceutiche cinesi iniziano più trial clinici di quelle statunitensi o europee. Il secondo articolo pubblicato dalla rivista Nature  ed è complementare al primo, discute il fatto che, secondo il  Critical Technology Tracker dell’ASPI, la Cina sia diventata leader nella ricerca nel 90% delle tecnologie cruciali — un cambiamento radicale rispetto all’inizio del secolo L’analisi è basata su un database che contiene oltre nove milioni di pubblicazioni da tutto il mondo. Per ciascuna tecnologia, ha identificato i 10% degli articoli più citati prodotti dai ricercatori di ciascun Paese nel periodo 2020–2024 e calcolato la quota globale di ciascun Paese. Il Critical Technology Tracker  valuta la ricerca di alta qualità su 74 tecnologie attuali ed emergenti nel 2025. La Cina è risultata al primo posto per la ricerca su 66 tecnologie, tra cui energia nucleare, biologia sintetica e piccoli satelliti; gli Stati Uniti guidano le restanti 8, tra cui il calcolo quantistico e la geoingegneria. I risultati riflettono un’inversione radicale di tendenza. All’inizio di questo secolo, gli Stati Uniti erano leader in oltre il 90% delle tecnologie analizzate, mentre la Cina era in testa in meno del 5%, secondo l’edizione 2024 del tracker. Secondo Rob Atkinson, presidente della Information Technology & Innovation Foundation (Washington DC), questa differenza deriva da diverse concezioni della ricerca: Gli USA sono una “società della scienza”, dove il governo finanzia principalmente la ricerca fondamentale, con l’obiettivo idealistico di “produrre conoscenza per il bene del mondo”. Cina e Corea del Sud, al contrario, sono “società dell’ingegneria”, dove le risorse pubbliche sono concentrate su tecnologie avanzate e manifattura, e su ricerca a supporto di settori strategici. Secondo il nostro parere la situazione è meno “idealistica”. La Cina, e con essa tutto l’oriente, è diventata la fabbrica del mondo già dagli anni 90 attraverso le delocalizzazioni delle imprese occidentali, coreane e giapponesi che sono state incentivate dal basso costo del lavoro e i laschi controlli ambientali. Ma questo quadro è completamente cambiato. Negli ultimi quindi anni in particolare c’è stata una evoluzione cruciale: il passaggio della Cina da semplice assemblatore a basso costo a innovatore ad alto valore aggiunto che rappresenta una delle forze economiche più dirompenti del nostro tempo. Essa affonda le sue radici nel peculiare sistema politico cinese, fondato sulla costruzione del cosiddetto “socialismo con caratteristiche cinesi” (Arlacchi, Fazi, 2025), un modello non capitalistico noto anche come “via cinese al socialismo”. In questo contesto, lo Stato mantiene il controllo strategico sui settori chiave — risorse naturali, materie prime, finanza, infrastrutture e difesa nazionale — pur consentendo al mercato di operare come strumento di governance e regolazione. La competizione tra imprese è incentivata, ma all’interno di un quadro orientato a obiettivi collettivi. Questo modello ibrido sostiene una strategia economica che promuove rendimenti a breve termine per stimolare l’iniziativa privata, ma al contempo permette una pianificazione a lungo termine e investimenti mirati per affrontare sfide che richiedono ricerca continua, innovazione e visione strategica. Questa situazione non è sostenibile per l’Occidente ma un cambio di paradigma nel finanziamento e nell sviluppo della scienza può avvenire solo con la reindustrializzazione del sistema produttivo. Ed è qui che l’Occidente si trova in una situazione di svantaggio strutturale.    
Semestre filtro a Medicina: l’imbroglio, il danno, la beffa. Hanno ragione gli studenti a contestare la ministra
Il numero programmato, contrariamente a quanto era stato propagandato da Bernini, non è stato abolito, e non era praticamente possibile abolirlo La riforma dell’accesso a Medicina, voluta dal governo attraverso la ministra Bernini, è un imbroglio a danno degli studenti, aggravato da una beffa. Hanno ragione gli studenti a contestare la ministra, che ha dato prova di straordinaria pochezza rispondendo alle loro giuste critiche con insulti. L’imbroglio: il numero programmato, contrariamente a quanto era stato propagandato dalla ministra Bernini, non è stato abolito, e non era praticamente possibile abolirlo. Il numero programmato, oltre a evitare il rischio di creare professionisti in eccesso, è una conseguenza della grande conquista della libera circolazione dei laureati in Europa: l’Unione stabilisce criteri formativi comuni, rispettando i quali ogni paese si impegna a riconoscere la formazione professionale erogata negli altri paesi: un medico laureato in Italia può lavorare ovunque nell’Unione. Tra i criteri rientra però la proporzione tra il numero di studenti iscrivibili nei corsi e la capienza dei corsi stessi, che per i Corsi di Laurea in Medicina include anche la dimensione delle strutture sanitarie presso le quali i laureandi si formano. Per aumentare il numero di studenti iscritti a Medicina occorrerebbe non solo aumentare aule e docenti, ma anche la dimensione degli ospedali universitari; con i nostri numeri di aspiranti medici addirittura al di là del fabbisogno della popolazione: paradossalmente, per abolire il numero programmato avremmo bisogno di più posti letto in ospedale e più malati! Già oggi i nostri studenti si lamentano perché il loro accesso ai reparti ospedalieri è limitato, immaginiamoci cosa succederebbe se il numero di studenti triplicasse! L’alternativa sarebbe quella di uscire dal circuito della libera circolazione dei laureati in Europa: organizzarsi una laurea locale, di più basso livello. Certamente questa soluzione sarebbe rifiutata da tutti quegli aspiranti medici che vorrebbero liberalizzare l’accesso ai Corsi di Laurea: è umano volere il dritto della medaglia e rifiutarne il rovescio, ma non esistono medaglie senza il rovescio. Inoltre liberalizzare davvero l’accesso al Corso di Laurea rischia di alimentare disoccupazione o sottoimpiego: infatti il fabbisogno di medici del paese non è infinito, ed è stimabile in circa 8.000-10.000 nuovi professionisti ogni anno, necessari per rimpiazzare i pensionamenti dei circa 4.000 medici per milione di abitanti di un paese avanzato. All’imbroglio consegue il danno: gli studenti hanno frequentato, studiato e sostenuto esami ma in grande maggioranza non sono o non saranno ammessi, salvo l’esito dei numerosi ricorsi ai Tribunali Amministrativi: in pratica hanno perduto sei mesi, se non un anno, tutto tempo che, se fosse rimasto in vigore il metodo precedente, avrebbero potuto meglio impiegare in altre attività formative o lavorative. Questo è il principale argomento contro lo svolgimento della selezione concorsuale durante il percorso formativo. Se si vuole offrire formazione preliminare al concorso di ammissione, questa deve essere basata su un programma ristretto, limitata al solo mese di settembre, e la prova concorsuale deve essere svolta alla fine di settembre o all’inizio di ottobre, prima dell’inizio dei corsi veri e propri. Ovviamente, la prova concorsuale non deve essere confusa con un esame: deve soltanto stabilire una graduatoria per l’ammissione. Per mascherare il danno la riforma aggiunge una soluzione che è una vera e propria beffa: gli esami sostenuti, in caso di mancato accesso al Corso di Laurea scelto possono essere convalidati in un Corso considerato affine: la riforma implica cioè che, per il giovane che sceglie la sua futura professione, fare il medico, il farmacista o il biotecnologo sia la stessa cosa. Sfugge alla ministra che l’università prepara ad una professione e due Corsi di Laurea che includono materie parzialmente sovrapponibili non conducono a professioni altrettanto sovrapponibili. Se fosse rimasto in vigore il metodo selettivo precedente, gli studenti avrebbero saputo a settembre se erano stati ammessi o meno al Corso di Laurea preferito ed in caso di insuccesso avrebbero potuto scegliere in modo autonomo una diversa soluzione senza vedersela imporre da una legge autoritaria e paternalistica. La ministra ha appena accettato di aprire un tavolo per discutere le problematiche della riforma, premettendo però che non si può tornare indietro: l’intenzione è quindi quella di continuare a imbrogliare, danneggiare e beffare gli studenti per gli anni a venire. (Pubblicato su Il Fatto Quotidiano)
I pericoli dell’uso della bibliometria con dati inquinati
La valutazione della ricerca basata sulle metriche viene spesso presentata come una soluzione ai problemi di equità e oggettività. «La bibliometria è per la valutazione della ricerca ciò che la diagnostica per immagini è per la medicina»: è quanto sostenuto da Giovanni Abramo in un recente webinar. L’esperienza suggerisce però che il cambiamento degli incentivi non abbia eliminato i comportamenti opportunistici, ma li abbia trasformati. Il caso italiano delle review mills ne è soloun esempio: gruppi organizzati hanno sfruttato il ruolo di revisori per imporre citazioni e gonfiare artificialmente gli indicatori. Quando i dati sono inquinati, bibliometria e “intelligenza artificiale” assomigliano piuttosto a una diagnostica per immagini che confonde i dati di pazienti diversi, producendo valutazioni distorte e premiando chi sa manipolare il sistema invece di chi fa buona ricerca. Questa settimana ho partecipato a un webinar organizzato da Clarivate sul tema “Celebrazione del centenario di Eugene Garfield: passato, presente e futuro della scientometria”. Il webinar ha trattato la storia delle prime opere del compianto Eugene Garfield, nonché gli sviluppi attuali e le tendenze future. Le sessioni storiche sono state affascinanti e hanno descritto le straordinarie innovazioni apportate da Garfield nella sua ricerca per comprendere il corpus di informazioni scientifiche come una rete. Garfield si rese conto che le somiglianze tra gli articoli potevano essere identificate dalle citazioni condivise e, negli anni ’50, ideò dei sistemi per acquisire queste informazioni utilizzando schede perforate. Sono abbastanza vecchia da ricordare quando, negli anni ’70, andavo in biblioteca a consultare lo Science Citation Index, che non solo mi indicava articoli importanti nel mio campo, ma spesso mi portava in direzioni inaspettate, facendomi scoprire altri argomenti affascinanti. Garfield è conosciuto come il padre del Journal Impact Factor, considerato da molti un abominio che distorce il comportamento degli autori a causa delle sue connotazioni di prestigio. Tuttavia, in origine era stato concepito come un indice che aiutasse i bibliotecari a decidere quali riviste acquistare, e solo in seguito è stato riproposto come parametro utilizzato come indicatore dello status dei ricercatori che pubblicavano su quelle riviste. Mi è piaciuto ascoltare la storia di Garfield, che sembra essere stato un poliedrico personaggio affabile e umano, che ha riconosciuto il valore delle informazioni contenute negli indici e ha trovato modi ingegnosi per sintetizzarle. Consiglio di consultare l’archivio delle sue opere conservato dall’Università della Pennsylvania. I relatori successivi del webinar si sono concentrati sui nuovi sviluppi nell’uso della scientometria per valutare la qualità della ricerca. Giovanni Abramo ha osservato come la scienza italiana sia stata influenzata dal favoritismo, a causa dell’esclusivo ricorso alla revisione soggettiva tra pari per valutare i ricercatori e le loro istituzioni. La sua opinione è che l’uso delle metriche migliori la valutazione della ricerca rendendola più equa e obiettiva. Ha osservato che, mentre le metriche potrebbero non essere un’opzione in alcuni settori delle arti e delle discipline umanistiche, per le discipline in cui i risultati appaiono generalmente su riviste indicizzate, la bibliometria è preziosa, concludendo che “la bibliometria è per la valutazione della ricerca ciò che la diagnostica per immagini è per la medicina”, ovvero una fonte fondamentale di informazioni oggettive. Stranamente, 12 anni fa sarei stata d’accordo con lui, quando suggerii che un semplice indice bibliometrico (indice H dipartimentale) potesse ottenere risultati molto simili al complesso e dispendioso processo di revisione tra pari adottato nel REF. All’epoca in cui scrivevo, pensavo che la legge di Goodhart (“Quando una misura diventa un obiettivo, smette di essere una buona misura”) non si applicasse a una metrica basata sulle citazioni, perché le citazioni non erano controllate dagli autori, quindi sarebbe stato difficile manipolarle. A quanto pare ero ingenua. Il metodo più rozzo per manipolare il sistema è l’eccesso di autocitazioni, ma esistono anche i circoli di citazione (tu citi il mio articolo e io citerò il tuo). Quest’anno Maria Ángeles Oviedo-García, René Aquarius e io abbiamo descritto una versione più sofisticata, una “review mill”, in cui un gruppo di medici italiani ha sfruttato la propria posizione di revisori per costringere altri a citare i lavori del gruppo. Abbiamo suggerito che il cambiamento nella valutazione della ricerca italiana, che era stato implementato con le migliori intenzioni, ha condotto a un cinico gioco di revisione tra pari. Si potrebbe rispondere dicendo che questa attività, sebbene inquietante, riguarda solo una piccola percentuale di articoli e quindi non avrebbe un effetto rilevante. Ancora una volta, dieci anni fa sarei stata d’accordo. Ma ora, con un’esplosione di pubblicazioni che sembra guidata da editori più interessati al guadagno che alla qualità (vedi Hanson et al, 2024) e standard editoriali straordinariamente laschi, questo potrebbe non essere più vero. Il punto chiave dei review mill è che abbiamo visto evidenze della loro attività perché utilizzavano modelli generici per le revisioni tra pari, ma questi possono essere rilevati solo per le riviste che pubblicano revisioni tra pari aperte, una piccola minoranza. Il membro più prolifico del review mill era un editor di riviste che aveva quasi 3000 revisioni tra pari verificate elencate su Web of Science, ma solo una manciata di queste era consultabile. Temo quindi che la bibliometria sia più simile a un’immagine diagnostica che ha confuso i dati di diversi pazienti: contiene alcune informazioni valide, ma sono distorte dall’errore. La presentazione finale di Valentin Bogorov ha descritto il futuro della scientometria, in cui l’intelligenza artificiale sarebbe stata sfruttata per fornire informazioni molto più dettagliate e aticolate sull’impatto sociale della ricerca. Ma ho avuto l’impressione che ignorasse il problema della frode che si è insinuato nei database bibliometrici. Le review mills sono un problema per la validità dei dati citazionali, ma le paper mills sono un problema molto più grave. Mentre le review mills si basano sull’auto-organizzazione di gruppi di ricerca dubbi per migliorare la loro reputazione, molte paper mills sono gestite da organizzazioni esterne la cui unica motivazione è il profitto  (Parker et al., 2024). Vendono authorship e citazioni a un prezzo che dipende dall’Impact Factor della rivista: Eugene Garfield si rivolterebbe nella tomba. Sono state individuate per la prima volta circa 12 anni fa, ma si sono moltiplicate come un virus e stanno infettando gravemente interi ambiti di ricerca. A volte vengono riconosciute per la prima volta quando un ricercatore esperto in materia trova articoli anomali o fraudolenti mentre cerca di esaminare il campo (vedi, ad esempio, Aquarius et al, 2025). Le paper mills prosperano in un ambiente favorevole, dove editor corrotti o incompetenti approvano articoli che contengono chiare violazioni del metodo scientifico o che sono evidentemente una collazione di vari articoli plagiati. La speranza degli editori è che l’IA fornisca dei modi per individuare gli articoli fraudolenti e rimuoverli prima che entrino nella letteratura, ma i produttori di articoli di bassa qualità hanno dimostrato di essere abili nel mutare per eludere l’individuazione. Purtroppo, proprio le aree in cui l’IA e i big data sembrano essere più promettenti, come i database che collegano geni, proteine, molecole e biomarcatori, sono già contaminate. Il timore è che gli stessi produttori di articoli di bassa qualità utilizzino sempre più l’IA per creare articoli sempre più plausibili. Non sono contraria alla bibliometria o all’intelligenza artificiale in linea di principio, ma trovo preoccupante l’ottimismo riguardo alla sua applicazione alla valutazione della ricerca, soprattutto perché non è stato fatto alcun riferimento ai problemi che emergeranno se il database interrogato dall’intelligenza artificiale sarà inquinato. Qualsiasi metodo di valutazione avrà costi, benefici e conseguenze impreviste. La mia preoccupazione è che, se ci concentriamo solo sui benefici, potremmo ritrovarci con un sistema che incoraggia i truffatori e premia coloro che sono più abili a manipolare il sistema piuttosto che i migliori scienziati.