Impariamo a orientarci nella giungla delle pubblicazioni scientifiche
Il 20 marzo 2023 John Ioannidis, Angelo Maria Pezzullo e Stefania Boccia (rispettivamente della Stanford University of California e dell’Università Cattolica di Roma) hanno pubblicato un editoriale sul Journal of American Medical Association, intitolato ‘The Rapid Growth of Mega-Journals: Threats and Opportunities’. Sollevano dubbi e critiche rispetto alle cosiddette riviste ad accesso aperto (o Golden Open Access) che, previo pagamento di cospicue tariffe da parte degli autori o, più spesso, delle istituzioni cui essi sono affiliati, pubblicano migliaia di articoli all’anno.
Una polemica non nuova
Come riportato dagli autori: “Nel 2022, per esempio, l’International Journal of Environmental Research and Public Health (impact factor = 4.614) ha pubblicato 16.889 articoli (empirici o di rassegna della letteratura), e Frontiers in Public Health (impact factor = 6.461) 5.043; altre riviste come l’American Journal of Public Health, l’European Journal of public Health, l’American Journal of Epidemiology e Epidemiology ne hanno pubblicati, rispettivamente, soltanto 514, 238, 222 e 101″.
Quella degli autori non è una polemica nuova: nell’ambiente accademico si discute da tempo dei cosiddetti predatory journals, ossia riviste che, in nome di un modello troppo commerciale di editoria accademica, ricorrono a pratiche di sollecitazione aggressive e indiscriminate e, secondo alcuni (per esempio Grudniewicz et al. su Nature nel 2019, con l’articolo “Predatory journals: no definition, no defence”), appaiono caratterizzate da bassa qualità dei contenuti pubblicati e uso discutibile del processo di revisione tra pari.
La crescita dei predatory journals
Il loro aumento negli ultimi anni è stato esponenziale, il che comporta che la scala di grigi nell’universo delle ‘pubblicazioni predatoriè sia diventata pressoché infinita. Per avere un’idea della dimensione del fenomeno, inserendo come parola chiave ‘predatory journals’ sull’e-journals database Ebsco è possibile trovare più di 2.000 articoli che indagano e commentano il fenomeno.
Nelle ultime settimane un altro terremoto ha fatto tremare qualche gigante dell’editoria accademica: Web of ScienceTM (Wos), uno dei servizi più attendibili per conoscere gli indici bibliometrici di pubblicazioni e periodici, ha negato l’indicizzazione e rimosso dalle proprie banche dati l’impact factor di più di cinquanta riviste. L’impact factor misura il numero di citazioni ricevute dagli articoli pubblicati su un dato journal e, ancor oggi, viene considerato un importante indicatore della sua qualità.
La corsa all’impact factor
Nonostante anni fa la Declaration on Research Assessment (Dora) abbia espresso perplessità sulla corsa all’impact factor sostenendo la necessità di promuovere best practice nella valutazione dei prodotti scientifici e di ricerca, esso costituisce a tutt’oggi un parametro rilevante nell’orientare i ricercatori nella scelta della collocazione nazionale e internazionale dei propri lavori: perderlo può avere effetti dannosi per la salute e il prestigio di una rivista scientifica.
Tra gli editori più colpiti da questa recente presa di posizione di Wos ci sono Bmj, Mdpi, Springer e Wiley (per la maggior parte società con margini di profitto esorbitanti), che hanno assistito alla perdita dell’impact factor di alcune delle loro riviste più importanti perché caratterizzate da una crescita sproporzionata delle pubblicazioni, tempi di revisione rapidissimi, bassi tassi di rifiuto degli articoli sottoposti e, allo stesso tempo, un buon indice d’impatto. Tutte caratteristiche particolarmente appetibili, soprattutto per i giovani ricercatori sempre più costretti a cedere alla logica del publish or perish.
Comunità accademica sotto pressione
La comunità accademica è soggetta a una forte pressione: pubblicare tanto e ad alto impatto è una componente necessaria per fare carriera e superare i concorsi. Gli indici bibliometrici come il numero di pubblicazioni, l’h-index e l’impact factor rappresentano il parametro principale su cui si viene valutati all’interno delle università (cosiddetta valutazione scholars-to-scholars).
Inoltre, le condizioni economiche dei ricercatori, spesso precarie, soprattutto in Paesi come l’Italia, li spingono a cercare sovvenzioni e finanziamenti da organizzazioni/istituti esterni che elargiscono fondi in base alla loro prolificità e al prestigio delle riviste in cui hanno pubblicato (cosiddetta valutazione scholars-to-market).
Si indebolisce la qualità del lavoro
A volte, la necessità di veder crescere i propri indici per una progressione di carriera può indebolire la qualità del lavoro dei ricercatori, e, più in generale, allontanare le istituzioni universitarie dal compito di fare scoperte e ricerche utili alla società e diffondere conoscenza e cultura. Questo, a sua volta, può minare la fiducia nella scienza e nell’autorità delle fonti.
Allo stesso tempo, tuttavia, la pubblicazione nelle riviste open access (con la loro promessa di pubblicazione più rapida, semplice, sicura) consente di costruire più velocemente il proprio curriculum, condividere in maniera più estesa risultati delle proprie ricerche con i colleghi, sviluppare competenze e creare reti a livello nazionale e internazionale: può cioè rappresentare un ponte levatoio su cui salire per entrare a far parte della comunità accademica o consolidare la propria posizione.
Il nuovo criterio dell’impatto sociale
È interessante però notare che, negli ultimi anni, per valutare la qualità di una pubblicazione scientifica (e delle istituzioni che ospitano e finanziano i ricercatori), è cresciuta la richiesta di fare riferimento anche al suo impatto sociale. Nel Regno Unito è stato istituito il Research Excellence Framework (Ref, 2019), un comitato di revisione di esperti deputato a stimare quanto il lavoro degli studiosi abbia contribuito a influenzare la cultura, l’economia, le politiche ambientali e pubbliche, la salute, la qualità della vita o le dinamiche sociali.
Per stimare l’impatto delle discipline scientifiche più direttamente legate alla salute pubblica, Mary Ari, ricercatrice del Centers for Disease Control and Prevention (Cdc) di Atlanta, Georgia, ha proposto il Science Impact Framework (Sif), che utilizza cinque parametri: grado di disseminazione delle conoscenze scientifiche, creazione di consapevolezza, catalizzazione dell’azione, promozione del cambiamento e capacità di plasmare il futuro (disseminating science, creating awareness, catalyzing action, effecting change and shaping the future). Non abbiamo lo spazio per entrare nel dettaglio di queste proposte, ma vogliamo citarle per sottolineare la possibilità di fare riferimento anche ad altri parametri, magari in grado, se non di far rallentare la corsa alla pubblicazione per la pubblicazione, quantomeno di renderla più virtuosa.
Prima regola: pubblicare bene
Pubblicare bene è fondamentale, pubblicare tanto non è sempre necessario (soprattutto se si pubblica bene). L’impact factor e in generale gli indici bibliometrici sono molto importanti, ma se la comunità accademica e scientifica non impara a considerarli in modo indipendente dal mercato compulsivo delle pubblicazioni, possono facilmente trasformarsi in un canto delle sirene. Contribuendo peraltro ad accrescere i fattori di stress psicologico che, come anche la cronaca inizia a segnalare, affliggono le nuove generazioni di ricercatrici e ricercatori.
Concludiamo dunque con un’esortazione: la ricerca ha senso se è pensata e condotta (e poi pubblicata in open access o meno, purché seguendo il dovuto rigore scientifico) per far sì che, a beneficiarne, siano gli individui: non solo altri ricercatori e finanziatori, ma anche scienziati, clinici, pazienti e la società nel suo insieme.
Fonte: repubblica.it