Citazioni, h-index e highly cited: perché Clarivate, Scopus e Google Scholar non raccontano la stessa storia

Lo stesso articolo può avere conteggi diversi a seconda della banca dati consultata. Comprendere le differenze tra Web of Science, Scopus e Google Scholar è essenziale per usare correttamente gli indicatori di valutazione della ricerca.

Rocco De Nicola 6 min di lettura
Citazioni, h-index e highly cited: perché Clarivate, Scopus e Google Scholar non raccontano la stessa storia

Lo stesso articolo può avere conteggi diversi a seconda della banca dati consultata: è uno dei problemi fondamentali della bibliometria che Rocco De Nicola analizza confrontando tre piattaforme — Web of Science di Clarivate, Scopus ed Google Scholar — e le loro misurazioni divergenti dello stesso fenomeno scientifico. Comprendere queste differenze è essenziale per usare correttamente gli indicatori di valutazione della ricerca, evitando distorsioni nei giudizi su carriere e finanziamenti.

Il paradosso dei tre h-index

Un ricercatore consulta la propria pagina su Web of Science: h-index 31. Apre Scopus: 38. Poi Google Scholar: 47. Tre piattaforme, tre numeri diversi per lo stesso ricercatore, senza che nessuna delle tre sbagli nei propri termini. Chiedersi quale sia il valore «giusto» è una domanda mal posta, e questo imbarazzo è il punto di partenza dell’analisi di De Nicola.

Le critiche agli indicatori bibliometrici — h-index, citazioni, impact factor — sono in parte giustificate. Sono misure imperfette, sensibili a dinamiche cumulative che premiano certe strategie e non catturano la qualità complessiva del lavoro scientifico. Possono incentivare comportamenti opportunistici e orientare la ricerca verso temi più «citabili». Ma liquidarli del tutto avrebbe conseguenze indesiderate: senza criteri robusti di riferimento, qualsiasi parametro diventa negoziabile e il campo si apre a percezioni soggettive, retorica e fedeltà di scuola. Gli indicatori non stabiliscono la verità scientifica, ma introducono vincoli: sono tracce empiriche di come le idee vengano giudicate dalla comunità.

Web of Science: un ecosistema selettivo

Web of Science opera con un approccio molto selettivo. L’h-index calcolato da questa piattaforma si basa sulle pubblicazioni indicizzate nella Web of Science Core Collection e sulle citazioni registrate all’interno di quello stesso ecosistema. La piattaforma non è monolitica: esistono livelli diversi di indicizzazione e non tutti i giornali su WoS appartengono alla Core Collection, dove vengono calcolati i principali indici. Il risultato è un indicatore più controllato e stabile sul piano bibliometrico, ma meno inclusivo: se un lavoro circola ampiamente in repository, preprint, libri o tesi, la sua ricezione reale può restare in buona parte non contabilizzata.

Scopus: ampiezza disciplinare con limiti storici

Scopus segue una logica analoga ma con caratteristiche diverse nel corpus. L’h-index viene calcolato sulle pubblicazioni attribuite all’autore e sulle citazioni raccolte nel database. La formula è identica, ma cambiano la copertura storica, l’ampiezza disciplinare, le riviste incluse, gli atti di convegno e la profondità dell’archivio. Per le produzioni più datate, la copertura storica di Scopus può offrire un’immagine meno completa rispetto ad altri strumenti, il che penalizza le carriere più lunghe o chi ha pubblicato molto negli anni Ottanta e Novanta.

SciVal, la piattaforma analitica avanzata di Elsevier che aggrega i dati di Scopus, permette di identificare le pubblicazioni nelle fasce più alte di citazioni — top 1% o top 10% — e di calcolare indicatori di impatto normalizzati. Molte istituzioni accademiche la usano nei processi di valutazione. Un altro riferimento diffuso è il database Stanford-Elsevier sui top-cited scientists, costruito da Ioannidis e colleghi: utilizza dati Scopus con una metodologia indipendente che classifica i ricercatori nel top 2% globale del loro settore.

Google Scholar: la piattaforma più inclusiva

Google Scholar è la piattaforma più inclusiva. Non si limita alle riviste strettamente indicizzate, ma intercetta un insieme molto più ampio di materiali: articoli, tesi, libri, preprint, working paper, depositi in repository istituzionali e altri documenti scientifici. Talvolta raccoglie anche materiali non convenzionali come slide di seminari accessibili online. Questo è insieme un punto di forza e un limite: da un lato cattura la vera circolazione delle idee nell’ecosistema accademico allargato, inclusi i canali al di fuori dei circuiti commerciali; dall’altro richiede una maggiore attenzione alla pulizia del profilo. Duplicati, versioni multiple di uno stesso articolo, varianti bibliografiche e fusioni di record influenzano direttamente le metriche, gonfiando artificialmente i conteggi.

Scholar non ha un equivalente formale degli «Highly Cited» di Clarivate. Il suo punto di forza non è la certificazione selettiva, ma l’ampiezza. È utile per capire come un lavoro circola nell’ecosistema accademico allargato, meno indicato quando si cercano etichette formalizzate e comparabili.

Cosa significa davvero «highly cited»

Un’altra etichetta frequentemente discussa è quella di «highly cited». Per gli articoli, la classificazione di Clarivate non significa semplicemente ricevere molte citazioni in assoluto: significa rientrare nel top 1% per numero di citazioni nel proprio campo disciplinare e nell’anno di pubblicazione, secondo i criteri di Essential Science Indicators basati sulla Web of Science Core Collection. La soglia cambia da disciplina a disciplina e da anno ad anno — un meccanismo progettato per normalizzare le differenze nelle abitudini citazionali tra settori, che variano enormemente.

Analogamente, Clarivate compila ogni anno la lista degli Highly Cited Researchers: chi pubblica più articoli rientranti nel top 1% per campo e anno, in una finestra temporale pluriennale, può essere incluso. La classificazione non è completamente automatica: vengono effettuate verifiche aggiuntive, filtri sull’integrità e valutazioni supplementari per identificare pratiche anomale. Il Gruppo 2003 — l’associazione dei ricercatori italiani più citati internazionalmente, di cui De Nicola è presidente — basa l’affiliazione in parte sulla presenza in questa lista.

Distorsioni da tenere sotto controllo

Oltre alle differenze tra database, esistono fattori aggiuntivi che distorcono le metriche. Le autocitazioni — spesso trascurate nel dibattito pubblico — sono centrali per capire le distorsioni dell’h-index: un ricercatore che cita sistematicamente il proprio lavoro può gonfiare significativamente i propri indicatori, e le piattaforme rispondono in modo diverso a questo fenomeno.

Un secondo fattore riguarda l’ambiguità degli autori: omonimi, varianti del nome e cambi di affiliazione creano profili duplicati o incompleti, in particolare su Scopus e WoS. Chi ha pubblicato sotto nomi diversi nel corso della carriera — per matrimonio, traslitterazione o semplici abitudini editoriali — può ritrovare parti della propria produzione «scomparse» da un database e presenti in un altro.

Il terzo elemento riguarda le differenze disciplinari strutturali. Il divario tra le scienze biomediche — dove si cita molto e rapidamente — e la matematica o le scienze umane — con cicli citazionali molto più lunghi e volumi molto inferiori — rende qualsiasi confronto diretto tra settori potenzialmente fuorviante. La normalizzazione per campo applicata da Clarivate per gli Highly Cited è un tentativo di mitigare questo problema.

Leggere i numeri nel contesto giusto

La conclusione è che le citazioni e l’h-index non sono misure neutrali e universali: sono il prodotto diretto del sistema-database in cui vengono calcolate. Per interpretarli correttamente occorre rispondere a tre domande prima di guardare qualsiasi numero: secondo quale fonte (Web of Science con la sua selettività, Scopus con la sua ampiezza strutturata, o Google Scholar con la sua inclusività non filtrata)? In quale contesto disciplinare? Rispetto a quale benchmark comparativo?

Finché queste domande non diventeranno un requisito standard per ricercatori e valutatori, si continuerà a confrontare indicatori che sembrano identici ma esprimono realtà tra loro inconciliabili. Le metriche restano strumenti intrinsecamente parziali: non possono esaurire la complessità del valore scientifico né sostituire la valutazione qualitativa.