L'AI nella scoperta scientifica: acceleratore o bolla speculativa?

Dai modelli per la struttura delle proteine alla scoperta di nuovi materiali: l'intelligenza artificiale sta davvero trasformando la ricerca scientifica? Un'analisi critica tra promesse e risultati.

M Marco Ferretti 4 min di lettura
L'AI nella scoperta scientifica: acceleratore o bolla speculativa?

La promessa di una rivoluzione

Il 2024 è stato l’anno del Nobel. David Baker, Demis Hassabis e John Jumper hanno ricevuto il Premio Nobel per la Chimica per lo sviluppo di strumenti di intelligenza artificiale per la predizione e il design delle strutture proteiche. Un riconoscimento storico, che ha sancito l’ingresso dell’AI nel pantheon della scienza fondamentale.

AlphaFold 2 di DeepMind — il modello di Hassabis e Jumper — ha risolto in pochi mesi quello che i biologi molecolari consideravano uno dei problemi irrisolvibili della biologia: predire la struttura tridimensionale di una proteina a partire dalla sua sequenza aminoacidica. Un problema su cui la comunità scientifica lavorava da mezzo secolo. Il database risultante, con oltre 200 milioni di strutture proteiche, è liberamente disponibile e ha già cambiato il modo in cui si fa ricerca in biologia molecolare, farmacologia e biochimica.

Cosa ha già cambiato l’AI nella scienza

Al di là delle proteine, i casi d’uso dell’AI nella ricerca scientifica si moltiplicano in modo quasi vertiginoso.

In astronomia, i modelli di deep learning analizzano i dati di telescopi come il James Webb Space Telescope a velocità e con capacità di classificazione che sarebbero impossibili per i ricercatori umani. Nuove galassie, esopianeti, eventi transienti vengono identificati e catalogati con una rapidità inimmaginabile fino a pochi anni fa.

In fisica delle particelle, reti neurali addestrate sui dati del CERN aiutano a distinguere il segnale dal rumore nelle collisioni di alta energia, potenzialmente identificando firme di fisica oltre il Modello Standard.

In medicina, modelli di computer vision superano i radiologi umani nella diagnosi precoce di alcuni tipi di tumore da immagini diagnostiche, e sistemi di analisi del linguaggio naturale estraggono conoscenza da milioni di articoli scientifici per identificare pattern non evidenti dalla lettura umana.

I limiti che la narrativa entusiastica tende a nascondere

Tuttavia, un’analisi più attenta invita alla cautela. Molti risultati pubblicizzati come “scoperte AI” sono in realtà ottimizzazioni o accelerazioni di processi già noti, non veri salti cognitivi. L’AI eccelle nell’interpolazione — nel trovare pattern all’interno di distribuzioni di dati su cui è stata addestrata — ma fatica nell’extrapolazione genuinamente creativa.

Esiste inoltre un problema crescente di riproducibilità. Uno studio del 2025 pubblicato su PLOS ONE ha analizzato 147 articoli di alto impatto che riportavano applicazioni dell’AI alla scoperta scientifica: solo il 43% forniva codice e dati sufficienti a replicare i risultati. Un tasso di riproducibilità già basso nella scienza tradizionale, ma che nell’AI diventa critico dato il ruolo opaco degli iperparametri e dei dati di addestramento.

La professoressa Elena Simoncini, del Laboratorio di Machine Learning per la Bioinformatica dell’INFN, mette in guardia: “Stiamo assistendo a un fenomeno di ‘AI washing’ nella scienza, in cui il termine intelligenza artificiale viene usato per attirare fondi e attenzione su lavori che in realtà usano tecniche statistiche standard. Questo crea aspettative irrealistiche e distorce l’allocazione delle risorse di ricerca”.

Il problema dei dati e dei bias

Un nodo fondamentale è la qualità e la rappresentatività dei dati di addestramento. In medicina, i modelli addestrati prevalentemente su popolazioni europee mostrano performance significativamente peggiori quando applicati a popolazioni africane o asiatiche. In biologia molecolare, la straordinaria accuratezza di AlphaFold si riduce significativamente per proteine di organismi poco studiati, perché i dati di training sono sbilanciati verso le proteine dei modelli di laboratorio più comuni.

In senso più ampio, ogni modello di AI in scienza eredita i bias della letteratura scientifica su cui è addestrato — inclusi quelli legati alla pubblicazione preferenziale dei risultati positivi, alla sovrarappresentazione di alcune aree geografiche e istituzionali, e ai pregiudizi impliciti dei ricercatori che hanno prodotto i dati originali.

Verso una scienza aumentata, non sostituita

La narrazione più equilibrata sembra essere quella della “scienza aumentata”: l’AI come strumento potentissimo che amplifica le capacità dei ricercatori umani, senza sostituire il ragionamento scientifico, la formulazione di ipotesi genuinamente nuove, e la valutazione critica dei risultati.

I ricercatori più entusiasti dell’AI riconoscono spesso che il valore aggiunto maggiore non è nella generazione autonoma di scoperte, ma nell’accelerazione del ciclo hypothesis-experiment-analysis: quello che una volta richiedeva anni può ora richiedere mesi, aprendo spazi temporali per più iterazioni, più test, più serendipità.

La scienza è sempre stata uno sforzo collettivo e cumulativo. L’AI è il nuovo, potente strumento che entra in questo processo. Come ogni strumento, la sua utilità dipende dalla saggezza di chi lo usa.

_Articoli correlati