
La pratica di una “scienza di facciata”, concepita per servire interessi commerciali anziché la ricerca della verità, rappresenta una minaccia di lunga data per l’integrità accademica. Un caso emblematico è quello dell’azienda farmaceutica Wyeth che, negli anni 2000, commissionò a un’agenzia esterna la stesura di articoli scientifici edulcorati. Questi studi, firmati da medici autorevoli, avevano lo scopo di promuovere i benefici e minimizzare i rischi dei suoi farmaci ormonali, che in seguito furono collegati a un aumento dei casi di cancro al seno, portando l’azienda (poi acquisita da Pfizer) a risarcimenti miliardari.
Questa forma di ricerca strumentale, volta a persuadere e non a scoprire, sta per affrontare una nuova e pericolosa accelerazione a causa dell’intelligenza artificiale. L’IA, infatti, abbatte drasticamente i costi e i tempi necessari per produrre studi apparentemente rigorosi, in particolare quelli “monofattoriali” che correlano un singolo fattore a un esito di salute (ad esempio, il consumo di uova e l’insorgenza di demenza). L’analisi dei database accademici rivela un’esplosione di tali pubblicazioni: da una media di quattro all’anno fino al 2021, si è passati a quasi duecento solo nel 2024.
Il fenomeno non è alimentato solo da interessi aziendali, ma anche dalla pressione accademica a pubblicare. Paradossalmente, anche normative ben intenzionate, come quelle che richiedono prove scientifiche a sostegno dei benefici dei prodotti per l’infanzia nel Regno Unito, rischiano di incentivare la produzione di queste “prove” a basso costo generate dall’IA.
La soluzione per arginare questa deriva risiede nel potenziamento dei meccanismi di controllo, in primis la revisione paritaria (peer review). La ricerca, infatti, troppo spesso influenza decisioni politiche e legali prima ancora di essere validata dalla comunità scientifica. È dunque imperativo riformare questo processo, adottando standard più rigorosi che sono già in fase di sperimentazione in alcune discipline:
- Pre-registrazione: Obbligo per i ricercatori di depositare il piano di ricerca prima di iniziare lo studio, per evitare manipolazioni a posteriori.
- Trasparenza totale: Condivisione di dati grezzi, codici di analisi e materiali sperimentali.
- Analisi di robustezza: Utilizzo di metodi statistici avanzati, come l’analisi della curva di specificazione, per verificare la solidità dei risultati.
- Dichiarazione di interessi: Piena divulgazione di finanziamenti e potenziali conflitti di interesse.
L’attuale sistema di revisione, spesso volontario e oberato, è inadeguato a gestire il diluvio di contenuti che l’IA promette di generare. Per preservare la fiducia del pubblico nella scienza, è fondamentale e urgente creare un sistema che incentivi e premi i revisori per il tempo e il rigore dedicati a questo cruciale lavoro di filtro. La credibilità della scienza, nostro miglior strumento per distinguere i fatti dalle finzioni, è a rischio.
