L’assegnazione del premio Nobel edizione 2024 rimarrà probabilmente negli annali non solo per la singolarità delle decisioni in ambito scientifico, ma anche per le altrettanto singolari motivazioni poste a supporto di tali decisioni.

Come ormai noto, il Nobel per la fisica 2024 è stato assegnato a Hopfield e Hinton per i rispettivi contributi (peraltro innegabili) allo sviluppo delle reti neurali, che rappresentano attualmente l’approccio mainstream alla cosiddetta Artificial Intelligence.

Le ragioni per cui i vincitori sarebbero stati insigniti dell’ambìto premio sarebbero riconducibili al fatto che l’impiego delle reti neurali ha consentito il progresso stesso della ricerca nell’ambito della fisica, oltre ad aver mutuato dalla fisica statistica i concetti fondamentali per la loro implementazione, permettendo così di individuare relazioni inedite all’interno delle grandi moli di dati sperimentali disponibili.

Considerazioni analoghe per quanto riguarda l’assegnazione del Nobel per la chimica, che vede premiati, oltre a David Baker dell’Università di Washington, pionere nello studio della struttura delle proteine, anche Demis Hassabis e John M. Jumper, entrambi ricercatori dell’azienda Google DeepMind.

Questi ultimi due hanno messo a punto il modello di intelligenza artificiale chiamato AlphaFold2, in grado di rivelare la struttura di oltre 200 milioni di proteine, consentendo così di accelerare ricerche di importanza fondamentale, come quelle sulla resistenza agli antibiotici o come la progettazione di enzimi capaci di decomporre la plastica.

Se a vincere il Nobel è l’Intelligenza Artificiale…

Chiariamo subito, a scanso di equivoci, che l’utilizzo dei modelli di Artificial Intelligence ha senza dubbio la sua utilità per la ricerca scientifica, permettendo di simulare in maniera efficace contesti sperimentali che con gli approcci tradizionali sarebbero molto onerosi da realizzare sia in termini di tempo che di risorse, quando non addirittura improponibili in termini concreti.

Quello che però stupisce è la possibile inversione della logica che presiede alla ricerca e al metodo scientifico tradizionali, cosicchè anzichè partire dalla elaborazione di ipotesi teoriche da sottoporre a verifica sperimentale (anche col supporto dell’AI), si pretende di delegare all’AI e alle reti neurali il compito stesso di individuare tali ipotesi di lavoro.

E l’attribuzione dei premi agli esponenti delle aziende informatiche responsabili delle implementazioni di tali modelli sembra confermare la sempre maggiore preminenza riconosciuta agli strumenti impiegati nella ricerca.

Come dire che se Galileo Galilei fosse vissuto oggi, avrebbe visto assegnare il premio ai cannocchiali e alle lenti, a pari merito (se non addirittura al posto) dei propri contributi teorici fondamentali per l’avanzamento della ricerca nel campo della fisica.

…a perderci sono ricerca e conoscenza

Le ragioni addotte per l’assegnazione dei premi sono peraltro in linea con il revival positivista che caratterizza le recenti tecnologie informatiche “guidate dai dati” (data driven).

In ossequio ad una tradizione epistemologica strumentalista, che del genus positivista rappresenta una (sotto)specie, le spiegazioni teoriche cedono il passo ai dati osservativi, considerati prioritari.

La logica conseguenza è quella di rinverdire suggestioni metodologiche risalenti al secolo scorso, che relegano le spiegazioni teoriche a mere “fantasie metafisiche”, considerate inessenziali (quando non addirittura di ostacolo) per la ricerca scientifica.

Corollario del paradigma positivista e strumentalista è il metodo “induttivo”, secondo il quale le scoperte scientifiche sono nient’altro che il frutto della raccolta sistematica dei dati osservativi, la cui garanzia di “verità” riposa sul criterio di “verificazione” che dell’approccio induttivo altro non è che il rovescio della medaglia.

Non fosse che sia il metodo induttivo che il criterio di verificazione si siano rivelati dei miti, essendo la natura della scoperta scientifica basata piuttosto sulla falsificazione delle teorie, falsificazione che integra il carattere autocorrettivo della stessa scienza, a dispetto della pretesa scientista di addivenire a “verità” certe e definitive.

Cosi come l’idea di raccogliere dati “grezzi” (ovvero non inquinati da “pregiudizi teorici”) si traduce in realtà in un ossimoro, dal momento che i dati osservativi sono per definizione “carichi di teoria”, vale a dire sono inevitabilmente il risultato dei criteri di selezione adottati per la loro raccolta.

Del resto, lo stesso positivismo ha vissuto la propria parabola discendente a fine anni ’60 proprio a causa dell’incapacità di distinguere in maniera attendibile tra ciò che era scientificamente “sensato” e ciò che non lo era.

Riportando così in auge la preminenza della spiegazione teorica come autentica bussola per il conseguimento della conoscenza.

Ora invece la tecnologia digitale pretenderebbe di riportare indietro le lancette della ricerca scientifica, riesumando cimeli metodologici che si credevano definitivamente archiviati, facendo leva sulla sua migliore trovata, degna di illusionisti e prestigiatori: l’Artificial Intelligence, appunto.

Peccato però che i limiti conoscitivi degli approcci metodologici fallaci non siano rimediabili semplicemente accumulando ulteriori dati da dare in pasto a macchine sempre più performanti a livello computazionale.

Il rischio pertanto che all’inverno dell’AI possa far seguito quello della conoscenza autentica è tutt’altro che remoto…