La reale Accademia delle Scienze svedese ha assegnato il premio Nobel per la Fisica 2024 a John J. Hopfield e Geoffrey E. Hinton con questa motivazione: «For foundational discoveries and inventions that enable machine learning with artificial neural networks».

La grande disponibilità di risorse di calcolo, unita all’accessibilità a dati di diversa natura su scala mondiale, hanno permesso nell’ultimo decennio un’accelerazione nello sviluppo e diffusione di algoritmi di machine learning e in particolare di modelli ad alte prestazioni nell’ambito del deep learning. È famoso il superamento delle capacità umane da parte di una macchina nel riconoscimento di immagini, avvenuto nel 2016 nell’ambito di un famoso contest dedicato allo sviluppo di algoritmi sempre più performanti. Tuttavia, la scienza che sta alla base di uno sviluppo così impressionante ha radici profonde nel secolo scorso. Con la nascita dei computer negli anni ’40 i primi sforzi si sono concentrati nell’affidare alle macchine calcoli lunghi e complessi, al fine di alleviare un compito gravoso e dispendioso in termini di tempo. Già negli anni ’50, tuttavia, è nato un filone di ricerca teso a imitare compiti istintivi della mente umana, come il riconoscimento di oggetti in un’immagine e più in generale il riconoscimento di regolarità e strutture anche molto complesse (pattern recognition). 

John Hopfield, un fisico teorico e una figura di spicco nella biofisica, a partire dagli anni ’80 ha applicato concetti propri dei fenomeni collettivi in sistemi complessi alla formazione di meccanismi di memoria associativa per mezzo di una rete neurale. I modelli impiegati per definire i “pesi” da associare ai nodi della rete – un meccanismo alla base del funzionamento delle ANN, artificial neural networks – era ispirato a modelli fisici quali la formazione di domini magnetici o di vortici in un fluido, per mezzo di considerazioni energetiche che inducono stati stazionari nella rete, che Hopfield definiva “memorie”. 

Successivamente, il metodo è stato affinato per espandere il numero di “memorie” immagazzinabili nella rete e per utilizzare lo stesso per riconoscere caratteristiche da dati incompleti, ad esempio “attraendo” verso lo stato stazionario più vicino – immagazzinato come memoria – un insieme di dati in ingresso non esattamente corrispondenti alla memoria presente a sistema, con un meccanismo associativo (meccanismi di error correction e pattern completion). Dal punto di vista applicativo erano basati su questo concetto, ad esempio, alcuni meccanismi di riconoscimento automatico di caratteri in un testo scritto. 

Contributi successivi di Hopfield hanno portato a meccanismi sempre più efficienti di ottimizzazione dei pesi in una ANN, ancora una volta traendo spunto da analogie con sistemi fisici quali il meccanismo di annealing nelle leghe metalliche.  

Geoffrey Hinton, un neuroscienziato e informatico che ha iniziato la carriera come esperto di psicologia cognitiva, ha sviluppato nella metà degli anni ’80 la cosiddetta Boltzmann machine, una estensione del modello di Hopfield realizzato assegnando a ogni stato della rete una probabilità associata alla distribuzione di Boltzmann e introducendo il concetto di “temperatura” del sistema. Il metodo, dunque, lavorava su distribuzioni di stati possibili e non su stati ben definiti come nel modello di Hopfield, realizzando uno dei primi esempi di algoritmo generativo – in grado cioè non solo di riconoscere informazione ma di generarne di nuova. È una caratteristica alla base degli algoritmi che hanno portato ai moderni sistemi quali i transformer, come il ben noto GPT. 

Con il lavoro successivo di Hinton nascono anche le moderne architetture feedforward che superano i modelli ricorsivi precedenti e introducono i cosiddetti “strati nascosti” (hidden layers), alla base dello sviluppo delle CNN – convolutional neural networks. Ad esempio, sono basati su questi algoritmi – che consistono nel riconoscere separatamente diverse caratteristiche di un’immagine per combinarle poi verso un output comune – alcuni sistemi in uso già dalla metà degli anni ’90 per il riconoscimento di una firma autografa o di una calligrafia. Questi contributi hanno guidato lo sviluppo verso i moderni algoritmi di deep learning. 

La fisica ha ispirato sviluppi pionieristici nell’intelligenza artificiale, ed è questa l’essenza della motivazione del premio Nobel per la Fisica 2024. È vero anche l’opposto: l’intelligenza artificiale è ora un mezzo essenziale per la fisica, arrivando ad estenderne i confini verso nuovi ambiti, incluse le scienze della vita, in una misura finora impensabile. La fisica sperimentale delle particelle elementari, ad esempio, produce una grande mole di dati la cui analisi è permessa da algoritmi di machine learning. È stato così per l’analisi dei dati che hanno portato alla scoperta del bosone di Higgs nel 2012, in cui reti neurali sono state addestrate per riconoscere pattern caratteristici che identificassero la “firma” della particella. Altri esempi riguardano l’astrofisica (ricerca degli esopianeti, riduzione del rumore nella misura di onde gravitazionali, analisi di immagini di telescopi) così come molti altri settori della fisica. Il premio Nobel per la Chimica 2024 è stato assegnato agli sviluppatori di AlphaFold, uno strumento che impiega reti neurali artificiali per la predizione della struttura tridimensionale delle proteine a partire dalla sequenza di aminoacidi. 

Molto importante è anche l’impatto sugli aspetti applicativi. Algoritmi di deep learning sono utilizzati, ad esempio, in modelli del clima che considerano esplicitamente i fenomeni fisici sottostanti, o nella predizione di materiali fotovoltaici ad alta efficienza. In medicina, algoritmi di machine learning trovano applicazione in moltissimi settori, dalla diagnostica per immagini alla digital pathology, dai modelli predittivi di risposta a una terapia fino a veri e propri metodi di medicina personalizzata. In radiologia, la detection di anomalie in una immagine radiografica – ad esempio una mammografia – per mezzo di algoritmi di machine learning è un efficace mezzo di ausilio alla diagnosi e alla decisione clinica. In fisica medica, sistemi basati su algoritmi di intelligenza artificiale permettono di ottimizzare la distribuzione di dose nella terapia con radiazioni ionizzanti e di ricostruire immagini di tomografia computerizzata ottenute con impiego di una dose ridotta di radiazione rispetto a tecniche tradizionali, estraendo il massimo dell’informazione ottenibile. Algoritmi generativi permettono anche la sintesi di immagini virtuali in applicazioni speciali, quali ad esempio alcuni metodi di radioterapia guidata da immagini (IGRT, image guided radiation therapy). 

L’intelligenza artificiale basata su reti neurali è largamente diffusa nei sistemi che usiamo tutti i giorni, dal riconoscimento di immagini alla generazione di testo. Una diffusione così capillare e in ulteriore, velocissimo sviluppo porta con sé incognite e preoccupazioni legate alla possibilità di controllo dei sistemi, ad aspetti di riservatezza dei dati, fino a considerazioni di carattere etico legate ad esempio alla “spiegabilità” (explainability) dei sistemi e al loro intrinseco carattere di black box. Lo stesso Hinton, nel 2023, a conclusione di un decennio speso a lavorare per Google come consulente, ha lanciato un grido d’allarme sulla necessità di controllare l’evoluzione degli algoritmi di intelligenza artificiale. Un parere inquietante, il suo: “These things do understand. And because they understand, we need to think hard about what’s going to happen next. And we just don’t know.” L’adozione dell’AI Act nel marzo 2024 da parte del Parlamento Europeo, il summit sulla sicurezza di Bletchley Park del novembre 2023, nonché le iniziative a livello regolatorio di molti stati – compresa l’Italia, con il disegno di legge in materia presentato lo scorso maggio – sono tra le prime azioni per dare regole a questo rapidissimo sviluppo.

Anche la FNCF ha avviato al proprio interno un percorso di approfondimento ed è attiva e vigile in materia, sia organizzando appuntamenti dedicati – come la terza tappa della Roadmap 2024 a Torino lo scorso 20 settembre – sia rispondendo a iniziative promosse ad alto livello, quale ad esempio il tavolo di lavoro del Ministero della Salute il cui primo incontro si è svolto il 21 marzo. La posizione della Federazione su questo tema vuole sottolineare l’importanza di temi quali la garanzia di sicurezza e qualità dei sistemi di intelligenza artificiale impiegati nell’ambito della tutela della salute e l’indispensabile e necessario sforzo che si deve compiere in materia di formazione, per garantire una transizione consapevole e sicura verso un mondo sempre più pervaso da sistemi che impiegano algoritmi complessi e grandissime capacità di calcolo. Per approfondire suggeriamo la lettura della pagina dedicata nel sito Web ufficiale del Nobel Prize (NdR).

Foto di copertina: sito Web ufficiale del Nobel Prize | da sinistra a destra: John J. Hopfield e Geoffrey E. Hinton, premi Nobel per la fisica 2024.

 

Articolo del Dott. Fis. Carlo Cavedon.