Anche gli Accademici di Stoccolma che assegnano i Nobel scientifici seguono spesso le mode, anche se non a livello di quelli del premio per la letteratura che secondo me ogni tanto si divertono. Così quest’anno il premio per la fisica è andato a John Hopfield e Geoffrey Hinton “per le scoperte e invenzioni di base che hanno permesso il machine learning con le reti neurali artificiali”. Ora che l’AI è tornata di moda, evidentemente, anche il comitato ha deciso di salire sul carro del vincitore.
Da un punto di vista genericamente scientifico l’attribuzione ha senso. Dopo l’Inverno dell’Intelligenza Artifiale arrivato alla fine degli anni ’60 quando Minsky e Papert dimostrarono che il percettrone di Rosenblatt non avrebbe mai potuto funzionare in pratica non essendo neppure in grado di calcolare uno XOR, avere il coraggio di proporre un nuovo modello non era facile, soprattutto considerando che non c’erano potenza di calcolo e basi dati di addestramento che permettessero di mettere in pratica la teoria. Quello che io – ma penso anche altri – mi sono chiesto è cosa tutto questo ha a che fare con la fisica, oltre al fatto che Hopfield è fisico. (Hinton nemmeno questo, tra l’altro: ho scoperto che è psicologo con dottorato in intelligenza artificiale, oltre che avere parentele illustri…) E anche il comitato se lo deve essere chiesto, se nella pagina che spiega a noi comuni mortali le loro ricerche cominciano con lo scrivere “I premiati di quest’anno hanno usato strumenti della fisica per costruire sistemi che hanno aiutato a porre le basi per il machine learning oggi così potente”, seguito dal titolone “They used physics to find patterns in information”. Continuando a leggere, scopriamo che il modello di Hopfield parte da un’analogia con i neuroni biologici più precisa di quella di Rosenblatt e poi usa una formula simile a quella usata nel caso di un reticolo di spin, per trovare lo stato di energia minore che dovrebbe corrispondere all’immagine del dataset più vicina a quella distorta fornitagli in fase di test. Il modello di Hinton, invece, ha introdotto lo strato di neuroni nascosti – il vero valore aggiunto rispetto al percettrone – e usato tecniche di massimizzazione dell’entropia per trovare la configurazione più probabile a cui assegnare la figura presentata nei test e non vista in fase di addestramento: non per niente il suo modello si chiama Boltzmann Machine. Hinton ha anche continuato a lavorare per decenni ai suoi modelli, il che gli ha permesso di farli funzionare anche in pratica e non solo in teoria: troppe connessioni infatti confondono il modello; è stato necessario ridurle, non solo per ridurre la quantità di calcoli necessari ma proprio per non rischiare di fissarsi su caratteristiche non importanti delle immagini.
Detto tutto questo, continuo a restare della mia idea: è vero che le idee alla base delle ricerche dei nuovi Nobel arrivano dalla fisica, ma poi di altra fisica non ce n’è molta, e abbiamo più che altro matematica. Ma lasciamo crogiolarsi i fisici al pensiero che sia tutta fisica ;-)
(Ritratti dei Nobel John Hopfield e Geoffrey Hinton di Niklas Elmehed, © Nobel Prize Outreach)
Io voglio anche pensare che il comitato si sia stufato delle supercazzole prematurate che ormai dominano nella fisica teorica ed abbiano dato un bello scrollone ai Fisici….