Alex Wilkins in questo articolo racconta dei progressi ottenuti nel 2024 dalle intelligenze artificiali nel campo della risoluzione di problemi matematici.
Come sapete, gli LLM non “comprendono” quello che hanno in input (o in output, se per questo) ma scelgono fondamentalmente la frase più probabile data la successione di parole in ingresso e le variabili nascoste che hanno a disposizione. Quindi se chiediamo a ChatGPT e ai suoi amici quanto fa 2 + 2 è estremamente probabile che la risposta sia 4; ma alla domanda “Add 34957 to 70764” rischiamo che la risposta sia 105621. (Non ho fatto la prova, ma immagino che chi sviluppa gli LLM abbia tenuto conto di questa particolare addizione e quindi ci sia del codice che faccia dare la risposta corretta.) Il guaio è che proprio perché gli LLM non capiscono quello che fanno è difficile per loro anche solo accorgersi che il problema è matematico e passarlo a un modulo “classico” che faccia i conti.
Pare però che quest’anno ci sia stato un miglioramento nelle performance di questi sistemi, partendo da Google Deepmind che sarebbe riuscita a prendere una medaglia d’argento alle olimpiadi della matematica – no, non vuol dire arrivare secondi, ma essere tra il 20% dei migliori – e arrivando al prossimo sistema O3 di OpenAI che avrebbe ottenuto il 75,7% di risposte corrette sul test “semiprivato” della ARC Challenge, studiato appunto per avere problemi facili per gli umani ma difficili per l’AI. Peccato che il costo per rispondere a ciascuna domanda è intorno ai 20$; O3 avrebbe anche raggiunto l’87,5%, sopra la soglia dell’85% che permetterebbe di vincere l’ARC Challenge, se non fosse per un piccolo particolare. Il costo per rispondere meglio alle domande è di 172 volte maggiore: in pratica per rispondere a una singola domanda O3 consuma 3500 euro di energia… e comunque le soluzioni in questo caso arrivavano per forza bruta, il che spiega il costo.
Diciamo insomma che questi sistemi ne hanno ancora da fare di strada…
Qualcuno ha preso le canzoni di Rubber Soul, le ha date in pasto a Suno e ha tirato fuori
Innanzitutto buon Natale, così non me lo dimentico :-) 

Cosa vuol dire fare matematica sperimentale? Semplice: provare a vedere cosa succede se facciamo alcune ipotesi. Qualcuno potrebbe pensare che la matematica sperimentale sia una contraddizione in termini; qualcun altro pensare che sia nata con l’avvento dei computer, e in effetti Pierluigi Vellucci in questo volume presenta ipotesi fatte così (e dà degli esercizi basati su alcuni suoi articoli di ricerca…). Ma non è così! Anzi, potremmo dire che la matematica è nata come sperimentazione e solo dopo un po’, coi greci prima e soprattutto con Gauss che si premurava di nascondere tutte le tracce di come era arrivato ai suoi risultati, è passata ad apparire un corpus di informazioni necessarie, proprio quelle che odiamo studiare a scuola.
Io usavo da anni Stocard per salvare sul telefono i codici delle carte fedeltà. Un paio di anni fa Stocard annuncia di essere stata acquistata da Klarna. L’altro giorno improvvisamente Stocard non funziona più e sono stato costretto a passare i miei dati su Krarna. In realtà non ha nemmeno copiato tutto (per esempio le foto che mettevo per tessere senza codice a barre) ma soprattutto è un modello che non sopporto per nulla, visto che a quanto pare vuole tanto avere i miei dati personali da aggiungere alle tessere.
Una delle cose che ho più apprezzato di questo libro è lo stile di Matteo Serra, che non solo ha scelto di intervistare vari giovani ricercatori che spaziano su tutti i campi della fisica, ma mette in tutte le interviste un tocco personale. È possibile che la scelta sia anche dovuta al fatto che le interviste sono state fatte nel periodo del lockdown, quando i contatti umani mancavano: ma magari quello è proprio il suo stile.