Mi pare che la notizia secondo cui OpenAI ha creato un chatbot che “sa fare ragionamenti matematici e scientifici” non abbia avuto grande eco. Può darsi che ciò sia dovuto al fatto che OpenAI o1 – questo è il nome in codice del nuovo progetto – è disponibile solo per un selezionato gruppo di utenti, oppure perché a nessuno interessa davvero avere un sistema che sappia risolvere problemi matematici.
Devo dire che l’articolo del NYT è parco di informazioni. Pare che OpenAI o1 usi l’apprendimento per rinforzo, quindi “premiando” le successioni di passi logici rispetto a un risultato ottenuto di colpo. L’idea degli sviluppatori è che in questo modo ci si avvicinerebbe di più al pensiero umano. Io personalmente non sono molto convinto di questo approccio, che continua a nascondere sotto il tappeto il problema di base degli LLM: non è che avere un approccio passo passo faccia sì che il computer abbia un’idea di quello che sta facendo: per lui continua a trattarsi di un’emissione di simboli secondo una certa logica sintattica e non semantica. Certo, è vero che fare passi più brevi aumenta la probabilità che l’output del singolo passo sia corretta: ma visto che il numero di passi aumenta alla fine la probabilità di un’allucinazione è la stessa.
Il modo migliore per far risolvere problemi di matematica è quello di accorgersi che si parla di matematica e passare a un altro sistema “classico”: se la domanda è “quanto fa 48 per 75?” ci dovrebbe essere un metasistema che si accorge di star facendo un’operazione aritmetica e quindi buttare via tutto l’apprendimento standard, facendo piuttosto partire un sistema classico. Perché è vero che probabilmente ChatGPT ha visto quell’espressione in fase di addestramento e quindi ha la risposta, ma è anche vero che alla domanda “quanto fa 10048 per 13275?” i risultati non possono essere che sbagliati. Eppure il pattern dovrebbe essere chiaro, e quindi passare a un sistema aritmetico dovrebbe essere possibile senza troppe difficoltà: il chatbot continuerebbe a non “pensare”, qualunque significato si dia a questa parola nel caso degli esseri umani, e si troverebbe in difficoltà con un testo del tipo “ci sono 10000 soldati e 48 comandanti, ciascuno dei quali pattuglia una zona rettangolare di lati 59 e 225 metri. Se le zone non si sovrappongono, qual è la superficie totale pattugliata?” (Ho appena provato: ChatGPT 4o si dimentica i 10000 soldati…)
In definitiva, questi chatbot saranno anche più bravi di noi, ma ne hanno ancora di strada da fare.
Anche la corte d’appello americana 
Questo breve testo si occupa di come i diversi social network cercando di accalappiarti e farti restare al loro interno, fortunatamente evitando di usare la trita frase “se non devi pagare, allora sei tu il prodotto” (per dire, mi sa che con X anche se paghi continui a essere il prodotto). Tra i punti positivi c’è il tentativo di spiegare per ciascuno dei principali social network quali potrebbero essere i dati impliciti che vengono raccolti e il decalogo finale (di buon senso) su cosa possiamo fare noi. Ci sono però cose che non mi sono piaciute: se in fondo a pagina 14 un 20% diventa “uno su quattro” o a pagina 20 ci aspettiamo che dopo un po’ che il 10 rosso non è uscito alla roulette allora la probabilità che arrivi è maggiore abbiamo qualche problema matematico. Sono il primo ad affermare che in questi casi la matematica non è tutto e la sociologia è preponderante: ma fare un controllino no?
Io odio il bike sharing di tipo “free floating”, dove puoi lasciare la bici dove ti pare, e non in apposite stazioni come si fa con BikeMi, a cui in effetti sono abbonato. Il motivo? che queste bici, come del resto anche i monopattini, sono sbattuti davvero in modo osceno.
Se persino Fox News dice che il dibattito Harris-Trump di martedì