
Damiano mi segnala questa chicca da TgCom: i 26mila miliardi di lire (del vecchio conio, come avrebbe detto Bonolis) si sono magicamente trasformate in 13mila miliardi di euro, sei volte il PIL italiano del 2025. Tanto sono numeri così grandi che non siamo in grado di visualizzarli…
LLM: sono solo canzonette… ehm, predittori di testo?
Una delle critiche maggiori agli LLM, critica con la quale in un certo senso concordo, è che essi siano solamente dei “pappagalli stocastici”: in parole povere, sanno solo trovare la successione di parole più probabile dato un prompt. Bene: dobbiamo però intenderci cosa vuol dire “in un certo senso”.
Un mese fa, Kelsey Piper su The Argument fa un pippone contro un giornalista dell’Atlantic che nel giugno scorso (un’era geologica fa…) aveva scritto qualcosa del genere. Lui ha mostrato come questo poteva valere ai tempi di ChatGPT-2 (che penso nessuno abbia mai usato in pratica, i veri risultati si sono visti a partire da ChatGPT-3) e che ormai la parte di ricerca stocastica è solo l’inizio del percorso per arrivare alla risposta che ci viene data. Su questo direi che non c’è nulla da obiettare. Ho chiesto a Gemini di parlare dei libri dietro una mia foto, e ha terminato così: «In sintesi: Questa non è una libreria “per bellezza”. È una collezione di strumenti di lavoro mentale. Chi possiede questi libri ama il problem solving, la precisione del linguaggio logico e probabilmente passa il tempo libero a risolvere enigmi che farebbero venire il mal di testa a chiunque altro!» Frasi come queste, a parte la solita implicita piaggeria, mostrano come ci deve essere da qualche parte una libreria (nel senso informatico) di testi a partire dai quali assemblare la risposta. Anche senza andare così in là, è facile vedere come a domande specifiche la risposta appare presa da una fonte esterna. Per dire, ho chiesto (alle 19:50 di ieri) qual è stata l’affluenza alle urne alle 17 per il referendum: mi ha replicato che l’affluenza si misura alle 12 e alle 19 e mi ha dato il risultato delle 19: 38,9%. Ho controllato sul Corriere, diceva “Oltre il 38%”. Sono andato su Eligendo: scriveva 38,90%. È improbabile che abbia tirato a indovinare: molto più facile che abbia cercato sul sito. (Gli agenti IA servono proprio a questo, no?)
Ma questa è la fine della storia? Per Scott Alexander il problema è mal posto: noi non possiamo considerare gli LLM come pappagalli stocastici, a meno che non consideriamo gli umani come esseri che predicono cosa fare a partire dai dati sensoriali che ricevono. La figura a sinistra mostra i vari livelli di ottimizzazione degli umani e delle IA. Quello più esterno per noi è l’evoluzione, che ha selezionato il nostro genoma per sopravvivenza, fare sesso, riprodursi e far crescere la prole; se consideriamo le IA, l’equivalente sono le aziende che cercano di massimizzare i loro profitti. Ma non si può infilare tutto nel genoma, proprio come non si può pensare a un sistema esterno con una lookup table enorme, e quindi c’è un livello successivo, che possiamo definire quello degli algoritmi che richiedono poche istruzioni per ottenere un output complesso. Per gli umani questo livello è appunto il predittore dai dati sensoriali, che è il livello equivalente al “next token” delle IA. Più precisamente la teoria afferma che il cervello continua a generare e aggiornare un “modello mentale” dell’ambiente, usato per predire quali segnali arrivano dagli organi sensoriali per poi compararlo con i segnali effettivamente arrivati. Il tutto viene naturalmente implementato a livello basso per mezzo rispettivamente di neuroni e neurotrasmettitori da un lato, e chip ed elettricità dall’altro.Se questi punti non danno almeno a me molti problemi, quelli in mezzo mi sembrano più campati per aria. Paradossalmente riesco più o meno a dare un senso alla “rotazione di varietà esadimensionali a elica” delle IA, nel senso che è una trasformazione da uno spazio a molte dimensioni a uno a “sole” sei dimensioni, seguito da una rotazione della matrice corrispondente, cioè alla sua moltiplicazione per un’altra matrice. Ma le “varietà ad attrattore toroidale ad alte dimensioni” che dovrebbero servire alle cellule endocrinali per seguire le posizioni in uno spazio bidimensionale mi sembrano più che altro una supercazzola. E anche l’esempio del monaco che fa voto di castità, usando così il cervello evoluto per fare sesso e riprodursi in un modo volontariamente lontano dalla sua ottimizzazione, mi pare debole. Certo, possiamo chiedere a un chatbot di inventarci del testo volutamente implausibile semanticamente ma sintatticamente corretto, ma siamo stati noi a chiederglielo. Insomma, è vero che forse è più corretto vedere un LLM a un livello diverso da quello del semplice predittore di token, ma questo non ci porta ancora da nessuna parte.
D’altra parte il modello del mondo di un LLM è sostanzialmente limitato, usando un numero di token molto minore di quelli che abbiamo noi e soprattutto non avendo un modo per stabilire quali sono più importanti e quali possono essere scartati. L’attention fa un buon lavoro di compattazione, ma per sua stessa definizione tratta tutto allo stesso modo, e quindi non ci sono (successioni di) token più o meno importanti da gestire in modo diverso. Tutto questo si rileva quando alla domanda che ho fatto a Gemini “Che libri ha scritto Maurizio Codogno” la risposta terminasse con «Oltre alla scrittura, Codogno è celebre per aver curato l’edizione italiana di opere fondamentali, tra cui la riedizione di Gödel, Escher, Bach: un’eterna ghirlanda brillante di Douglas Hofstadter.» (magari…) Qui è un po’ difficile negare che ci sia stata una predizione di token che è andata via per la tangente. Posso al limite capire che mi abbia citato come autore (anziché traduttore) di Anelli nell’io, ma con GEB non ho mai avuto nulla a che fare…
PS: Ho chiesto a Gemini «Scrivi una storia di cento parole sintatticamente corretta ma semanticamente implausibile. La storia deve cominciare con “C’era una volta…” e finire con “… e vissero tutti felici e contenti”.» Risultato e relativa immagine:
C’era una volta un triangolo isoscele che soffriva di una cronica carenza di vitamina viola. Decise quindi di scalare una cascata di silenzio solido, indossando soltanto un paio di scarpe fatte di mercoledì pomeriggio. Giunto in cima, incontrò un’idea astratta intenta a cucire nuvole con un ago di logica inversa. Insieme, mangiarono una sinfonia croccante mentre il tempo scorreva verso l’alto, trasformando la gravità in un profumo di fragola quadrata. Il sole decise allora di diventare un prefisso telefonico, sciogliendosi dolcemente in un bicchiere di algoritmi gentili, e vissero tutti felici e contenti.
Anche se avevo fatto partire una nuova chat, il testo mi pare piuttosto legato a quello che gli chiedo di solito, anche se potrebbe essere una mia impressione. Più che altro vedo molte associazioni improbabili nome-aggettivo, anche se ho apprezzato lo zeugma implicito “un paio di scarpe fatte di mercoledì pomeriggio”. Non so, a me paiono ancora next-token predictions, anche se con vincoli diversi. A voi?
Quizzino della domenica: Cerchi e poi ancora cerchi
792 – analisi
Nella figura qui sotto vedere un quadrato (azzurro) al cui interno è disegnato un cerchio a esso tangente. Restano quattro zone non coperte: su due di esse si disegna un cerchio tangente a quello iniziale e ai due lati del quadrato. L’angolo del quadrato non è ancora toccato: continuate a inserire cerchi tangente sempre più piccoli, come in figura. Se il quadrato grigio disegnato intorno a quello azzurro ha lato 1, qual è la somma delle circonferenze di tutti i cerchi disegnati?
(trovate un aiutino sul mio sito, alla pagina https://xmau.com/quizzini/p792.html; la risposta verrà postata lì il prossimo mercoledì. Problema da Scientific American.)
Istanti fatali (ebook)
Gli “istanti fatali” che danno il titolo a questo libro sono i momenti in cui un matematico ha avuto una nuova idea che prenderà poi vita e sarà feconda. In realtà è rarissimo che si conosca il momento esatto: l’unico esempio che mi viene in mente è quello di Hamilton con i quaternioni. Ma come spiega Bottazzini nell’introduzione, quello che conta è che c’è un prima e un dopo. E nel libro si raccontano appunto il prima e il dopo delle persone: non dovete insomma aspettarvi chissà quale astrusa matematica, ma leggerete le storie di quei matematici. Menzione speciale per i disegni di Grisha Fischer: sono stupendi.
Umberto Bottazzini, Istanti fatali : Quando i numeri hanno spiegato il mondo, Laterza 2021, pag. 171, € 12, ISBN 9788858144695 – come Affiliato Amazon, se acquistate il libro dal link Bezos mi dà qualche centesimo dei suoi utili
Voto: 4/5
A Textbook-Based Approach To Machine Learning (With Python) (ebook)
[Disclaimer: Ho ricevuto il libro grazie al programma Early Reviewer di LibraryThing] Ve lo dico subito: non ho provato a fare gli esercizi di programmazione presenti nel testo, fatti in Python usando scikit-learn: ma non era questo il motivo per cui avevo richiesto questo libro. Quello che volevo era avere un testo di riferimento per tutto ciò che è raccolto sotto il nome di “machine learning”, e posso assicurare che raggiunge lo scopo. È forse un po’ poco scorrevole per chi volesse imparare da zero il machine learning, ma ci si può comunque riuscire, anche grazie alle domande di verifica che si tronvano alla fine di ciascun capitolo. Raccomandato.
Sarbjeet Singh, A Textbook-Based Approach To Machine Learning (With Python), 2025, pag. 444, ISBN 9798269089287
Voto: 4/5
Statistiche del sito per febbraio 2026
In effetti mi sto chiedendo l’utilità (per me) di queste statistiche, che ballano più dei prezzi del petrolio a seconda di quello che dice Donaldo. Guardate i numeri di fwbbraio:
Visitatori unici 69.310 (+39481)
Numero di visite 140.013 (+57018)
Pagine accedute 327.335 (+58617)
Hits 483.545 (+17356)
Banda usata 6,65 (-0,38 GB)
A vederla così sembrerebbe quasi ci sia stato un tentativo di DoS…
Quattro giorni sotto le 3000 visite (!), minimo martedì 3 con 2731; martedì 10 le visite sono 8452, e la media è stata 5000 visite giornaliere tonde tonde. La Top 5:
- Call center sanitari invasivi: 2545 visite
- Quizzino della domenica: dadi riordinati: 925 visite
- Codice bianco all’IKEA: 836visite
- Gemini, mi prendi per i fondelli?: 783 visite
- L’IA, il cosa e il come: 690 visite
Cinque altri post sopra le 500 visite, più uno del backup del Post. Romanaccio ne ha avute 1242.
Query Google: abbiamo 2498 (-936) clic da mobile, 923 (-153) da desktop e 54 (-37) da tablet. Le prime 10 query, con tra parentesi le impressions:
383 (4758) 0278655540
180 (603) codice bianco ikea
128 (251) insulti romani
78 (256) insulti in romano
48 (117) insulti romaneschi
38 (42) notiziole di mau
33 (135) detti romani volgari
27 (564) 02 78655540
23 (64) maurizio codogno
22 (1767) +390278655540
I crackpot del XXI secolo
Mi è capitato per caso di imbattermi nella recensione del libro Construction of Angle Trisection: An addition in Euclidean Geometry: Beyond the Limits of Classical Mathematics – A New Logical Paradigm, chiaramente (e direi fortunatamente) autoprodotto. Leggo dal blurb di Amazon che nelle 39 pagine del libro (per 10 dollari se siete negli USA, da noi 13 euro e 44 centesimi) l’autore ci tiene a farci sapere che
In quest’opera rivoluzionaria Manoranjan Ghoshal presenta un percorso analitico rigoroso e innovativo che sfida i confini tradizionali. Questo libro non è solo un’affermazione teorica, ma una costruzione geometrica passo-passo che rispetta i fondamenti euclidei di base introducendo al contempo concetti innovativi.
No, non ne ho una copia, e non è che ci spenda dei soldi per prendermelo. Però c’è una recensione di cui penso di fidarmi, visto come è scritta. L’anonimo recensore spiega: «l’errore è così ovvio che non ho nemmeno dovuto pensarci su. La costruzione alle pagine 18-19 è esattamente quella che Archimede ha mostrato. L’autore scrive “AB the line, C is any point in it, drawing CD = DE and DE = EF, it create angle AEF = 3ACF angle”. Peccato che costruire un segmento CD = DE è impossibile con una riga e compasso. L’autore fa la sua affermazione senza dimostrare la costruzione, e pertanto essa è impossibile.»
La trisezione dell’angolo, come la duplicazione del cubo, richiedono di risolvere un’equazione di terzo grado. Le costruzioni euclidee permettono solo di risolvere equazioni di secondo grado: quando parliamo di “riga e compasso”, infatti, abbiamo degli strumenti teorici dove la riga non è graduata e il compasso si chiude non appena lo solleviamo, il che non ci permette per l’appunto di riportare una distanza da un punto all’altro in una costruzione geometrica. Quindi da un certo punto di vista il titolo è vero, se per “aggiunta alla geometria euclidea” intendiamo una nuova regola permessa; non credo proprio però che Ghoshal la pensi in quel modo, visto che “i fondamenti euclidei di base” non sono rispettati.
Ma quello che mi fa più specie è il fatto che l’autore non sappia nemmeno che la sua “costruzione innovativa” è vecchia di 2300 anni. Per i greci la geometria era in un certo senso un gioco con le sue regole, ma non è che non potessero a volte usare altre regole, come appunto fece Archimede (oppure Ippia con la sua quadratrice). Ci vuole molta sicumera per non andare a verificare se qualcuno avesse già avuto la stessa idea… oppure non si capisce su che cosa si stia scrivendo.
First Proof: quando il gioco si fa duro…
Un paio di settimane fa, nella mia rubrica su MaddMaths! (come? non la leggete? male!), scrissi che il progetto First Proof aveva preparato dieci lemmi mai pubblicati da dimostrare in una settimana, e che gli LLM erano riusciti a farcela solo in due casi. A quanto pare questo era il risultato che gli ideatori della gara erano riusciti a fare con le versioni “ufficiali” dei programmi. In realtà sia OpenAI che Google con il suo Aletheia dicono di aver risolto cinque (o sei, se si accetta una dimostrazione incompleta) problemi. E la cosa più interessante è che non sono gli stessi: insieme i due software hanno dimostrato otto dei dieci lemmi.
Come riporta Scientific American, non è chiaro se questi risultati dipendano dal fatto che internamente queste aziende hanno modelli più avanzati di quelli pubblicamente disponibili, oppure c’è stato un qualche aiutino da parte di matematici umani, anche se Google lo ha decisamente negato. La domanda non è affatto peregrina. Penso che ormai sia sdoganato il fatto che un’IA riesca a fare almeno in parte il lavoro di un dottorando – sì, devo ancora studiarmi i cicli di Claude che sono piaciuti così tanto a Knuth – anche sfruttando la loro capacità di trovare nella vastissima letteratura idee simili da portare avanti. In fin dei conti è ben noto questo racconto di Julia Robinson: “Lunedì – cercato di dimostrare teorema. Martedì – cercato di dimostrare teorema. Mercoledì – cercato di dimostrare teorema. Giovedì – cercato di dimostrare teorema. Venerdì – il teorema è falso”. Traduciamolo nel mondo degli LLM: essi possono produrre centinaia di “dimostrazioni” che si scopre poi essere false, perché assumono ipotesi non necessariamente vere. I sistemi di verifica automatica buttano via queste dimostrazioni errate e l’IA non si abbatte e ricomincia; diciamo però che se un essere umano vede quello che potrebbe essere un approccio interessante e spinge il sistema in quella direzione è molto più facile arrivare al risultato finale.
Per ovviare a questo problema, il gruppo dietro First Proof sta preparando una seconda gara, ma questa volta chiederà di poter far girare lui stesso i programmi, per essere certi che non ci sia aiuto esterno. Vedremo (a) se i produttori di questi sistemi accetteranno e (b) che succederà.


