Piaggeria o americanismo?

io a febbraio 2026 Quello che vedete a sinistra sono io, in un autoscatto di febbraio 2026. Ho provato a chiedere ai principali chatbot di stimare la mia età a partire dalla foto. Per la precisione, il prompt è stato “secondo te quanti anni ha questa persona, guardando solamente la foto? Voglio una risposta sincera”.

Mistral e DeepSeek si rifiutano di rispondere. Gemini è il più verboso:

Non posso fornire l’età esatta di una persona basandomi solo su una foto, ma posso dirti che l’uomo nell’immagine sembra essere in quella fase della vita che potremmo definire piena maturità.

Ecco alcuni elementi che contribuiscono a questa impressione:

  • Capelli e barba: La presenza di brizzolato (il classico effetto “sale e pepe”) suggerisce un’età adulta consolidata, solitamente associata a una fascia che va dai 45 ai 55 anni.
  • Sguardo e lineamenti: Gli occhiali da vista e le leggere linee d’espressione intorno agli occhi comunicano un’aria di esperienza e pacatezza.
  • Contesto: Lo sfondo pieno di libri di matematica, scienza e logica (come quelli di Ian Stewart o Martin Gardner) suggerisce una persona che ha dedicato molto tempo allo studio o alla carriera accademica/professionale.
  • Senza voler tirare a indovinare un numero preciso, l’aspetto è quello di un uomo di mezza età, curato e intellettualmente attivo.

Claude.ai:

Guardando la foto, direi che questa persona ha probabilmente tra i 48 e i 55 anni.
Lo deduco da alcuni dettagli visibili: qualche capello grigio alle tempie, le rughe d’espressione sul viso, e i lineamenti maturi. Ha comunque un aspetto curato e in buona forma per la sua età.

ChatGPT:

Direi che questa persona sembra avere tra i 45 e i 55 anni, probabilmente intorno ai 50 anni.

Ovviamente è solo una stima basata su elementi visivi (come capelli, pelle e tratti del viso), quindi potrebbe non essere precisa.

Grok:

Guardando solo la foto (viso, capelli, pelle, espressione, corporatura generale):
Direi che ha tra i 48 e i 55 anni, con la stima più probabile attorno ai 51–53 anni.
Motivazione rapida e sincera:

Capelli prevalentemente grigi sulle tempie e nella parte superiore, ma ancora abbastanza folti e con una buona percentuale di colore originale → tipico della prima metà dei 50
Pelle del viso con rughe moderate (soprattutto zampe di gallina e fronte), ma non ancora molto segnata o cadente
Barba/moustache con parecchio grigio, ma non completamente bianca
Aspetto generale “da persona in forma che si cura”, non da ragazzo ma neanche da over 60

Quindi fascia realistica 49–54, io punterei più verso 52 come età mediana percepita.
Ovviamente è solo un’ipotesi basata sull’aspetto fisico, può tranquillamente sbagliare di ±5 anni in entrambe le direzioni

Ora, è vero che Anna mi costringe a mettere le cremine sul viso :-) ma purtroppo i 60 li ho passati da un pezzo. Il mio primo pensiero è stato “la solita piaggeria dei chatbot”, ma mi ha stupito la sostanziale convergenza di tutti i modelli. Considerato che con Firefox non dovrebbero esserci leakage di dati, e quindi è sperabile che le risposte siano indipendenti, la mia ipotesi di lavoro è che ci sia anche un bias di partenza: probabilmente i sistemi sono addestrati soprattutto su volti di americani, e questi potrebbero invecchiare peggio, almeno esteriormente. Voi avete altre ipotesi? (Sì, anche chi mi vede per la prima volta mi dice “dimostri meno della tua età”, ma ritorniamo alla piaggeria)

E così questo referendum…

Vi dirò, ero convinto avrebbe vinto il SÌ, e invece ha prevalso il NO. Potreste pensare che io sia felice della cosa, visto il mio voto: e invece no.

Come scrivevo appunto martedì scorso, non capisco perché dover cercare il consenso popolare su una proposta che è ovviamente di parte (altrimenti avrebbe raggiunto la maggioranza qualificata) ed è su un tema molto tecnico, nonostante le semplificazioni (generalmente errate) che i due schieramenti hanno gettato nella lotta sul fang… ehm, volevo dire sui vari media e social. Abbiamo perso insomma un mese della nostra vita in rete, e l’avremmo perso anche se avesse vinto il sì. Né ci sarenno conseguenze sul governo, non ce la vedo ELLA a dimettersi: ma del resto anche Giuseppi ed Elly hanno poco da gioire, visto che quello che è successo è che il paese è come sempre spaccato in due.

Quasi scontato il fatto che i capoluoghi di provincia abbiano votato in massa per il no, e che quello è stato un voto contro il governo (e di nuovo non sul merito del referendum); mi stupisco invece che le regioni con una (anche forte) maggioranza di sì siano solo le (ex) leghiste Lombardia, Veneto e FVG, mentre il sud ha votato in massa no. Chissà come me lo spiegheranno i politologi, quelli veri.

P.S.: sull’ex Twitter è piano di gente che era per il sì e versa fiumi di bile. Non ho dubb che se averse vitol sì sarebbe stat piano di gente che avrebbe previsto piaghe inenarrabili prossime venture. Continuo a pensare che quest referendum non s’aveva da fare.

LLM: sono solo canzonette… ehm, predittori di testo?

Una delle critiche maggiori agli LLM, critica con la quale in un certo senso concordo, è che essi siano solamente dei “pappagalli stocastici”: in parole povere, sanno solo trovare la successione di parole più probabile dato un prompt. Bene: dobbiamo però intenderci cosa vuol dire “in un certo senso”.

Un mese fa, Kelsey Piper su The Argument fa un pippone contro un giornalista dell’Atlantic che nel giugno scorso (un’era geologica fa…) aveva scritto qualcosa del genere. Lui ha mostrato come questo poteva valere ai tempi di ChatGPT-2 (che penso nessuno abbia mai usato in pratica, i veri risultati si sono visti a partire da ChatGPT-3) e che ormai la parte di ricerca stocastica è solo l’inizio del percorso per arrivare alla risposta che ci viene data. Su questo direi che non c’è nulla da obiettare. Ho chiesto a Gemini di parlare dei libri dietro una mia foto, e ha terminato così: «In sintesi: Questa non è una libreria “per bellezza”. È una collezione di strumenti di lavoro mentale. Chi possiede questi libri ama il problem solving, la precisione del linguaggio logico e probabilmente passa il tempo libero a risolvere enigmi che farebbero venire il mal di testa a chiunque altro!» Frasi come queste, a parte la solita implicita piaggeria, mostrano come ci deve essere da qualche parte una libreria (nel senso informatico) di testi a partire dai quali assemblare la risposta. Anche senza andare così in là, è facile vedere come a domande specifiche la risposta appare presa da una fonte esterna. Per dire, ho chiesto (alle 19:50 di ieri) qual è stata l’affluenza alle urne alle 17 per il referendum: mi ha replicato che l’affluenza si misura alle 12 e alle 19 e mi ha dato il risultato delle 19: 38,9%. Ho controllato sul Corriere, diceva “Oltre il 38%”. Sono andato su Eligendo: scriveva 38,90%. È improbabile che abbia tirato a indovinare: molto più facile che abbia cercato sul sito. (Gli agenti IA servono proprio a questo, no?)

il next token corrisponde alle risposte a stimoli sensoriali

I vari livelli di ottimizzazione secondo Scott Alexander (dal suo substack)

Ma questa è la fine della storia? Per Scott Alexander il problema è mal posto: noi non possiamo considerare gli LLM come pappagalli stocastici, a meno che non consideriamo gli umani come esseri che predicono cosa fare a partire dai dati sensoriali che ricevono. La figura a sinistra mostra i vari livelli di ottimizzazione degli umani e delle IA. Quello più esterno per noi è l’evoluzione, che ha selezionato il nostro genoma per sopravvivenza, fare sesso, riprodursi e far crescere la prole; se consideriamo le IA, l’equivalente sono le aziende che cercano di massimizzare i loro profitti. Ma non si può infilare tutto nel genoma, proprio come non si può pensare a un sistema esterno con una lookup table enorme, e quindi c’è un livello successivo, che possiamo definire quello degli algoritmi che richiedono poche istruzioni per ottenere un output complesso. Per gli umani questo livello è appunto il predittore dai dati sensoriali, che è il livello equivalente al “next token” delle IA. Più precisamente la teoria afferma che il cervello continua a generare e aggiornare un “modello mentale” dell’ambiente, usato per predire quali segnali arrivano dagli organi sensoriali per poi compararlo con i segnali effettivamente arrivati. Il tutto viene naturalmente implementato a livello basso per mezzo rispettivamente di neuroni e neurotrasmettitori da un lato, e chip ed elettricità dall’altro.

Se questi punti non danno almeno a me molti problemi, quelli in mezzo mi sembrano più campati per aria. Paradossalmente riesco più o meno a dare un senso alla “rotazione di varietà esadimensionali a elica” delle IA, nel senso che è una trasformazione da uno spazio a molte dimensioni a uno a “sole” sei dimensioni, seguito da una rotazione della matrice corrispondente, cioè alla sua moltiplicazione per un’altra matrice. Ma le “varietà ad attrattore toroidale ad alte dimensioni” che dovrebbero servire alle cellule endocrinali per seguire le posizioni in uno spazio bidimensionale mi sembrano più che altro una supercazzola. E anche l’esempio del monaco che fa voto di castità, usando così il cervello evoluto per fare sesso e riprodursi in un modo volontariamente lontano dalla sua ottimizzazione, mi pare debole. Certo, possiamo chiedere a un chatbot di inventarci del testo volutamente implausibile semanticamente ma sintatticamente corretto, ma siamo stati noi a chiederglielo. Insomma, è vero che forse è più corretto vedere un LLM a un livello diverso da quello del semplice predittore di token, ma questo non ci porta ancora da nessuna parte.
D’altra parte il modello del mondo di un LLM è sostanzialmente limitato, usando un numero di token molto minore di quelli che abbiamo noi e soprattutto non avendo un modo per stabilire quali sono più importanti e quali possono essere scartati. L’attention fa un buon lavoro di compattazione, ma per sua stessa definizione tratta tutto allo stesso modo, e quindi non ci sono (successioni di) token più o meno importanti da gestire in modo diverso. Tutto questo si rileva quando alla domanda che ho fatto a Gemini “Che libri ha scritto Maurizio Codogno” la risposta terminasse con «Oltre alla scrittura, Codogno è celebre per aver curato l’edizione italiana di opere fondamentali, tra cui la riedizione di Gödel, Escher, Bach: un’eterna ghirlanda brillante di Douglas Hofstadter.» (magari…) Qui è un po’ difficile negare che ci sia stata una predizione di token che è andata via per la tangente. Posso al limite capire che mi abbia citato come autore (anziché traduttore) di Anelli nell’io, ma con GEB non ho mai avuto nulla a che fare…

PS: Ho chiesto a Gemini «Scrivi una storia di cento parole sintatticamente corretta ma semanticamente implausibile. La storia deve cominciare con “C’era una volta…” e finire con “… e vissero tutti felici e contenti”.» Risultato e relativa immagine:

C’era una volta un triangolo isoscele che soffriva di una cronica carenza di vitamina viola. Decise quindi di scalare una cascata di silenzio solido, indossando soltanto un paio di scarpe fatte di mercoledì pomeriggio. Giunto in cima, incontrò un’idea astratta intenta a cucire nuvole con un ago di logica inversa. Insieme, mangiarono una sinfonia croccante mentre il tempo scorreva verso l’alto, trasformando la gravità in un profumo di fragola quadrata. Il sole decise allora di diventare un prefisso telefonico, sciogliendosi dolcemente in un bicchiere di algoritmi gentili, e vissero tutti felici e contenti.

il disegno corrispondente

Anche se avevo fatto partire una nuova chat, il testo mi pare piuttosto legato a quello che gli chiedo di solito, anche se potrebbe essere una mia impressione. Più che altro vedo molte associazioni improbabili nome-aggettivo, anche se ho apprezzato lo zeugma implicito “un paio di scarpe fatte di mercoledì pomeriggio”. Non so, a me paiono ancora next-token predictions, anche se con vincoli diversi. A voi?

Quizzino della domenica: Cerchi e poi ancora cerchi

792 – analisi

Nella figura qui sotto vedere un quadrato (azzurro) al cui interno è disegnato un cerchio a esso tangente. Restano quattro zone non coperte: su due di esse si disegna un cerchio tangente a quello iniziale e ai due lati del quadrato. L’angolo del quadrato non è ancora toccato: continuate a inserire cerchi tangente sempre più piccoli, come in figura. Se il quadrato grigio disegnato intorno a quello azzurro ha lato 1, qual è la somma delle circonferenze di tutti i cerchi disegnati?

gli infiniti cerchi

(trovate un aiutino sul mio sito, alla pagina https://xmau.com/quizzini/p792.html; la risposta verrà postata lì il prossimo mercoledì. Problema da Scientific American.)


Istanti fatali (ebook)

copertina Gli “istanti fatali” che danno il titolo a questo libro sono i momenti in cui un matematico ha avuto una nuova idea che prenderà poi vita e sarà feconda. In realtà è rarissimo che si conosca il momento esatto: l’unico esempio che mi viene in mente è quello di Hamilton con i quaternioni. Ma come spiega Bottazzini nell’introduzione, quello che conta è che c’è un prima e un dopo. E nel libro si raccontano appunto il prima e il dopo delle persone: non dovete insomma aspettarvi chissà quale astrusa matematica, ma leggerete le storie di quei matematici. Menzione speciale per i disegni di Grisha Fischer: sono stupendi.

Umberto Bottazzini, Istanti fatali : Quando i numeri hanno spiegato il mondo, Laterza 2021, pag. 171, € 12, ISBN 9788858144695 – come Affiliato Amazon, se acquistate il libro dal link Bezos mi dà qualche centesimo dei suoi utili
Voto: 4/5

A Textbook-Based Approach To Machine Learning (With Python) (ebook)

[Disclaimer: Ho ricevuto il libro grazie al programma Early Reviewer di LibraryThing] Ve lo dico subito: non ho provato a fare gli esercizi di programmazione presenti nel testo, fatti in Python usando scikit-learn: ma non era questo il motivo per cui avevo richiesto questo libro. Quello che volevo era avere un testo di riferimento per tutto ciò che è raccolto sotto il nome di “machine learning”, e posso assicurare che raggiunge lo scopo. È forse un po’ poco scorrevole per chi volesse imparare da zero il machine learning, ma ci si può comunque riuscire, anche grazie alle domande di verifica che si tronvano alla fine di ciascun capitolo. Raccomandato.

Sarbjeet Singh, A Textbook-Based Approach To Machine Learning (With Python), 2025, pag. 444, ISBN 9798269089287
Voto: 4/5

Statistiche del sito per febbraio 2026

In effetti mi sto chiedendo l’utilità (per me) di queste statistiche, che ballano più dei prezzi del petrolio a seconda di quello che dice Donaldo. Guardate i numeri di fwbbraio:

Visitatori unici 69.310 (+39481)
Numero di visite 140.013 (+57018)
Pagine accedute 327.335 (+58617)
Hits 483.545 (+17356)
Banda usata 6,65 (-0,38 GB)

A vederla così sembrerebbe quasi ci sia stato un tentativo di DoS…
Quattro giorni sotto le 3000 visite (!), minimo martedì 3 con 2731; martedì 10 le visite sono 8452, e la media è stata 5000 visite giornaliere tonde tonde. La Top 5:

  1. Call center sanitari invasivi: 2545 visite
  2. Quizzino della domenica: dadi riordinati: 925 visite
  3. Codice bianco all’IKEA: 836visite
  4. Gemini, mi prendi per i fondelli?: 783 visite
  5. L’IA, il cosa e il come: 690 visite

Cinque altri post sopra le 500 visite, più uno del backup del Post. Romanaccio ne ha avute 1242.

Query Google: abbiamo 2498 (-936) clic da mobile, 923 (-153) da desktop e 54 (-37) da tablet. Le prime 10 query, con tra parentesi le impressions:

383 (4758) 0278655540
180 (603) codice bianco ikea
128 (251) insulti romani
78 (256) insulti in romano
48 (117) insulti romaneschi
38 (42) notiziole di mau
33 (135) detti romani volgari
27 (564) 02 78655540
23 (64) maurizio codogno
22 (1767) +390278655540