L’account Fermat’s Library nota come oggi (16/9/25, funziona anche con le date scritte in modo serio) non solo anno, mese e giorno sono quadrati perfetti (ma lo sarebbe anche 2025 anziché 25), ma sono i quadrati di cateti e ipotenusa di un triangolo rettangolo!
Gli LLM sono tarati per avere allucinazioni?
Qualche giorno fa Alberto Romero ha scritto un post che riprende un paper scritto da alcuni ricercatori di OpenAI, dal titolo “Why Language Models Hallucinate”. La tesi degli autori è che le allucinazioni degli LLM, cioè le risposte completamente inventate, sono il risultato del modo in cui i modelli sono addestrati, vale a dire per cercare di dare il maggior numero di risposte possibili. Questo significa che se non c’è una risposta chiaramente ricavabile dal materiale di addestramento – in altri termini, se i token che vengono man mano emessi arrivano da una distribuzione senza un picco chiaro, che corrisponde a una classificazione “forte” – il modello si comporta come lo studente tipico quando all’esame trova domande a risposta multipla su temi che non conosce: tira a indovinare. Se indovina, bene; altrimenti non perde nulla.
Prima di parlare dell’articolo in sé, Romero fa una meta-analisi di cosa può significare la pubblicazione di quell’articolo. Sui primi due punti (bisogna lavorare per eliminare le allucinazioni, anche al costo di un modello che a volte risponde “non lo so”; fino ad adesso non è stata data priorità al problema) mi trovo d’accordo, mentre non penso che la pubblicazione implichi che OpenAI sia vicinissima ad avere trovato una soluzione. Se fosse così, mi sarei aspettato prima un modello “dubbioso ma non allucinato”, e subito dopo la pubblicazione dell’articolo, visto che sarebbero stati in parecchi ad accorgersi della filosofia dietro un modello di quel tipo.
Entrando nel merito dell’articolo, i ricercatori affermano appunto che il problema delle allucinazioni non è tanto dovuto al materiale di ingresso che è “sporco”, cosa che può peggiorare i risultati ma non è fondamentale. Il problema è che anche se i dati di addestramento fossero perfetti l’LLM non risponderebbe mai “non lo so” a una domanda, perché è stato addestrato per predire la parola successiva anche se non ha al suo interno nessun pattern trovato nel testo e soprattutto perché in media l’accuratezza (misurata come percentuale di risposte esatte) comunque cresce, dato che non viene misurata “risposta corretta: +1; risposta errata: -1; nessuna risposta: 0” ma solo come risposte corrette sul totale. Ecco perché gli LLM bluffano sempre. Nella tabella qui sotto, presa dal loro blog, gli autori dell’articolo mostrano il confronto con un modello basato su GPT-5 che dice “non lo so”. La percentuale di risposte corrette cala un po’, ma quella di risposte sbagliate crolla.
Dal mio punto di vista, un chatbot meno sicuro di sé sarebbe sicuramente un vantaggio, perché perderei meno tempo a verificare le risposte che mi dà: ma ho il sospetto che il mio tipo di interazione sia molto minoritario.
La parte più divertente dell’articolo è però quella sull’indovinello del chirurgo… Ma ne parlo tra qualche giorno.
La storia del sito armani.it
Tra le storie pubblicate in morte di Giorgio Armani c’è quella sul dominio armani.it, che era stato inizialmente preso dal titolare di un timbrificio il cui nome era Luca Armani e poi è stato assegnato a quell’altra Armani, cioè la Giorgio Armani SpA.
A parte l’ovvio svarione sulle date – la causa legale è cominciata nel 1998, non nel 2008 – io ricordo qualcosa di diverso. Innanzitutto la storia nasce nel 1997, quando Luca Armani registra il dominio armani.it per il suo timbrificio e crea un sito web. Nel 1997 Internet cominciava a essere nota in Italia anche nel campo aziendale: la prima pubblicità cartellonistica che mi ricordi con indicato il nome del sito è quella di Invicta che era appunto del 1996 o 1997. In quegli anni i nomi a dominio .it erano assegnati con il contagocce: con l’eccezione dei provider internet che potevano averne fino a sette per i vari servizi di rete, gli aventi diritto potevano averne uno solo, e solo se erano aziende: ai privati cittadini non era ammesso registrarne uno. Questo lo so per certo, perché ero un membro della Naming Authority italiana che faceva quelle regole. La regola per l’assegnazione era “chi prima arriva e ha un diritto, si piglia il nome”. Evidentemente la Giorgio Armani SpA non aveva pensato che Internet servisse, come si vide anche per il sito armani.com – dove perse la causa contro il signor A. R. Mani, ma negli USA le regole sono diverse.
Quando la Giorgio Armani SpA citò a giudizio Luca Armani, quest’ultimo si affidò probabilmente a un avvocato che ne sapeva ancora meno del giudice. Per prima cosa, Luca Armani non aveva comprato il dominio ma l’aveva visto assegnato dalla Registration Authority (quella che oggi è il Registro .it). Ancora adesso non si può “vendere” un dominio, ma solo trasferirne la proprietà, dietro la foglia di fico di un pagamento per le spese sostenute nel gestirlo in passato. La prima cosa da fare sarebbe insomma stata chiedere che il procedimento venisse chiuso perché era da aversi contro la RA. Posso però immaginare che una strada del genere gli avrebbe immediatamente fatto perdere la titolarità… Ma c’è un secondo punto. L’avvocato (mal) consigliò Luca Armani di togliere dal sito Web tutto quello relativo al timbrificio e usarlo solo come sito personale. L’idea probabilmente era quella di evitare una sentenza legata al marchio notorio e all'”indebito vantaggio” di chiamarsi in quel modo, pur non essendoci un caso di concorrenza sleale. Non solo un avvocato appena esperto di cose di rete (e ne avevamo, nella NA) poteva smontare la cosa, come scrisse per esempio Alberto Monari – ricordate, siamo nel 1997, non anche solo nel 2005 – ma soprattutto in questo modo Luca Armani si mise da solo al di fuori delle regole per l’assegnazione del dominio, e quindi finì automaticamente dalla parte del torto. Insomma, l’analisi di Punto Informatico non sta in piedi.
Poi magari Luca Armani aveva chiesto qualche decina di milioni a Giorgio Armani per cedergli volontariamente il dominio: ma non penso sia andata così, anche perché gli avvocati della controparte avrebbero immediatamente colto l’occasione. Diciamo che è stata comunque una delle tante tristi pagine nella storia di Internet in Italia.
Carnevale della matematica #189: GOTO Amolamatematica
Dopo la pausa estiva, riparte il Carnevale della Matematica, questa volta ospitato sul blog di Daniela Molinari. Il tema è sicuramente interessante (e ci ho scritto qualcosa persino io…): Il segreto dei matematici. Ma come sempre c’è poi tutto il resto!
Quizzino della domenica: tutti primi
765 – algebretta
Data l’equazione a + b + c = d, dove a, b, c, d sono tutti numeri primi, qual è il minimo valore che può assumere d? Ricordo che 1 non è un numero primo (e che ovviamente non si possono usare numeri negativi…)
(trovate un aiutino sul mio sito, alla pagina https://xmau.com/quizzini/p765.html; la risposta verrà postata lì il prossimo mercoledì. Problema da MathWorld.)
Il piano delle cicale (ebook)
Ho recuperato il primo volume scritto da Tadako Okada (con l’aiuto di Marco Pagot che ha probabilmete suggerito all’autrice alcune espressioni italiane). Il testo, che ora è stato retrofittato come lontano sequel degli altri volumi con Linux Kimura, è indubbiamente per young adults, ma questo non significa che non si lasci leggere molto piacevolmente anche da chi giovane non lo è più da decenni come il sottoscritto. Il mondo distopico dell’Istituto Gloriosa Alba si dipana man mano, e anche se il finale probabilmente è intuibile si resta comunque incollati a scoprire cosa farà Anna Malva. Ho solo un appunto: il cambio di voce narrante nella seconda parte mi ha spiazzato, e ho fatto fatica a rimettermi in carreggiata.
Tadako Okada, Il piano delle cicale, Forevera 2019, pag. 506, € 3,99, ISBN cartaceo 9788825403077, trad. Marco Pagot – come Affiliato Amazon, se acquistate il libro dal link qualche centesimo va a me
Voto: 4/5
Quanto non sappiamo dei nostri figli in rete
Stamattina ho letto questo tweet di Chiara Degli Esposti. Posso aggiungere la mia personale esperienza con due sedicenni.
Premessa: nemmeno io sapevo di Charlie Kirk prima che venisse ucciso. Cecilia (che era a casa malata) mi ha detto autonomamente “Hai letto di quel tipo che è stato sparato (sic) al collo?” Alla mia controdomanda se lei ne avesse sentito parlare prima ha risposto che aveva visto qualche clip. A Jacopo ho dovuto fare la domanda diretta: anche lui sapeva chi era, ha aggiunto che a lui non piacevano le idee che aveva sull’aborto, ma che comunque non era giusto ammazzarlo (per fortuna…)
Quello che posso dire è che sono ormai vecchio. In passato l’americanismo imperante implicava che conoscevo molte più cose legate agli USA di quante francesi, tedesche o spagnole. Adesso a quanto pare non è più così, o almeno il numero di cose che conosco è minore (non ho fatto una statistica sulle mie conoscenze in genere). Ma quello che mi preoccupa di più è questa polarizzazione della comunicazione. Ai ragazzi le notizie arrivano: magari con un giorno di ritardo, spesso distorte, ma capita che a cena i ragazzi ci chiedano di qualche fatto di cronaca. Se però il mezzo principale sono i dibattiti, come quelli di Kirk, ci allontaniamo del tutto dai fatti, e diventa difficilissimo non dico fare debunking ma anche solo dare un contesto. Su questo abbiamo davvero molto su cui lavorare.
Gli esperimenti di fisica delle IA
Qualche settimana fa Le Scienze ha tradotto e pubblicato un articolo di Anil Ananthaswamy su come è stata usata l’intelligenza artificiale per provare a vedere se fosse possibile migliorare la sensibilità dei ricevitori LIGO per le onde gravitazionali. A quanto pare, dopo output iniziali incomprensibili e uno sfrondamento fatto (a grande fatica) dai ricercatori, l’IA se n’è uscita con una soluzione bruttissima a vedersi, ma che permetteva un miglioramento del 10-15% nella sensibilità. L’articolo prosegue con altre soluzioni “brutte ma funzionali” trovate dall’IA.
Come è possibile tutto questo? Leggendo con attenzione l’articolo, la risposta balza subito agli occhi. In tutti quei casi, l’intelligenza artificiale ha costruito il proprio esperimento aggiungendo altri stipi di esperimento in campi apparentemente scorrelati. In altre parole, non c’è stato nulla di “intelligente”: anzi. Le IA sono ovviamente agnostiche su quali testi emettere, prendono tutto quello che hanno in pancia senza darsi la pena di vedere se è valido o no: ci devono poi pensare i ricercatori a sfrondare e vedere se effettivamente l’idea funziona o no in pratica. Questa è un’ottima cosa, intendiamoci: proprio perché noi umani abbiamo dei bias congeniti, come per esempio la ricerca di simmetrie, avere un punto di vista diverso aiuta molto.
Le IA sono anche utili perché hanno la capacità di macinare molte più informazioni di noi, come nello “scoprire la simmetria di Lorentz solo dai dati” (sempre dall’articolo citato). Magari noi umani saremmo riusciti a mettere insieme i due approcci apparentemente diversi, se li avessimo conosciuti entrambi: ma la specializzazione è ormai così alta che nemmeno in campi apparentemente limitati come la fisica quantistica si sa tutto.
Conclusioni? Semplice. Usiamo l’IA, ma non divinizziamola.