Archivi autore: .mau.

Informazioni su .mau.

matematto non praticante

La lezione ancora più amara

Nel 2019 Richard Sutton postò sul suo sito un breve testo, “The Bitter Lesson“. Sutton non è esattamente l’ultimo arrivato, visto che nel 2024 ha vinto il Premio Turing “Per lo sviluppo delle basi concettuali e algoritmiche dell’apprendimento con rinforzo”. Qual era l’amara lezione imparata da Sutton? Lo dice già la prima riga: “La lezione più grande che possiamo leggere da 70 anni di ricerca sull’intelligenza artificiale è che i metodi generali che sfruttano la capacità di calcolo sono alla fine quelli che funzionano meglio, e di gran lunga”. Sutton continua con gli esempi degli scacchi e del go, continua con il doppio passaggio successo nel riconoscimento della voce – il primo è stato l’introduzione dei modelli markoviani nascosti, che ben conosco visto che sono stati l’argomento delle mie tesi di laurea, il secondo il deep learning – e termina con il riconoscimento di immagini che è decollato appunto con il deep learning. In pratica i ricercatori hanno sempre cominciato col costruire sistemi che dovevano funzionare come loro pensavano funzionasse la mente umana, salvo poi capitolare alla potenza sempre crescente di calcolo che permette di usare sistemi “stupidi, per nulla efficienti ma efficaci”. Come corollario, termina affermando che le nostre menti sono molto più complicate di quanto immaginiamo e quindi è inutile cercare di modellizzarle in modo semplice; quello che si deve fare è cercare dei meta-metodi che riescano a cogliere la complessità.

Ora Gary Marcus scrive che in realtà la lezione è ancora più amara: aumentare la potenza di calcolo funziona per alcuni tipi di problemi, principalmente quelli relativi al pattern recognition, mentre ci sono tanti altri tipi di problemi – in generale quelli che richiedono di fare un ragionamento senza avere a disposizione tutte le informazioni necessarie. E ora è tutto goduto gongolante perché Sutton ha esplicitamente detto che per lui gli LLM sono arrivati a un vicolo cieco, perché comunque operano imitando il comportamento umano (visto che sono addestrati a partire da testi scritti da umani) e quindi non si costruiscono un “godo del mondo” che permetterebbe loro di essere “sorpresi” dagli eventi e quindi riorganizzarsi: insomma, “fare esperienza”.

Per come la vedo io, una cosa è certa: un approccio ibrido in cui si aggiunga una componente “intelligente”, che poi significherebbe “a regole”, agli LLM non funzionerà mai, per un corollario di quanto scritto inizialmente da Sutton: non abbiamo nessuna idea di come trovare queste regole. Ma è anche vero che non possiamo buttare via gli LLM, perché per quanto facciano schifo nei compiti che richiedono intelligenza sono comunque utili dove l’intelligenza non serve e basta l’artigianato. Posso solo aggiungere che secondo me un approccio totalmente nuovo e migliore non lo vedremo almeno per un decennio.

Enigmistica (ebook)

copertina Generalmente questi libretti Treccani, che nascono recuperando le voci dell’enciclopedia, non sono una gran cosa. Questo è invece una piacevole eccezione, ma il merito è ovviamente di Stefano Bartezzaghi, che non si è limitato a riprendere le voci che aveva scritto per l’enciclopedia ma ha aggiunto una parte iniziale che permette al lettore di metterle nel loro contesto, sia storico che geografico. Per esempio, è abbastanza noto che i cruciverba britannici (ma non quelli statunitensi, tipicamente) sono fatti in modo molto diverso da quelli italiani, ma non sono in molti a sapere che la cosiddetta “enigmistica classica” è una caratteristica solamente italiana. Un’ottima lettura.

Stefano Bartezzaghi, Enigmistica, Treccani 2025, pag. 200, € 7,99, ISBN 9788812012855, come Affiliato Amazon, se acquistate il libro dal link qualche centesimo va a me
Voto: 4/5

Donaldo ci tiene proprio

Ho capito perché Trump voleva a tutti i costi che la tregua tra Israele e Hamas (l’ottava pace nella sua presidenza?) fosse firmata domenica scorsa: il comitato che assegna il Nobel per la pace ha preso la sua decisione lunedì mattina.
D’accordo: quel Nobel l’ha preso persino Obama (e non sapete quanto mi costi concordare con Rampini…) Ma darlo a qualcuno che ha fatto sua la massima “si vis pacem, para bellum” – vedi ICE e le truppe della Guardia Nazionale nelle città dem – mi sembra esagerato. E lo so che anche Berlusconi avrebbe tanto voluto il Nobel per la pace, ma mi pare che Trump ne sia davvero ossessionato. Non vorrei essere nei panni dei norvegesi tra qualche ora, dopo l’annuncio dell’assegnazione…

Come se fosse facile bloccare i SN ai ragazzi

Stavolta ci prova la Danimarca. La prima ministra Mette Frederikse ha affermato (vedi il Post o The Guardian) che vuole far promulgare una legge che vieti ai minori di 15 anni l’uso dei social network, che «stanno rubando l’infanzia» di molti bambini, e causare ansia, depressione e mancanza di concentrazione ai minorenni. (Ma anche ai maggiorenni, aggiungo io…)

I social network fanno male, e su questo direi che non ci sono dubbi. Fanno ancora più male a chi non ha anticorpi per saperli gestire: non solo i ragazzini, ma anche la mia generazione in gran parte non era preparata a una vita tutta online manco fossimo al Truman Show. Ma pensate davvero che la soluzione sia un blocco basato sull’età? O meglio: pensate che un simile blocco sia davvero fattibile? O viene fatto rispettare sul serio e allora, come vediamo nel Regno Unito, tutti saranno toccati perché la verifica sarà troppo complicata, oppure rimarrà lettera morta. Un anzyano come me potrebbe anche cavarsela con quei sistemi di verifica che ti fanno una foto del viso – ammesso e non concesso di fidarsi che la foto sarà immediatamente cancellata. Ma un sistema di questo tipo dovrebbe bloccare per sicurezza anche diciottenni, perché potrebbero essere ragazzini che sembrano più vecchi di quanto in realtà siano. Oppure volete postare i vostri documenti per accedere a TikTok? Sì, potremmo immaginare un servizio di “autenticazione debole” fornito a pagamento da una terza parte, senza troppi dati personali: ma è comunque un controllo a cui dobbiamo sottoporci. Vedremo cosa combineranno i danesi.

Kvick Sört

Il sito idea-instructions.com ha postato alcuni algoritmi scritti come se fossero un manuale di istruzioni IKEA. Quello che vedete qui in figura è ovviamente il Quicksort.
Io spesso ho dei problemi con questo tipo di manuali, o se preferite ho dei problemi a montare i mobili IKEA. In questo caso però devo riconoscere che le istruzioni sono davvero chiare, e il tocco di inserire tra il materiale necessario un dado (per scegliere a caso l’elemento su cui fare pivot per far girare l’algoritmo…) è un tocco di classe. Tra gli altri algoritmi disegnati, ho trovato interessante GRÅPH SKÄN, con le tre possibilità di base (casuale, depth-first e breadth-first). La cosa che mi chiedo è fino a quanto (e quanto a lungo) si può arrivare con una visualizzazione di questo tipo. Provo a spiegarmi meglio. Non c’è nulla di male di per sé nel semplificare il funzionamento di un algoritmo: questi disegni servono per dare un’idea di come funziona e non possono certo sostituirsi a un’implementazione. Ma l’avere scelto di limitarsi a una dimensione di due facciate secondo me è davvero limitante. Prendiamo per esempio PUBLIK KEY KRYPTO, che spiega la crittografia a chiave pubblica (no, non è l’algoritmo Diffie-Hellman come avevo pensato all’inizio: i lucchetti mi avevano tratto in inganno). Spiegare in un solo schema la crittografia e le firme digitali secondo me è davvero troppo!

Viva san Francesco

Io sono anzyano. Quindi la scuola per me cominciava il primo ottobre, san Remigio, e per evitare che ci stancassimo subito il 4 ottobre stavamo a casa perché era san Francesco. In realtà ho scoperto che quella di san Francesco non era una festa vera e propria ma una solennità civile: i privati lavoravano tranquillamente, erano solo gli statali che avevano l’orario corto (e nel caso della scuola MOLTO corto…) Comunque nel 1977, quando si sono tolte le festività per l’appunto soppresse, anche le solennità civili hanno seguito la stessa fine.

Ora il Parlamento, con una fretta incredibile e un voto che più bipartisan non si può (due contrari alla Camera: in Senato la legge è passata direttamente in commissione Affari Costituzionali all’unanimità) il 4 ottobre diventerà giornata festiva a tutti gli effetti dal 2026, ottocentesimo anniversario della morte del Poverello. È vero che l’anno prossimo il 4 ottobre cadrà di domenica, ma questo significa che almeno nel privato dovrà venire pagata la giornata.

Leggendo la nota accompagnatrice al Senato, scopro che già dal 2005 il 4 ottobre era considerato, oltre che solennità civile, anche come giornata della pace, della fraternità e del dialogo tra appartenenti a culture e religioni diverse. Questo ci fa già capire che probabilmente stavolta non c’è nessuna ingerenza della Chiesa, che festeggia già da decenni la giornata mondiale della pace a capodanno: ma magari qualcuno voleva ingraziarsi le gerarchie vaticane. Notate anche che l’anno scorso si è ricollocata al 4 novembre la Giornata dell’Unità nazionale e delle Forze armate (che nel 1977 era stata spostata alla prima domenica di novembre), ma senza effetti civili: insomma si fa la parata e morta lì. Invece per san Francesco no. Come mai?

PS: la ricorrenza del 4 ottobre rimane comunque, nel senso che la legge 1958/132 non è abrogata: semplicemente rimane intitolata solo a santa Caterina da Siena, anch’essa patrona d’Italia ma evidentemente di serie B. Il maschilismo insomma impera.

Un po’ di fuffa sull’IA in matematica

Come si possono usare gli LLM per fare matematica? Su MaddMaths! ho scritto un post raccontando il progetto lanciato da Tim Gowers: la creazione di una base dati di “motivated proofs”. In pratica Gowers intende costruire un sistema AI-friendly dove i matematici spiegano anche i passaggi che nei testi sono sempre tralasciati come “banali”, per evitare che quando il problema dato a un LLM non sia simile a quanto già visto il sistema non parta per la tangente. Un approccio come quello di Gowers ha un senso: non è detto che funzionerà, ma vale la pena tentarci. Poi c’è però tutta la fuffa che circonda l’intelligenza artificiale anche in matematica, come del resto in tutti gli altri campi. Ecco due esempi di questi giorni.

Wes Roth segnala su Twitter un risultato di AlphaEvolve, un LLM di Google usato come agente per il coding che avrebbe “aiutato a dimostrare nuovi teoremi nella teoria della complessità”. Poi due righe sotto aggiunge che “i modelli non sarebbero in grado di fornire una dimostrazione completa, ma fornirebbero risultati intermedi che si sarebbero potuti perdere per distrazione”, il che – scusate – mi pare una cosa un pelo diversa. Leggendo il post di Google si scopre infatti che AlphaEvolve avrebbe trovato nuovi minoranti per dei risultati su cui non si è ancora in grado di trovare una risposta esatta, come capita spesso in quel campo della matematica. In pratica AlphaEvolve usa un LLM per generare del codice che poi viene verificato automaticamente per correttezza formale e man mano modificato per cercare di ottenere risultati migliori di quelli già noti. Praticamente lavori forzati per quei poveri modelli. D’accordo, parlare di fuffa è un’esagerazione, ma da qui a pensare a un breakthrough ce ne va. (Se poi volete vera fuffa, leggetevi i commenti al post di chi propone i loro fantasmagorici modelli…)

Girellando per la rete ho poi scoperto che una fondatrice ha raccolto 64 milioni di dollari di capitale per insegnare alle IA il linguaggio della matematica. Per fare un raffronto, il progetto di Gowers è stato uno dei 29 che si sono divisi i 9 milioni offerti dall’AI for Math Fund: ma volete mettere Axiom Math le cui sale riunione negli uffici di Palo Alto “sono chiamate col nome di matematici iconici come Carl Friedrich Gauss e Ada Lovelace, sottolineando la loro passione per il progesso scientifico fondazionale”? No, non so cosa sia il “foundational scientific progress”. In compenso vedo che Axiom Math “sta lavorando su modelli che possono scoprire e dimostrare nuovi problemi matematici”, perché evidentemente quelli già esistenti sono troppo banali. I ricercatori “sperano di applicare il loro lavoro in aree come la finanza, la progettazione di aeroplani e di chip, e il trading quantitativo.” Vabbè, mi direte, se vai a prendere la brochure di un sito che promuove il venture capital ci crediamo che scrivono di queste cose”. Occhei: andate sul sito di Axiom Math e troverete scritto a caratteri giganteschi
Axiom's mission is to build a self-improving superintelligent reasoner, starting with an AI mathematician.
Allora?