Un po’ di fuffa sull’IA in matematica

Come si possono usare gli LLM per fare matematica? Su MaddMaths! ho scritto un post raccontando il progetto lanciato da Tim Gowers: la creazione di una base dati di “motivated proofs”. In pratica Gowers intende costruire un sistema AI-friendly dove i matematici spiegano anche i passaggi che nei testi sono sempre tralasciati come “banali”, per evitare che quando il problema dato a un LLM non sia simile a quanto già visto il sistema non parta per la tangente. Un approccio come quello di Gowers ha un senso: non è detto che funzionerà, ma vale la pena tentarci. Poi c’è però tutta la fuffa che circonda l’intelligenza artificiale anche in matematica, come del resto in tutti gli altri campi. Ecco due esempi di questi giorni.

Wes Roth segnala su Twitter un risultato di AlphaEvolve, un LLM di Google usato come agente per il coding che avrebbe “aiutato a dimostrare nuovi teoremi nella teoria della complessità”. Poi due righe sotto aggiunge che “i modelli non sarebbero in grado di fornire una dimostrazione completa, ma fornirebbero risultati intermedi che si sarebbero potuti perdere per distrazione”, il che – scusate – mi pare una cosa un pelo diversa. Leggendo il post di Google si scopre infatti che AlphaEvolve avrebbe trovato nuovi minoranti per dei risultati su cui non si è ancora in grado di trovare una risposta esatta, come capita spesso in quel campo della matematica. In pratica AlphaEvolve usa un LLM per generare del codice che poi viene verificato automaticamente per correttezza formale e man mano modificato per cercare di ottenere risultati migliori di quelli già noti. Praticamente lavori forzati per quei poveri modelli. D’accordo, parlare di fuffa è un’esagerazione, ma da qui a pensare a un breakthrough ce ne va. (Se poi volete vera fuffa, leggetevi i commenti al post di chi propone i loro fantasmagorici modelli…)

Girellando per la rete ho poi scoperto che una fondatrice ha raccolto 64 milioni di dollari di capitale per insegnare alle IA il linguaggio della matematica. Per fare un raffronto, il progetto di Gowers è stato uno dei 29 che si sono divisi i 9 milioni offerti dall’AI for Math Fund: ma volete mettere Axiom Math le cui sale riunione negli uffici di Palo Alto “sono chiamate col nome di matematici iconici come Carl Friedrich Gauss e Ada Lovelace, sottolineando la loro passione per il progesso scientifico fondazionale”? No, non so cosa sia il “foundational scientific progress”. In compenso vedo che Axiom Math “sta lavorando su modelli che possono scoprire e dimostrare nuovi problemi matematici”, perché evidentemente quelli già esistenti sono troppo banali. I ricercatori “sperano di applicare il loro lavoro in aree come la finanza, la progettazione di aeroplani e di chip, e il trading quantitativo.” Vabbè, mi direte, se vai a prendere la brochure di un sito che promuove il venture capital ci crediamo che scrivono di queste cose”. Occhei: andate sul sito di Axiom Math e troverete scritto a caratteri giganteschi
Axiom's mission is to build a self-improving superintelligent reasoner, starting with an AI mathematician.
Allora?

Un pensiero su “Un po’ di fuffa sull’IA in matematica

  1. Bubbo Bubboni

    Beh, la tale società è praticamente ipnotica per i VC. E’ una raccolta di keywords attira-capitali contemporanei. Se non avessi fiducia nei founders, direi che il business model è stato pensato da un cervello elettronico.
    Però non vedranno mai i miei soldi perché non è chiaro se hanno dedicato una stanza anche al criminale responsabile dell’autotune Joseph Fourier. Loosers!

    Rispondi

Rispondi a Bubbo BubboniAnnulla risposta

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.