Archivi autore: .mau.

Informazioni su .mau.

matematto non praticante

Due sviluppi matematici inaspettati

Oggi parlo brevemente di due sviluppi matematici (occhei, il secondo è più legato all’intelligenza artificiale) che hanno dato un risultato che non ci si aspettava. I due sviluppi hanno in comune che il matematico intervistato dallo Scientific American per far capire di più (hahaha) i lettori è sempre lo stesso: Ken Ono, un pezzo grosso nella teoria dei numeri, che ha condotto in prima persona il primo sviluppo e partecipato al secondo.

Il primo sviluppo parla di una definizione dei numeri primi. A scuola ci hanno insegnato che un numero è primo se non ha divisori propri. (Il numero stesso e 1 sono divisori impropri: così ci togliamo una volta per tutte il commento “ma perché 1 non è considerato primo?”). Quello che Ono ha scoperto, insieme a William Craig e Jan-Willem van Ittersum, è una definizione alternativa di numero primo che non parla di divisioni, ma si basa sulle partizioni di un numero. Una partizione di un numero naturale n è semplicemente un modo di suddividerlo in parti (sempre numeri naturali) che una volta sommate tra di loro danno il numero di partenza. Per esempio ci sono 11 partizioni di 6: (1,1,1,1,1,1), (2,1,1,1,1), (2,2,1,1), (2,2,2), (3,1,1,1), (3,2,1), (3,3), (4,1,1), (4,2), (5,1), (6). Ordunque, Ono e i suoi colleghi hanno dimostrato che esistono infinite funzioni legate alle partizioni che permettono di dire se un numero è primo. Se per esempio prendiamo un numero n e calcoliamo

$$(3n^3−13n^2+18n−8)M_1(n)+(12n^2−120n+212)M_2(n)−960M_3(n)$$

dove le $M_i$ sono le funzioni di partizione di MacMahon, che sono abbastanza note a chi lavora sulle partizioni, otterremo zero se e solo se n è un numero primo. A che serve tutto questo? Da un punto di vista pratico, a nulla. Calcolare le $M_i$ è molto più complicato di fattorizzare un numero, che è già un compito non banale. Insomma, se vi stavate preoccupando che gli algoritmi di crittografia basati sulla difficoltà di fattorizzazione fossero da buttare via potete dormire sonni tranquilli. Quello che è importante, però, è avere trovato una correlazione tra due campi della matematica apparentemente slegati tra di loro: e si sa che in questi casi da cosa nasce cosa.

Il secondo sviluppo vede invece una versione di o4-mini (il modello più recente di OpenAI) addestrato esplicitamente su problemi di teoria dei numeri. Un gruppo di matematici, ancora una volta guidato da Ono, ha preparato un insieme di domande “difficili” e su cui non dovevano esserci esempi risolti in letteratura, tanto che i matematici non solo hanno firmato un NDA ma è stato loro imposto di usare Signal per comunicare tra di loro, in modo che non potessero esserci fuoriuscite di dadi. Secondo Ono, anche se alla fine i trenta matematici hanno trovato dieci domande a cui il modello non ha saputo rispondere, i progressi dell’IA sono stati incredibili. Ono racconta di un problema aperto di teoria dei numeri che è stato risolto in una decina di minuti, con il modello che termina l’esposizione con “Non è necessaria la citazione perché il numero misterioso è stato calcolato da me!” Come ha commentato Yang Hui He, “C’è la dimostrazione per induzione, la dimostrazione per contraddizione e la dimostrazione per intimidazione. Se dici qualcosa con sufficiente autorità, la gente s’intimorisce. Penso che o4-mini abbia imparato la dimostrazione per intimidazione: afferma tutto con grande sicurezza”. Non ho visto le domande, e anche se le avessi viste non penso che le avrei capite, o se per questo avrei capito l’output del modello – no, non lo chiamo “ragionamento”. La mia idea è che in un certo senso il risultato sia combinatorio: è vero che non esiste un testo specifico da copiare per trovare la risposta, ma le tecniche sono comunque standard e quindi gli esempi trovati in letteratura sono utilizzabili da un sistema automatico per costruire la risposta. Un livello superiore e una velocità molto maggiore rispetto a quello che facevo io all’università nel risolvere gli esercizi di algebra, ma la logica è ancora la stessa.

Non ci sbarazzeremo così facilmente delle chiamate farlocche

Sarebbe bello che le nuove regole per limitare le chiamate indesiderate dei call center funzionassero davvero. I miei colleghi ci stanno sbattendo la testa da mesi, perché i trucchi usati dagli spammer per far passare queste comunicazioni (che arrivano dall’estero, e quindi con un percorso diverso da quello locale) sono davvero biechi, tipo fare una connessione con un numero “buono” ma poi cambiare in corsa il callerID con il numero farlocco. Aspettatevi forse qualche piccolo miglioramento temporaneo, ma scommetto che questa gentaglia troverà altri modi per bypassare i controlli degli operatori nazionali.

In compenso non aspettatevi nulla sul piano degli SMS farlocchi. Questo per una ragione banale: AGCom ha deciso che far leggere a un programma (non a una persona, attenzione!) il testo dei messaggi inviati sarebbe contro la privacy anche senza sapere il numero di mittente e destinatario. Quindi le tecniche statistiche per trovare dei pattern nei messaggi inviati non possono essere usate. (Per chi si chiedesse “ma come si fa a distinguere gli spammatori da banche o aziende a cui abbiamo dato il permesso di inviare messaggi promozionali?” la risposta è che in quei casi ci sono dei contratti e i messaggi sono inviati attraverso numeri speciali).

Due giudici, due sentenze

L’altro giorno scrivevo di una sentenza americana contro Anthropic per l’uso diciamo “disinvolto” di testi piratati per addestrare i suoi LLM. Quasi contemporaneamente c’è stata però una sentenza di segno opposto a favore di Meta. Ancora una volta, però, le cose non sono quelle che appaiono a prima vista.

In questo caso, infatti, il giudice Vince Chhabria ha dato ragione a Meta non perché la controparte avesse torto, ma perché ha chiesto le cose sbagliate. Dal suo punto di vista, Llama non riesce a generare ampi stralci di testo copiato dagli autori, e quindi la loro azione legale per violazione di copyright deve essere rigettata. In compenso, però, nota come la proliferazione di libri di scarsa qualità generati dalle IA può inquinare il mercato e quindi togliere valore alla creatività degli autori umani; peccato che gli autori non abbiano chiesto una condanna per tale fatto. Tutto questo lascia spazio a nuove cause, anche se vedo difficile dimostrare che un autore non vende perché le IA hanno riempito il mercato. In compenso, anche in questo caso il problema dei libri “caduti dal camion” e usati illegalmente per addestrare i modelli è lasciato a un giudizio successivo.

Che si può concludere? Che noi non abbiamo molte idee su come applicare la legge all’addestramento degli LLM, ma i giudici americani ne hanno ancora di meno… (e come dicevo l’altra volta, da noi non si parla nemmeno di tutto questo)

Moltiplicare e dividere non è la stessa cosa

Leggo dalla BBC che c’è stato un “piccolo” problema con i risultati di Eurojackpot, una lotteria europea a cui se non sbaglio si può giocare anche da noi. Anche in Norvegia si può scommettere a Eurojackpot: i norvegesi sono indubbiamente in Europa, anche se non hanno voluto far parte dell’Unione Europea. Questo significa che per definizione non possono usare l’euro come moneta (occhei, per esempio il Montenegro ha deciso di non avere una politica monetaria propria e ha adottato unilateralmente l’euro, ma quella è un’altra storia) e continuano a usare le corone norvegesi. Il fatto è che c’è un monopolio statale per le scommesse, e quindi le vincite dei fortunati scommettitori sono passate da Norsk Tipping che è la società statale apposita. Ovviamene Norsk Tipping quando ha comunicato agli scommettitori la vincita ha convertito gli euro in corone. Ma a quanto pare i dati arrivano in eurocent (forse perché così non ci sono virgole o punti decimali, e si sa che la conversione di numeri in floating point non è mai sicura), e anziché dividere per 100 dopo la conversione si è moltiplicato per 100.

Risultato? Chi per esempio aveva fatto 4 (la pagina sarebbe qui, ma è costruita con javascript e non può essere salvata da Internet Archive) ha vinto 106,40 € che corrispondono a 1250 corone, ma la comunicazione è stata “Hai vinto 12.500.000 corone!” o meglio l’equivalente in norvegese. Immagino anche che la comunicazione dicesse che il giocatore aveva fatto 4+0, e quindi doveva essere chiaro che c’era qualcosa che non andava; ma immagino anche che il cervello rimanga un po’ obnubilato quando ti dicono che hai vinto più di un milione di euro.

L’amministratrice delegata di Norsk Tipping si è dimessa, proprio come sarebbe successo da noi: ma quello è un risultato politico, non matematico. Mi chiedo però cosa fosse cambiato nella comunicazione, visto che non è la prima volta che si estraggono i numeri di Eurojackpot…

Writers of the Future Volume 41 (ebook)

copertina
[Disclaimer: Ho ricevuto il libro grazie al programma Early Reviewer di LibraryThing]

Come sempre, i racconti di questa collezione sono generalmente buoni, con un paio di gemme: leggendo Thirty Minutes or It’s a Paradox mi è venuto in mente il miglior Fredric Brown. Quest’anno c’è persino stato meno “light horror”, che a me non piace affatto. Ecco una recensine monoriga dei singoli racconti:

▪ Storm Damage, di T. R. Naus (i guardiani del tempo sono un’idea carina e messa bene in pratica. 5/5)
▪ Blackbird Stone di Ian Keith (la trama sarebbe interessante, ma l’autore ha voluto mischiare troppi livelli diversi, come tempo e magia. 3/5)
▪ Kill Switch di Robert F. Lowell (è bello leggere un racconto sf hard-boiled! 5/5)
▪ Message and How to View Art di L. RON HUBBARD (consigli di buon senso)
▪ Tough Old Man di L. Ron Hubbard (perfino io avevo subito capito tutto… mi sarei aspettato qualcosa di più dal suo ultimo racconto SF. 3/5)
▪ Karma Birds di Lauren McGuire (Come ho detto non apprezzo i racconti horror, anche se leggeri. Però l’idea di questa “pandemia” è interessante. 4/5)
▪ The Boy from Elsewhen di Barlow Crassmont (Il finale è buono, ma la costruzione del racconto no. 3/5)
▪ Code L1 di Andrew Jackson (Non mi sarei aspettato che un racconto sf-hard si svolgesse così! 4/5)
▪ It Don’t Mean a Thing (If It Ain’t Got That Theme) di ROBERT J. SAWYER (altri buoni consigli per scrivere un racconto)
▪ Under False Colours di Sean Williams (Semplicemente meraviglioso, e contemporaneo con gli accenni all’AI. 5/5)
▪ Ascii di Randyn C. J. Bartholomew (Purtroppo i troppi dettagli pseudotecnici hanno un po’ rovinato il racconto. 4/5)
▪ Slip Stone di Sandra Skalski (Molto carino: in un certo senso la SF è solo lo sfondo. 5/5)
▪ The Stench of Freedom di Joel C. Scoberg (Qual è l’utilità degli elementali? Non quello che potreste pensare. 5/5)
▪ An Artist’s Path di TOM WOOD (a me che sono tutto meno che un artista non dice nulla)
▪ My Name Was Tom di Tim Powers (Alla fine mi sono perso e non ho capito il finale, ma ho apprezzato il flexagono. 4/5)
▪ The Rune Witch di Jefferson Snow (Non mi aspettavo quel finale, il che significa che è bello anche se triste. 4/5)
▪ Thirty Minutes or It’s a Paradox di Patrick MacPhee (Come ho detto, i paradossi temporali sono affastellati in modo così divertente che non si riesce a smettere di leggerlo. 5/5)
▪ A World of Repetitions di Seth Atwater Jr. (Il tema del loop temporale è visto in modo diverso, con tutti che se ne accorgono. Però c’è qualcosa che manca, anche se non riesco a visualizzarlo. 4/5)

Jody Lynn Nye (ed.), Writers of the Future Volume 41, Galaxy Press 2025, pag. 457, € 9,35, ISBN 978-1-61986-844-1 – come Affiliato Amazon, se acquistate il libro dal link qualche centesimo va a me

Voto: 5/5

Avremo pubblicità su Whatsapp?

Non so se vi ricordate, ma inizialmente Whatsapp era a pagamento. Un prezzo simbolico, meno di un euro l’anno, ma comunque era a pagamento. Poi Zuckerberg se l’è comprato per far fuori un pericoloso concorrente: a differenza della buonanima di Friendfeed, però, l’ha tenuto perché complementare a Facebook, limitandosi a togliere il balzello dell’abbonamento che gli sarebbe costato troppo in burocrazia.

Ma i costi sono costi: così Meta ha deciso di introdurre la pubblicità in Whatsapp; per il momento solo sul tab Updates (immagino quello che in italiano è Aggiornamenti, e che non apro mai), ma si sa che una cosa tira l’altra, e chissà che succederà. Già si parla di pubblicità sui canali. A dire il vero Telegram inserisce pubblicità nei canali già da anni, e nessuno si è lamentato più di tanto che io sappia: l’unico rompimento è che le pubblicità sono sempre le stesse, e sempre di criptovalute di cui non me ne può importare di meno.

La cosa probabilmente più interessante è però che nell’Unione Europea l’introduzione di questa “feature” arriverà più tardi. Come mai? Perché le regolamentazioni europee sono più stringenti, e Meta deve dimostrare che è in grado di mandarti pubblicità mirate (hahaha…) senza andare contro il GDPR. Capite perché tutti questi signori non sopportano l’Europa, che va bene giusto per sposarsi?

No, Anthropic non può addestrare gli LLM con i libri piratati

Avrete forse letto della sentenza di un giudice americano sulla presunta violazione di copyright da parte di Anthropic – ma naturalmente la cosa varrebbe per qualunque azienda che addestra LLM – per avere dato in pasto al proprio sistema Claude il testo di libri senza pagare gli autori: e magari avete letto che il giudice ha dato ragione ad Anthropic, perché la cosa ricadrebbe sotto il fair use. Beh, non è proprio così.

Come spiega David Gerard, il giudice William Alsup ha sentenziato che usare dei testi per addestrare un algoritmo di per sé rientra nel fair use: a parte per la quantità di dati ingurgitati da questi sistemi, si può parlare di trasformazione del testo esattamente come io o voi possiamo leggerci dei libri e trarne spunto per scrivere qualcosa di nostro. Citando direttamente la sentenza,

The purpose and character of using copyrighted works to train LLMs to generate new text was quintessentially transformative … If this training process reasonably required making copies within the LLM or otherwise, those copies were engaged in a transformative use.

e questa è sicuramente una vittoria per chi crea LLM. Il tutto ha sicuramente senso se ci pensate, è più o meno quello che sto facendo io ora con l’articolo di Gerard. Fin qui tutti d’accordo. Ma…

Il punto su cui Alsup ha rimandato la decisione a un altro processo è la provenienza di questi testi. Anthropic ha comprato una grande quantità di libri, e per questi libri il suo lavoro è stato considerato lecito. Ma ha anche scaricato sette milioni di libri piratati, e qui casca l’asino. Sempre citando dalla sentenza,

Authors argue Anthropic should have paid for these pirated library copies. This order agrees… The downloaded pirated copies used to build a central library were not justified by a fair use. Every factor points against fair use … A separate justification was required for each use. None is even offered here except for Anthropic’s pocketbook and convenience.

Rileggiamo queste frasi. Il giudice dà ragione agli autori che hanno detto “non solo questi qua usano i nostri testi, ma noi non ci prendiamo il becco di un quattrino!”; ovviamente Anthropic non ha potuto dare risposte convincenti, a meno che non riteniate convincente “eh, ma ci volevano troppi soldi, per non parlare del fatto che i libri piratati sono già belli pronti…”

Come sempre, insomma, è una banale questione di soldi: e come sappiamo bene chi più ne ha meno ne vuole spendere, e resta un oculato risparmiatore come Paperon de’ Paperoni. Aggiungo solo che tutto questo non varrebbe affatto per un eventuale LLM made in Italy: il fair use non esiste da noi, e presumo che la 633/41 bloccherebbe anche l’uso di testi regolarmente acquistati per l’addestramento dei modelli…