Archivi autore: .mau.

Informazioni su .mau.

matematto non praticante

Faceva sempre così caldo? Cerrrrto, col cherrypicking

facile trovare un singolo giorno
Occhei, la colpa è mia che mi ostino a guardare i porno (nel senso dei tweet nel tab “per te”). In questi giorni è di moda tirare fuori articoli di giornale di qualche decennio fa dove si parlava di eccezionali ondate di caldo in Italia. Quella che vedete nella figura è l’ultimo esempio, che mi ha spinto a perdere cinque minuti della mia vita e fare una ricerchina.
A quanto pare il 30 giugno 1975 Bari ha toccato i 38 gradi di massima. Occhei, c’è una fonte: ilmeteo.it. Sono andato sul sito e ho preso tutte le temperature di giugno 1975 e di giugno 2025. Lo dico subito: quello che ho fatto non è per nulla scientifico: ho solo preso il dato del nostro TeLaDoIoLaNius e verificato cosa è successo in quel mese, per non avere un singolo dato. La risposta potete vederla da soli cliccando, ma la posto qui.

medie del giugno 1975: T media 21.4 °C, minima 16.4 °C, massima 25.4 °C.
medie del giugno 2025: T media 25.2 °C, minima 19.3 °C, massima 29.2 °C.

Quasi quattro gradi in più di temperatura media e massima, quasi tre gradi in più di temperatura minima. Per il resto, non sono un meteorologo, ma guardando i dati del 30 giugno 1975 vedo molto vento, probabilmente caldo e secco perché l’umidità era solo al 35% e soprattutto il punto di rugiada era a 13 gradi. Del resto, il giorno prima la temperatura massima era stata di 31 gradi, il che non avrebbe permesso a TeLaDoIoLaNius di scrivere quel suo “simpatico” post. In generale vedo che lo scorso giugno Bari è rimasta praticamente senza vento tutto il mese (media 0,5 m/s).

Ripeto che la mia scelta non ha nulla di scientifico: ho semplicemente preso i dati di un intero mese, per smussare eventuali picchi. Però non ho fatto cherrypicking: ho scelto apposta il mese indicato dal nostro grande scienziato da tastiera. Certo, avrei potuto prendere tutta la serie storica e calcolare una media mobile, ma non sarebbe servito a nulla, esattamente come non servirebbe a nulla replicare con queste considerazioni. (Per la cronaca, non sono sceso così in basso da aprire e leggere i commenti: la vita è davvero troppo breve per queste cose). L’unica domanda oziosa che mi pongo è se la gente che va a cercare quelle singole giornate di caldo estremo senza accorgersi che adesso fa SEMPRE caldo sono dei coglioni, perché non capiscono la differenza tra il particolare e il generale, oppure sono degli stronzi, perché la capiscono e fanno apposta a postare. (Quelli che commentano, a parte eventuali troll, sono sicuramente nella prima categoria, anche quando vogliono spiegare che non si fanno i conti così.)

Si può eliminare AI Overview dai risultati di ricerca Google?

Non so voi, ma io sto diventando sempre più intollerante sui risultati di ricerca su Google inquinati dalla specificazione “AI Overview” che tira fuori un (pessimo, di solito) riassunto generato da un’IA della query di ricerca. E mi sa che non sono il solo.
Ho provato a vedere se c’è qualche estensione per Firefox per eliminarlo, ho scoperto di non essere il solo a volerlo fare, ma il risultato pratico non è dei migliori. Esiste l’addon Hide Google AI Overviews, ma non funziona. Può darsi che Bye, Bye Google AI funzioni, ma è per Google o comunque i browser basati su Chromium: niente da fare.

Le soluzioni che paiono funzionare al momento, secondo Tom’s Hardware, sono quelle di fare una ricerca aggiungendo esplicitamente “-noai” alle parole chiave, oppure aggiungere alla stringa di ricerca “?udm=14” (di nuovo, con Chrome lo si può fare automaticamente, con Firefox non ci sono riuscito). Ma non è detto che funzionerà sempre così…

Aggiornamento (26 luglio): Per Firefox esiste questa estensione per aggiungere udm=14.

Due sviluppi matematici inaspettati

Oggi parlo brevemente di due sviluppi matematici (occhei, il secondo è più legato all’intelligenza artificiale) che hanno dato un risultato che non ci si aspettava. I due sviluppi hanno in comune che il matematico intervistato dallo Scientific American per far capire di più (hahaha) i lettori è sempre lo stesso: Ken Ono, un pezzo grosso nella teoria dei numeri, che ha condotto in prima persona il primo sviluppo e partecipato al secondo.

Il primo sviluppo parla di una definizione dei numeri primi. A scuola ci hanno insegnato che un numero è primo se non ha divisori propri. (Il numero stesso e 1 sono divisori impropri: così ci togliamo una volta per tutte il commento “ma perché 1 non è considerato primo?”). Quello che Ono ha scoperto, insieme a William Craig e Jan-Willem van Ittersum, è una definizione alternativa di numero primo che non parla di divisioni, ma si basa sulle partizioni di un numero. Una partizione di un numero naturale n è semplicemente un modo di suddividerlo in parti (sempre numeri naturali) che una volta sommate tra di loro danno il numero di partenza. Per esempio ci sono 11 partizioni di 6: (1,1,1,1,1,1), (2,1,1,1,1), (2,2,1,1), (2,2,2), (3,1,1,1), (3,2,1), (3,3), (4,1,1), (4,2), (5,1), (6). Ordunque, Ono e i suoi colleghi hanno dimostrato che esistono infinite funzioni legate alle partizioni che permettono di dire se un numero è primo. Se per esempio prendiamo un numero n e calcoliamo

$$(3n^3−13n^2+18n−8)M_1(n)+(12n^2−120n+212)M_2(n)−960M_3(n)$$

dove le $M_i$ sono le funzioni di partizione di MacMahon, che sono abbastanza note a chi lavora sulle partizioni, otterremo zero se e solo se n è un numero primo. A che serve tutto questo? Da un punto di vista pratico, a nulla. Calcolare le $M_i$ è molto più complicato di fattorizzare un numero, che è già un compito non banale. Insomma, se vi stavate preoccupando che gli algoritmi di crittografia basati sulla difficoltà di fattorizzazione fossero da buttare via potete dormire sonni tranquilli. Quello che è importante, però, è avere trovato una correlazione tra due campi della matematica apparentemente slegati tra di loro: e si sa che in questi casi da cosa nasce cosa.

Il secondo sviluppo vede invece una versione di o4-mini (il modello più recente di OpenAI) addestrato esplicitamente su problemi di teoria dei numeri. Un gruppo di matematici, ancora una volta guidato da Ono, ha preparato un insieme di domande “difficili” e su cui non dovevano esserci esempi risolti in letteratura, tanto che i matematici non solo hanno firmato un NDA ma è stato loro imposto di usare Signal per comunicare tra di loro, in modo che non potessero esserci fuoriuscite di dadi. Secondo Ono, anche se alla fine i trenta matematici hanno trovato dieci domande a cui il modello non ha saputo rispondere, i progressi dell’IA sono stati incredibili. Ono racconta di un problema aperto di teoria dei numeri che è stato risolto in una decina di minuti, con il modello che termina l’esposizione con “Non è necessaria la citazione perché il numero misterioso è stato calcolato da me!” Come ha commentato Yang Hui He, “C’è la dimostrazione per induzione, la dimostrazione per contraddizione e la dimostrazione per intimidazione. Se dici qualcosa con sufficiente autorità, la gente s’intimorisce. Penso che o4-mini abbia imparato la dimostrazione per intimidazione: afferma tutto con grande sicurezza”. Non ho visto le domande, e anche se le avessi viste non penso che le avrei capite, o se per questo avrei capito l’output del modello – no, non lo chiamo “ragionamento”. La mia idea è che in un certo senso il risultato sia combinatorio: è vero che non esiste un testo specifico da copiare per trovare la risposta, ma le tecniche sono comunque standard e quindi gli esempi trovati in letteratura sono utilizzabili da un sistema automatico per costruire la risposta. Un livello superiore e una velocità molto maggiore rispetto a quello che facevo io all’università nel risolvere gli esercizi di algebra, ma la logica è ancora la stessa.

Non ci sbarazzeremo così facilmente delle chiamate farlocche

Sarebbe bello che le nuove regole per limitare le chiamate indesiderate dei call center funzionassero davvero. I miei colleghi ci stanno sbattendo la testa da mesi, perché i trucchi usati dagli spammer per far passare queste comunicazioni (che arrivano dall’estero, e quindi con un percorso diverso da quello locale) sono davvero biechi, tipo fare una connessione con un numero “buono” ma poi cambiare in corsa il callerID con il numero farlocco. Aspettatevi forse qualche piccolo miglioramento temporaneo, ma scommetto che questa gentaglia troverà altri modi per bypassare i controlli degli operatori nazionali.

In compenso non aspettatevi nulla sul piano degli SMS farlocchi. Questo per una ragione banale: AGCom ha deciso che far leggere a un programma (non a una persona, attenzione!) il testo dei messaggi inviati sarebbe contro la privacy anche senza sapere il numero di mittente e destinatario. Quindi le tecniche statistiche per trovare dei pattern nei messaggi inviati non possono essere usate. (Per chi si chiedesse “ma come si fa a distinguere gli spammatori da banche o aziende a cui abbiamo dato il permesso di inviare messaggi promozionali?” la risposta è che in quei casi ci sono dei contratti e i messaggi sono inviati attraverso numeri speciali).

Due giudici, due sentenze

L’altro giorno scrivevo di una sentenza americana contro Anthropic per l’uso diciamo “disinvolto” di testi piratati per addestrare i suoi LLM. Quasi contemporaneamente c’è stata però una sentenza di segno opposto a favore di Meta. Ancora una volta, però, le cose non sono quelle che appaiono a prima vista.

In questo caso, infatti, il giudice Vince Chhabria ha dato ragione a Meta non perché la controparte avesse torto, ma perché ha chiesto le cose sbagliate. Dal suo punto di vista, Llama non riesce a generare ampi stralci di testo copiato dagli autori, e quindi la loro azione legale per violazione di copyright deve essere rigettata. In compenso, però, nota come la proliferazione di libri di scarsa qualità generati dalle IA può inquinare il mercato e quindi togliere valore alla creatività degli autori umani; peccato che gli autori non abbiano chiesto una condanna per tale fatto. Tutto questo lascia spazio a nuove cause, anche se vedo difficile dimostrare che un autore non vende perché le IA hanno riempito il mercato. In compenso, anche in questo caso il problema dei libri “caduti dal camion” e usati illegalmente per addestrare i modelli è lasciato a un giudizio successivo.

Che si può concludere? Che noi non abbiamo molte idee su come applicare la legge all’addestramento degli LLM, ma i giudici americani ne hanno ancora di meno… (e come dicevo l’altra volta, da noi non si parla nemmeno di tutto questo)

Moltiplicare e dividere non è la stessa cosa

Leggo dalla BBC che c’è stato un “piccolo” problema con i risultati di Eurojackpot, una lotteria europea a cui se non sbaglio si può giocare anche da noi. Anche in Norvegia si può scommettere a Eurojackpot: i norvegesi sono indubbiamente in Europa, anche se non hanno voluto far parte dell’Unione Europea. Questo significa che per definizione non possono usare l’euro come moneta (occhei, per esempio il Montenegro ha deciso di non avere una politica monetaria propria e ha adottato unilateralmente l’euro, ma quella è un’altra storia) e continuano a usare le corone norvegesi. Il fatto è che c’è un monopolio statale per le scommesse, e quindi le vincite dei fortunati scommettitori sono passate da Norsk Tipping che è la società statale apposita. Ovviamene Norsk Tipping quando ha comunicato agli scommettitori la vincita ha convertito gli euro in corone. Ma a quanto pare i dati arrivano in eurocent (forse perché così non ci sono virgole o punti decimali, e si sa che la conversione di numeri in floating point non è mai sicura), e anziché dividere per 100 dopo la conversione si è moltiplicato per 100.

Risultato? Chi per esempio aveva fatto 4 (la pagina sarebbe qui, ma è costruita con javascript e non può essere salvata da Internet Archive) ha vinto 106,40 € che corrispondono a 1250 corone, ma la comunicazione è stata “Hai vinto 12.500.000 corone!” o meglio l’equivalente in norvegese. Immagino anche che la comunicazione dicesse che il giocatore aveva fatto 4+0, e quindi doveva essere chiaro che c’era qualcosa che non andava; ma immagino anche che il cervello rimanga un po’ obnubilato quando ti dicono che hai vinto più di un milione di euro.

L’amministratrice delegata di Norsk Tipping si è dimessa, proprio come sarebbe successo da noi: ma quello è un risultato politico, non matematico. Mi chiedo però cosa fosse cambiato nella comunicazione, visto che non è la prima volta che si estraggono i numeri di Eurojackpot…

Writers of the Future Volume 41 (ebook)

copertina
[Disclaimer: Ho ricevuto il libro grazie al programma Early Reviewer di LibraryThing]

Come sempre, i racconti di questa collezione sono generalmente buoni, con un paio di gemme: leggendo Thirty Minutes or It’s a Paradox mi è venuto in mente il miglior Fredric Brown. Quest’anno c’è persino stato meno “light horror”, che a me non piace affatto. Ecco una recensine monoriga dei singoli racconti:

▪ Storm Damage, di T. R. Naus (i guardiani del tempo sono un’idea carina e messa bene in pratica. 5/5)
▪ Blackbird Stone di Ian Keith (la trama sarebbe interessante, ma l’autore ha voluto mischiare troppi livelli diversi, come tempo e magia. 3/5)
▪ Kill Switch di Robert F. Lowell (è bello leggere un racconto sf hard-boiled! 5/5)
▪ Message and How to View Art di L. RON HUBBARD (consigli di buon senso)
▪ Tough Old Man di L. Ron Hubbard (perfino io avevo subito capito tutto… mi sarei aspettato qualcosa di più dal suo ultimo racconto SF. 3/5)
▪ Karma Birds di Lauren McGuire (Come ho detto non apprezzo i racconti horror, anche se leggeri. Però l’idea di questa “pandemia” è interessante. 4/5)
▪ The Boy from Elsewhen di Barlow Crassmont (Il finale è buono, ma la costruzione del racconto no. 3/5)
▪ Code L1 di Andrew Jackson (Non mi sarei aspettato che un racconto sf-hard si svolgesse così! 4/5)
▪ It Don’t Mean a Thing (If It Ain’t Got That Theme) di ROBERT J. SAWYER (altri buoni consigli per scrivere un racconto)
▪ Under False Colours di Sean Williams (Semplicemente meraviglioso, e contemporaneo con gli accenni all’AI. 5/5)
▪ Ascii di Randyn C. J. Bartholomew (Purtroppo i troppi dettagli pseudotecnici hanno un po’ rovinato il racconto. 4/5)
▪ Slip Stone di Sandra Skalski (Molto carino: in un certo senso la SF è solo lo sfondo. 5/5)
▪ The Stench of Freedom di Joel C. Scoberg (Qual è l’utilità degli elementali? Non quello che potreste pensare. 5/5)
▪ An Artist’s Path di TOM WOOD (a me che sono tutto meno che un artista non dice nulla)
▪ My Name Was Tom di Tim Powers (Alla fine mi sono perso e non ho capito il finale, ma ho apprezzato il flexagono. 4/5)
▪ The Rune Witch di Jefferson Snow (Non mi aspettavo quel finale, il che significa che è bello anche se triste. 4/5)
▪ Thirty Minutes or It’s a Paradox di Patrick MacPhee (Come ho detto, i paradossi temporali sono affastellati in modo così divertente che non si riesce a smettere di leggerlo. 5/5)
▪ A World of Repetitions di Seth Atwater Jr. (Il tema del loop temporale è visto in modo diverso, con tutti che se ne accorgono. Però c’è qualcosa che manca, anche se non riesco a visualizzarlo. 4/5)

Jody Lynn Nye (ed.), Writers of the Future Volume 41, Galaxy Press 2025, pag. 457, € 9,35, ISBN 978-1-61986-844-1 – come Affiliato Amazon, se acquistate il libro dal link qualche centesimo va a me

Voto: 5/5