Archivi categoria: matematica_light

Ancora un record per le cifre di pi greco

Quelli di StorageReview hanno colpito ancora. Dopo che a maggio 2025 il Linus Media Group e KIOXIA avevano calcolato 300 trillions (cioè 300.000 miliardi) di cifre decimali di pi greco, lo scorso dicembre StorageReview si è ripresa il record, calcolando 314.000 miliardi di cifre in 110 giorni. Il tutto con un singolo Dell PowerEdge R7725. Ok, le due CPU hanno un totale di 384 core, il raffreddamento è a liquido e non ad aria, un tera e mezzo di RAM e 41 SSD da 61.44TB ciascuno…

Ovviamente il record è assolutamente inutile di per sé, a parte per la medaglietta, ma StorageReview ci ha tenuto a notare tutta la parte collaterale: un sistema che ha macinato dati per 110 giorni consecutivi senza fermarsi (ok, per far girare y-cruncher sono passati da Windows Server a Ubuntu 24.04.2 LTS, mica stupidi) con un consumo totale di energia di quasi un ordine di grandezza minore di quello di KIOXIA: circa 4300 kWh, per un costo di meno di 1000 dollari che non sono nulla rispetto all’hardware :-) Insomma, pi greco è solo una scusa.

Una considerazione finale: non credo di avere nemmeno visto notizia del penultimo record. Direi che la gara a chi trova più cifre è ormai passata di moda.

Il percorso del cavallo con meno angoli ottusi

il percorso più imbizzarrito Don Knuth si diverte sempre con la matematica. La sua conferenza di fine anno parla dei percorsi del cavallo: come un cavallo possa toccare tutte le caselle di una scacchiera. Tra le varie soluzioni presentate, John D. Cook ha selezionato quella con il minor numero di angoli ottusi, che dovrebbero essere solo quattro (con i pallini così piccoli i miei occhi si incrociano). Avrei gradito vedere quella con il maggior numero di angoli ottusi, visto che così pare di avere un cavallo imbizzarrito, ma non ho voglia di guardare tutto il video.

Ultimo aggiornamento: 2026-01-02 12:25

Zpordle

una partita di zpordleLa valutazione p-adica di un numero naturale positivo $n$, definita per un numero primo $p$, è il più grande esponente $v$ tale che $p^v | n$. Se per esempio prendiamo 24, la sua valutazione 2-adica è 3 (24/8 = 3, mentre 24/16 non è intero quindi la valutazione non può essere 4 o di più), quella 3-adica è 1, le altre sono 0. Il valore assoluto p-adico è l’inverso di p elevato alla valutazione p-adica, e la distanza p-adica tra due numeri è il valore assoluto della loro differenza. Detto così mi sa che sia incomprensibile: forse è più semplice se dico che dati due numeri $a$ e $b$, se la loro differenza 2-adica è 1/8 allora la loro differenza deve essere un multiplo di 8 ma non di 16. Ah, per convenzione il valore assoluto p-adico di 0 è 0.

Ordunque: Zpordle (link) è un Worlde con la differenza p-adica. Ci sono dieci numeri primi (eventualmente ripetuti) in ordine crescente, e bisogna indovinare un numero da 1 a 1000. Dopo ciascun tentativo viene indicata la distanza p-adica tra l’ipotesi e il numero reale. Nella partita che ho fatto ieri, il primo tentativo con 500 ha dato norma 1. (“norm” è il valore assoluto p-adico, che assomiglia a una norma ma non lo è davvero: ma gli americani lo chiamano così…) Questo significa che il numero non è pari, altrimenti la differenza con 500 lo sarebbe stata. Il secondo tentativo è stato più fortunato: norma 1/8 vuol dire che la differenza con 257 è un multiplo di 8 ma non di 16, quindi il numero è della forma $8k + 9$. Il terzo è stato ancora più fortunato: sappiamo infatti ora che il numero è della forma $32k + 9$. Quarto e quinto tentativo mi dicono che il numero è della forma $3k + 2$; a questo punto ammetto di avere preso un foglio Google per fare i conti. Sesto e settimo tentativo hanno eliminato i multipli di cinque e quelli della forma $5k + 4$; l’ottavo mi ha confermato che il numero era della forma $5k + 1$. L’unica possibilità era 41, e infatti al nono tentativo ce l’ho fatta. Col senno di poi ho fatto parecchi errori: il primo è cominciare con 500 e non con 512, ma il peggiore è stato il quarto tentativo, dove avrei subito dovuto provare 41, perché sicuramente 18 non poteva essere possibile.

Ok, non credo che Zpordle spodesterà la tombola in attesa del Capodanno, ma magari potete provare a fare una partita per ripassare un po’ l’aritmetica modulare!

Ultimo aggiornamento: 2025-12-31 19:19

Un triangolo 3-4-5 che spunta dal nulla

Prendete un quadrato, $ABCD$ e costruite il punto medio $E$ del lato $AD$ e il punto medio $F$ del lato $DC$. Disegnate ora i segmenti $AF$, $BF$ e $BE$. Orbene: il triangolo $BGF$ è rettangolo, ma soprattutto ha i lati in rapporto $3 : 4 : 5$.

Quando ho visto esposto questo fatto, ovviamente la prima cosa che ho pensato è “come si dimostra?”. La seconda è stata “beh, cominciamo a mettere su un po’ d’algebra”. La terza: “ma siamo matti? non sono più capace di tirare fuori una dimostrazione geometrica?” E in effetti la dimostrazione non è poi così complicata: la potete trovare dopo la figura.

Un triangolo 3-4-5 che spunta

Innanzitutto per la congruenza degli angoli $DAF$ e $ABE$ e per quella degli angoli $AEB$ e $BAF$ abbiamo che $AF$ e BE sono perpendicolari, e quindi $AG$ è l’altezza $AG$ del triantolo $BEA$ e pertanto medio proporzionale tra $EG$ e $GB$. Ma poiché il triangolo $EGA$ è simile a $AGB$ e il rapporto tra le due ipotenuse è $\tfrac{1}{2}$ abbiamo che $EG : AG : GB = 1 : 2 : 4$. Ma allora $FB = EB$ è cinque volte $EG$, e $FG = AF – AG = BF – AG$ è tre volte $EG$, QED. Semplice ed efficace, no?

La cosa che ho trovato più divertente di questa costruzione è che la si può fare come se fosse un origami “facile”, cosa che non è sempre semplice!

Ultimo aggiornamento: 2025-12-25 11:14

Meglio non usare tutte cifre diverse per il pin

Supponete di avere un pin di quattro cifre su un telefono senza riconoscimento biometrico. Se qualcuno vi rubasse il telefono, potrebbe vedere in quali punti dello schermo ci sono più ditate e intuire che quei punti corrispondono alle cifre del pin. Partiamo quindi dall’ipotesi che un Cattivo sappia che noi abbiamo un pin di quattro cifre e sappia anche quali cifre abbiamo usato. Quante possibilità diverse ci sono? Beh, se tutte e quattro le cifre sono diverse, la risposta è semplice: sono 4!, cioè 24. Un po’ poche, conviene usare un pin più lungo. Ma attenzione: cosa succede se si ripete una cifra e quindi se ne usano solo tre? Si possono fare i conti a mano. Supponiamo che si usino le cifre 1, 2, 3 (quali siano è indifferente, il Cattivo conosce il terzetto) e che ci siano due 1. Abbiamo 12 combinazioni: 1123, 1132, 1213, 1312, 1231, 1321, 2113, 2131, 2311, 3112, 3121, 3211; in tutto 12 possibilità. Ma la cifra ripetuta potrebbe essere anche il 2 oppure il 3, e questo il Cattivo non lo può sapere; quindi in totale le combinazioni possibili sono 36. Sempre poche, ma un po’ di più. Per la cronaca: non conviene ridurre il numero di cifre: se ne usiamo due abbiamo 14 possibilità, perché ci sono 16 numeri binari di quattro cifre ma dobbiamo eliminare le combinazioni 1111 e 2222, e con una cifra sola abbiamo evidentemente una sola possibilità.

Gli iPhone ora richiedono sei caratteri come lunghezza minima di un pin; cosa conviene fare in questo caso? Con sei cifre diverse abbiamo sicuramente 6! = 720 combinazioni; con cinque cifre diverse e una ripetuta, per ciascuna cifra ripetuta abbiamo 6!/2! = 360 combinazioni, quindi in tutto ben 1800. I conti poi si fanno più complicati, ma per fortuna OEIS viene in nostro aiuto. Abbiamo così che per quattro cifre distinte le combinazioni sono 1560, mentre per 3, 2, 1 sono rispettivamente 540, 62, 1. Occhei, gli ultimi due casi erano facili come i primi due. Per curiosità, con 7 cifre conviene ripeterne due, così come con 8 e 9 cifre. Potrebbe essere interessante studiare al crescere del numero di caratteri possibili (le cifre finiscono troppo presto) qual è il numero di caratteri da ripetere per ottenere il massimo numero di combinazioni. Sono troppo pigro per mettermi a programmare (non basta excel, qui ci vogliono programmi che usino numeri interi di un numero qualunque di cifre) per ottenere una stima precisa, ma non mi stupirei più di tanto se la risposta per n caratteri fosse dalle parti di n/e …

Il teorema di Bayes con i Lego

Il libro di Will Kurt “Bayesian Statistics the Fun Way” è un’introduzione interessante alle finezze del teorema di Bayes e soprattutto al suo significato pratico. Per chi non si ricordasse la formula del teorema, è questa: $$ P(A|B) = \frac{P(B|A)\cdot P(A)}{P(B)}$$ dove $P(A)$ indica la probabilità di un evento $A$ (chessò, ho il raffreddore) e $P(A|B)$ la probabilità dell’evento $A$ sapendo che c’è stato l’evento $B$ (ho il raffreddore tutte le volte che il giorno prima è piovuto). Se proprio non vi resta in mente la formula, vi svelo un trucchetto: immaginando che tutte le probabilità in gioco siano maggiori di zero – anche perché altrimenti non c’è molto da calcolare… – si può scrivere la formula come $$ P(A|B) \cdot P(B) = P(B|A) \cdot P(A)$$, che è più simmetrica. In ogni caso, noi cerchiamo di aggiornare la probabilità del nostro evento $A$ (che avevamo a priori) una volta che abbiamo una nuova informazione $B$ (che per definizione conosciamo), e lo facciamo rovesciando la logica, cioè sapendo qual è la probabilità di $B$ nota $A$.

Come dicevo, Will Kurt fa un esempio con il Lego, esempio che trovate in questo suo vecchio post e che ora vi racconto. Partiamo con alcuni mattoncini ($1 \times 1$, anche se i pezzi in realtà sono più grandi, ma non so come chiamare l’unità minimale) come in figura:

lo spazio delle probabilità

Abbiamo una superficie $6 \times 10$ di mattoncini di tre colori, che rappresentano il nostro spazio di probabilità: c’è un rettangolo $4 \times 10$ blu, uno $2\times 10$ rosso e uno $3 \times 2$ giallo posato sopra gli altri due (purtroppo con le mie capacità grafiche è difficile mostrarlo bene, ma il fatto che siano leggermente spostati sulla destra dovrebbe essere un indizio). Calcolando le probabilità dello strato di base, abbiamo $P(\rm{blu}) = \frac{2}{3}$ e $P(\rm{rosso}) = \frac{1}{3}$. Chiaramente $P(\rm{blu}) + P(\rm{rosso}) = 1$, visto che lo strato di base ha solo mattoncini blu e rossi.

Ora entrano in scena i mattoncini gialli. È vero che $P(\rm{giallo}) = \frac{1}{10}$, perché ci sono sei mattoncini gialli su 60. Ma nel nostro spazio degli eventi noi non consideriamo l’evento “c’è un mattoncino giallo”, anche perché altrimenti la probabilità totale sarebbe maggiore di 1. Ripeto: gli eventi per noi sono solo quello che si trova sullo strato di base. Consideriamo ora la probabilità condizionata di avere un mattoncino giallo sopra uno blu oppure rosso, indicandola come $P(\rm{giallo\!|\! blu})$ o $P(\rm{giallo\!|\! rosso})$ rispettivamente. Come possiamo calcolare $P(\rm{giallo\!|\! rosso})$? Semplice: separiamo il blu dal rosso e consideriamo solo la parte rossa, come in figura. Abbiamo che l’area rossa è come prima $2\times 10 = 20$, quella gialla è $2\times 2 = 4$, e pertanto $P(\rm{giallo\!|\! rosso}) = \frac{4}{20} = \frac{1}{5}$.

Ora rosso e blu sono separati.

E se invece volessimo calcolare $P(\rm{rosso\!|\! giallo})$? Banale, mi direte. Ci sono sei mattoncini gialli di cui quattro sono sopra il rosso: se dall’alto vediamo un mattoncino giallo sappiamo che la probabilità che sotto ce ne sia uno rosso è $\frac{2}{3}$. Non ci crederete, ma questo è proprio il teorema di Bayes! Intuitivamente, insomma, il teorema non è niente di che, e possiamo anche intuire che il reverendo Bayes lo considerasse talmente ovvio da non scriverne nemmeno. Vediamo ora come tirare fuori la formula mostrata all’inizio, formalizzando la nostra intuizione.

Partiamo calcolando il numero di mattoncini gialli a partire dalla probabilità di trovarli:

$$ \rm{NumGialli} = P(\rm{giallo}) \cdot \rm{TotNum} = \frac{1}{10} \cdot 60 = 6 $$

Cosa vuol dire “Quattro mattoncini gialli sono sul rosso”? Per prima cosa dobbiamo calcolare quanti sono i mattoncini rossi, con una formula simile a quella sopra:

$$ \rm{NumRossi} = P(\rm{rosso}) \cdot \rm{TotNum} = \frac{1}{3} \cdot 60 = 20 $$

Sappiamo poi che il rapporto dei mattoncini gialli sopra quelli rossi è $P(\rm{giallo| rosso})$; moltiplicandolo per il numero dei mattoncini rossi troviamo quanti sono i mattoncini gialli sui rossi:

$$ \rm{NumGialliSuiRossi} = P(\rm{giallo | rosso}) \cdot \rm{NumRossi} = \frac{1}{5} \cdot 20 = 4 $$

Infine dobbiamo calcolare il rapporto tra i mattoncini rossi coperti da quelli gialli e il totale di quelli gialli:

$$ P(\rm{rosso | giallo}) = \frac{\rm{NumGialliSuiRossi}}{\rm{NumGialli}} = \frac{4}{6} = \frac{2}{3} $$

Da qui possiamo usare le tre formule precedenti per scrivere i due termini della frazione usando le probabilità e il numero totale di mattoncini; quest’ultimo fa il piacere di eliminarsi e otteniamo il teorema di Bayes. Diciamocelo, però: la formalizzazione non è così facile da vedere, ed è forse per questo che il teorema rimane spesso piuttosto oscuro, anche se come abbiamo visto non c’è nulla di davvero complicato.

Ultimo aggiornamento: 2025-12-11 14:49

Come dimostrare che e è irrazionale

Come sapete, la costante ꬲ ≅ 2,71828… se la gioca alla pari con π nel campionato per il numero che appare più spesso nelle formule matematiche. A differenza del pi greco, però, ꬲ è più facile da gestire, non tanto perché è il limite per $n$ tendente all’infinito dell’espressione $(1 + 1/n)^n$ (la definizione usuale) quanto perché è la somma della serie $ \frac{1}{0!} + \frac{1}{1!} + \frac{1}{2!} + \frac{1}{3!} + \frac{1}{4!} + \cdots $ che ha due vantaggi: è facile da scrivere e converge molto rapidamente. Ci sono anche altre rappresentazioni interessanti di ꬲ, come la forma in frazione continua [1, 2, 1, 1, 4, 1, 1, 6, 1, …] che ha permesso a Eulero di dimostrare che è un numero irrazionale. Non è però immediato ricavare questo sviluppo; in compenso esiste una dimostrazione relativamente semplice, dovuta a Joseph Fourier (sì, quel Fourier) dell’irrazionalità di ꬲ. Eccola qua.

Cominciamo a considerare queste due successioni infinite (o meglio, la collezione di successioni infinite per ogni valore di $n$):

$$ a_n = \frac{1}{n+1} + \frac{1}{(n+1)(n+2)} + \frac{1}{(n+1)(n+2)(n+3)} + \cdots $$
$$ b_n = \frac{1}{n+1} + \frac{1}{(n+1)^2} + \frac{1}{(n+1)^3} + \cdots $$

È immediato vedere che la successione $b_n$ è una progressione geometrica, e quindi il suo valore è $\frac{1}{n}$; d’altra parte, ogni termine di $a_n$ tranne il primo è minore a quello corrispondente di $b_n$ mentre il primo è uguale, e quindi $ 0 < a_n < \frac{1}{n} $. Adesso viene il bello. Prendiamo la definizione di ꬲ come somma infinita e moltiplichiamola per $n!$. I primi $n$ termini del risultato sono tutti interi, mentre la somma di quelli che rimangono, dopo avere tolto $n!$ a denominatore, corrisponde proprio a $a_n$ e quindi è compresa tra 0 e 1. Possiamo riscrivere questo risultato dicendo $$ a_n = n!ꬲ - \textrm{int}(n!ꬲ)$$ La dimostrazione è praticamente terminata. Supponiamo infatti per assurdo che ꬲ sia razionale, e quindi possiamo scrivere $ꬲ = \frac{k}{m}$, con $k$ e $m$ interi. Ma allora $m!ꬲ$ è intero, e dunque $ (m!ꬲ) = \textrm{int}(m!ꬲ)$, il che è impossibile perché sappiamo che tutti gli $a_n$ sono maggiori di zero. QED. Cosa possiamo ricavare da questa dimostrazione? Che Fourier era uno che ne sapeva: a me non sarebbe mai venuto in mente un percorso del genere. Col senno di poi però si può forse intuire cosa sia venuto in mente a Fourier. Il fatto che i termini della successione infinita tendono a zero molto, molto rapidamente ci fa capire che non hai spazio per riuscire a mettere insieme tutti i coefficienti dei denominatori per arrivare a un numeratore multiplo di essi; è un po’ la stessa idea che ebbe Liouville quando costruì esplicitamente il primo numero che si poteva dimostrare essere trascendente. Il bello di questa dimostrazione è comunque che possiamo tranquillamente spiegarla a uno studente liceale, una volta dato per assodato qual è lo sviluppo in serie infinita di ꬲ; non è che siano cose che capitino tutti i giorni!

Ultimo aggiornamento: 2025-12-03 13:32

Armonici quasi interi

Nel 1918 József Kürschák dimostrò che la somma di reciproci di due o più numeri consecutivi non può mai essere un intero. Come corollario, l’unico valore intero toccato calcolando la serie armonica $H_n = 1 + 1/2 + 1/3 + 1/4 + …$ è 1. Ci si può però oziosamente chiedere quanto vicino si può arrivare a un intero. John Cook in una successione di post ha mostrato che se ci limitiamo ai numeri da 1 a 100000 abbiamo che $$ \sum_{k=27134}^{73756} \frac{1}{k} \approx 1$$ con un errore dell’ordine di $10^{-11}$, e questa è la migliore approssimazione possibile a 1.

Limitandoci alle porzioni di serie armonica, si arriva rapidamente a un problema: i numeri in virgola mobile non sono abbastanza precisi per fare tutte le addizioni. Fortunatamente abbiamo a nostra disposizione un’approssimazione molto buona: $H_n \approx \log n + \gamma + \frac{1}{2n} – \frac{1}{12n^2}$, dove $\gamma$ è la costante di Eulero-Mascheroni pari a circa 0,57721. (Curiosità: non è noto se sia o no un numero irrazionale, ma tutti credono di sì, anche perché in caso contrario il suo denominatore dovrebbe avere almeno $10^{242080}$ cifre…). Notate come l’approssimazione usata da Cook sia molto più accurata di quella usuale $H_n \approx \log n + \gamma$, per andare più sul sicuro. Cook si è divertito a scrivere un programmino Python per trovare il termine della serie armonica più vicino a un numero (non necessariamente intero) dato, scoprendo per esempio che $H_12366 \approx 9,99996214846655$.

Ma anche questo programma, pur essendo ben fatto, ha dei problemi di arrotondamento se il numero cercato è molto grande. Per esempio dice che se vogliamo arrivare ad approssimare 100 dobbiamo sommare 15092688622113830917200248731913020965388288 termini, e l’errore relativo è dell’ordine di $3 \times 10^{-15}$. Ma usando Mathematica e l’approssimazione $n \approx \rm{exp}(m − \gamma)$, dove $m$ è il numero che vogliamo approssimare e $n$ il numero di termini richiesti, Cook mostra che la vera quantità di termini che dobbiamo sommare è 15092688622113788323693563264538101449859497; insomma i due numeri divergono dalla quattordicesima cifra, il che ha senso visto che siamo ai limiti della precisione dei numeri a 64 bit. Per curiosità, per arrivare a 1000 occorrono un bel po’ di termini, cioè

110611511026604935641074705584421138393028001852577373936470952377218354575172401275457597579044729873152469512963401398362087144972181770571895264066114088968182356842977823764462179821981744448731785408629116321919957856034605877855212667092287520105386027668843119590555646814038787297694678647529533718769401069269427475868793531944696435696745559289326610132208504257721469829210704462876574915362273129090049477919400226313586033

(un numero di 435 cifre). Che possiamo dedurre da tutto questo? Due cose. La prima è che la serie armonica cresce molto lentamente; la seconda è che bisogna sempre sapere qual è il modo migliore per fare un conto, tenendo conto delle limitazioni dei computer…

Ultimo aggiornamento: 2025-11-26 09:24