Archivi categoria: matematica_light

Massimo comun divisore e minimo comune multiplo

Non so se le frasette “massimo comun divisore” e “minimo comune multiplo” facciano ancora venire a qualcuno un brivido di terrore, al pensiero dei conti che ci facevano fare a scuola e magari anche per capire com’è che una di quelle due sigle – che ricordano pericolosamente 1400 e 1900 scritti in numeri romani – fosse tutta in maiuscolo e l’altra tutta in minuscolo, e perché quello maiuscolo fosse il più piccolo dei due numeri, e non il più grande. Forse è vero che oggi questi concetti sono un po’ meno importanti di un tempo, quando i conti si facevano a mano; ma hanno ancora un certo qual interesse.
Per prima cosa occorre fare un passo indietro e approcciare il tutto da parecchio lontano. I numeri naturali hanno una simpatica proprietà, niente affatto scontata: quella della fattorizzazione unica. Un fattore di un numero n è un numero f tale che la divisione n/f non dà resto: i numeri primi, forse ricordate, sono quelli maggiori di 1 che hanno come fattori solo sé stessi e 1. Se prendiamo un qualsiasi numero, la fattorizzazione unica ci assicura che lo possiamo scrivere in un solo modo come prodotto di numeri primi; per esempio, 1001 = 7·11·13.
In matematica la fattorizzazione unica è importantissima, ed è il motivo fondamentale perché si definisce che 1 non è un numero primo; piuttosto che aggiungere qui la frasetta “eccetto che si possono aggiungere tanti fattori uno quanti si vogliono”, si preferisce aggiungere “eccetto 1” nella definizione di numero primo. Come curiosità posso aggiungere che all’inizio del XIX secolo si pensava di poter dimostrare il teorema di Fermat con alcune tecniche nemmeno troppo difficili matematicamente ma che presupponevano che la fattorizzazione unica valesse anche per numeri “più o meno interi”, quelli della forma n + m √(-1); ed è stato un brutto colpo acccorgersi che non è affatto vero.
Ma basta con le divagazioni, e torniamo alla fattorizzazione unica. Abbiamo visto che ogni numero si può scrivere in modo univoco come prodotto di numeri primi; ma allora se prendiamo due numeri possiamo trovare quali fattori – e presi quante volte – hanno in comune. Per esempio, 9009 = 32·7·11·13 e 147 = 3·72 hanno in comune il prodotto 3·7, cioè 21. Detto in altro modo, posso dividere sia 9009 che 147 per 21 senza ottenere nessun resto, e non c’è nessun numero maggiore con questa proprietà. Quindi 21 è un divisore, comune a entrambi i numeri e massimo; il Massimo Comun Divisore (MCD), appunto. In maiuscolo, perché immagino che la parola “massimo” faccia pensare a qualcosa di grande.
Supponiamo però che ci interessi qualcosa di diverso; possiamo riempire degli scatoloni di libri mettendoli a gruppi di sei oppure a gruppi di otto a seconda di cosa il Comitato Centrale ci comunicherà, non vogliamo scatoloni mezzi pieni perché non sta bene, e vogliamo evitare di fare troppi scatoloni perché siamo pigri. Ovviamente prendere sei per otto, quarantotto, libri ci permette di riempire in ogni caso gli scatoloni; però si può fare di meglio limitandoci a 24 libri. Questo 24 è il minimo comune multiplo (mcm) di 6 e 8, appunto. In minuscolo, perché immagino che la parola “minimo” faccia pensare a qualcosa di piccolo.
Se ci capita di sommare due frazioni, a denominatore ci conviene usare il minimo comune multiplo dei denominatori, perché ci troveremo con numeri più piccoli. Ma come si fa a sapere qual è il mcm di due numeri? Più semplice di quanto possa sembrare a prima vista: si moltiplicano tra di loro i due numeri e si divide il risultato per il loro massimo comun divisore. In fin dei conti il MCD indica proprio quali fattori sono in comune tra i due numeri, e quindi è inutile contare doppi. E come si fa a sapere qual è il massimo comun divisore dei numeri? Beh, quello lo racconto la prossima volta :-)

Ultimo aggiornamento: 2009-06-10 16:07

La matematica delle creme solari

God Plays Dice riporta un articolo del New York Times sulle creme solari, o più precisamente sui fattori di protezione indicati sulle creme.
Cosa significa “fattore di protezione N”? Vuol dire che la dose consigliata di crema lascia passare soltanto una parte su N dei raggi ultravioletti; se preferite vederla in un altro modo, moltiplica per N la quantità di tempo che potete stare al sole senza bruciarvi (almeno in teoria, visto che la crema si assorbe, se ti fai il bagno se ne va via, ecc. ecc. Notate la parolina magica “la dose consigliata”; è una quantità enorme, tipo 30 grammi, che nessuno si metterebbe mai visto il prezzo delle cremine.
Bene, supponiamo che io abbia la mia bella cremina protezione 16 e me ne metta addosso solo quindici grammi invece che trenta. Qual è la mia protezione equivalente? La metà, cioè 8? No. È la radice quadrata, cioè 4! Come Isabel fa notare, la cosa ha un senso: se noi prendiamo uno strato standard di crema a protezione 4 ci arriva solo un quarto degli ultravioletti; con un secondo strato ce la fa solo un ulteriore quarto, vale a dire un sedicesimo. I conti esatti sono leggermente diversi, visto che la matematica è solo un’approssimazione della vita reale, e visto che la protezione non è uniforme su tutte le frequenze di ultravioletti il risultato è un po’ minore; ma l’idea è quella. Se doppio strato di crema protezione 4 dà una protezione 16, chiaramente metà strato di una crema protezione 16 darà una protezione 4, no?
Il tutto non è solo una curiosità: è anche un modo per mostrare come una funzione oggettivamente poco comune come la radice quadrata possa apparire in maniera naturale anche nella vita, se non proprio di tutti i giorni, almeno di tutte le estati. God Plays Dice arriva anche a far notare che per confrontare il costo di due diversi tubetti di crema occcorre dividere il prezzo non solo per il volume dei tubetti ma anche per il logaritmo dei fattori di protezione: ma qua forse si esagera con la matematica!

Ultimo aggiornamento: 2009-05-15 07:00

La crisi riporta in auge la derivata seconda!

C’è crisi. C’è brutta crisi, e non sembra che stia finendo. I media sono caldamente invitati a infondere fiducia alla gente, ma è difficile farlo senza mentire spudoratamente. Capita così che soprattutto all’estero l’arte di arrampicarsi sugli specchi faccia improvvisamente tornare alla mente la matematica liceale.
Prendiamo ad esempio questo articolo della BBC. Il titolo è «Pace of US job losses is slowing», il che significa che negli USA si continuano a perdere posti di lavoro, ma meno di prima. Insomma, la funzione “posti di lavoro nel tempo” è quindi decrescente, però la funzione “differenza di posti di lavoro rispetto al periodo precedente” passa da numeri negativi grandi a numeri negativi un po’ meno grandi, e quindi cresce (Se la temperatura è -5 fa un freddo becco, ma sicuramente fa più caldo che se è -15, no?) Tecnicamente la derivata prima della funzione posti di lavoro è negativa, ma la derivata seconda è positiva: come in una parabola, si spera che prima o poi a furia di scendere sempre più dolcemente la discesa termini e ricominci una salita; ma al momento si scende e basta.
Devo però aggiungere che se misuriamo la portata della crisi dall’ordine della derivata usata nelle spiegazioni allora non siamo arrivati ancora al peggio. Il matematico Hugo Rossi osservò (trovate la citazione originale ad esempio qui): «Nell’autunno del 1972 il presidente Nixon annunciò che il tasso di crescita dell’inflazione si stava riducendo. È stata la prima volta in cui un presidente in carica usò una derivata terza per promuoversi durante la campagna elettorale.».
Aggiornamento: (11 maggio) Come si può vedere qua (“Svolta vicina, rallenta il calo del Pil”), anche in italiano sono arrivate le costruzioni con la derivata seconda.

Ultimo aggiornamento: 2009-05-08 15:19

Previsioni e postvisioni

Supponete che qualche giorno prima della partita di andata dei quarti di finale della Champions League vi arrivi una email che dice “ho sviluppato un algoritmo che prevede correttamente i risultati sportivi. Per dimostrarGlielo, ecco quali sono le quattro squadre che passeranno alle semifinali:” e un elenco di quattro squadre. La mail termina con “per favore, non divulgate la notizia, per ovvie ragioni”. Voi non ci fate molto caso: quando però le partite si sono concluse, vi arriva una seconda email, che dice “Le quattro squadre che hanno passato il turno sono state proprio quelle da me previste. Perché Lei si possa sincerare della potenza dei miei algoritmi, Le dico quali saranno le finaliste”; e stavolta ci sono due nomi. Fate mente locale, vi ricordate che effettivamente l’interlocutore aveva ragione – e dire che non avreste scommesso un euro su una delle squadre – e aspettate incuriositi. Anche stavolta le predizioni si sono rivelate corrette: arriva una terza mail che dice “Se Lei vuole sapere il nome della squadra che vincerà la Champions League, invii cento euro a questo numero di conto corrente. Mi raccomando, però: non diffonda la notizia, altrimenti le quote crollerebbero.” Che fareste? Mandereste all’anonimo i soldi, pronti a scommetterne ben di più? Se avete risposto sì, forse è meglio che continuiate a leggere; altrimenti la lettura non sarà così importante ma spero sia comunque piacevole.
Il nostro anonimo interlocutore aveva infatti iniziato a spedire 128.000 email – tanto non gli costava nulla – divise in sedici gruppi, ciascuno dei quali aveva una quaterna diversa di semifinaliste previste. Una volta visti i risultati, il secondo gruppo di spedizioni è stato fatto solo agli 8000 destinatari che avevano ricevuto la predizione corretta (suppongo che le probabilità che passi il turno una squadra oppure l’altra siano le stesse, ma il ragionamento vale lo stesso); il terzo messaggio con la richiesta di denaro, infine, solo ai 2000 per cui anche i risultati delle semifinali erano stati previsti correttamente. La maggior parte delle persone ha ricevuto solo la prima mail con le previsioni errate, ma voi eravate tra i duemila “fortunati”, e con buona probabilità sgancerete al nostro ignoto amico cento euro per un’ulteriore predizione assolutamente casuale. Se anche solo la metà dei polli ci casca, sono 100000 euro in saccoccia senza troppa fatica: niente male, vero?
Purtroppo l’evoluzione non ha insegnato a noi umani come trattare le probabilità, soprattutto le probabilità a posteriori. Quello dell’esempio è un caso limite: prima dell’invio della prima email avete una possibilità su 64 di ricevere tutti e sei i risultati corretti, e quando vi arriva la lettera con la richiesta di un piccolo contributo tendete a pensare ancora a quella probabilità, mentre quella a posteriori è ovviamente la certezza nel vostro caso (e l’impossibilità negli altri 63 casi… la probabilità è come l’energia, nulla si crea e nulla si distrugge). Ma ci sono anche altri casi in cui le probabilità a posteriori sono sovrastimate e non sottostimate. Il caso classico che viene fatto è quello del test per l’Aids. Supponiamo che il test rapido abbia una probabilità su 100 di dare un falso positivo (una persona sana che risulti aver contratto l’infezione), e che il vostro stile di vita assai morigerato sia tale che a priori avete una possibilità su 1000 di essere infetti. Andate a fare il test, e vi richiamano dicendo che il test rapido è risultato positivo e quindi occorre sottoporvi a un test più accurato. Quant’è la probabilità a posteriori (cioè dopo la positività al test rapido) che voi siate effettivamente infetti? il 99%? No, è molto meno. Su un milione di persone con il vostro stile di vita, infatti, solo 1000 sono statisticamente infette. Il test darà risultato positivo su questi 1000 e sull’1% degli altri 999000, cioè su 9990 persone (che arrotondo a 10000 per fare meglio i conti). Quindi ci sono 1000 infetti su quasi 11000 positivi all’esame, pari a meno del 9%. In altre parole: c’è da preoccuparsi (siamo passati da una probabilitàa priori dello 0,1% a quasi il 9%) ma non avete ancora un piede e mezzo nella fossa!
Tutti questi conti sono ben noti da secoli ai matematici, e la formula che calcola le probabilità a posteriori a partire da quelle a priori e dai risultati si chiama Teorema di Bayes. Il fatto che sia ben nota non cambia però le carte in tavola: continua a risultare poco intuitiva, e quindi anche persone con una buona conoscenza scientifica ci possono cascare.
C’è anche un altro fenomeno relativo alle probabilità che fa prendere lucciole per lanterne, anche se più che matematico è probabilmente di natura psicologica, ed è l’aggiustamento probabilistico a posteriori. Inizio con un esempio che di matematico non ha nulla: le centurie di Nostradamus. Adesso non sono molto di moda, ma negli anni ’70 del secolo scorso c’erano vari studiosi che invariabilmente mostravano come Nostradamus avesse previsto i vari fatti accaduti: una volta verificatisi tali fatti, i riferimenti nel testo del veggente erano infatti inequivocabilmente chiari. Purtroppo le previsioni per il futuro non sono mai state così chiare, un po’ come quelle degli astrologi: o magari è tutto un complotto delle società di assicurazione che non vogliono finire in rovina, e quindi stanno attente a eliminare tutti i possibili metodi per conoscere davveo il futuro.
Spostandoci ìn un ambito piu matematico ancorché qualitativo, prendo un esempio purtroppo tragico: il terremoto abruzzese di questi giorni, e la coda di polemiche perché le previsioni di Gioacchino Giampiero Giuliani non sono state tenute in considerazione. Guardiamo le cose da un punto di vista strettamente matematico. La probabilità a priori che ci sia un terremoto di intensità distruttiva in un giorno specifico in una zona specifica (diciamo con l’epicentro in un raggio di quindici km da un punto indicato) è molto bassa, per fortuna: e lo è anche se ci si trova in una zona sismica, e comincia a diventare significativo – ma non ancora elevato, sempre per fortuna – in presenza di alcuni segnali. Immaginiamo che Giuliani avesse effettivamente previsto il terremoto del 6 aprile all’Aquila, ma non avesse detto nulla perché in fin dei conti era già sotto inchiesta per procurato allarme. Resta il fatto che il 28 marzo aveva affermato che il terremoto sarebbe stato il giorno successivo (sette giorni prima della data effettiva) a Sulmona (cinquanta chilometri in linea d’aria dall’Aquila). Chi dice “ci aveva azzeccato” è come chi pensa di aver vinto alla lotteria perché la differenza tra il numero del suo biglietto e quello vincente è solo 14: non esattamente un gran risultato. Eppure, proprio perché l’evento è così raro e distruttivo, si pensa inconsciamente che un’approssimazione di questo tipo sia accettabile. Visto che non possiamo riprodurre a piacere i terremoti, non abbiamo un modo di valutare aprioristicamente la probabilità che da una serie di segnali si giunga a un sisma. D’altra parte, mentre in linea di principio ha senso avere qualche allarme a vuoto, non possiamo nemmeno averne troppi; non tanto per l’effetto “al lupo al lupo”, quanto per gli ovvi problemi organizzativi.
La morale di tutto questo è semplice: fate sempre attenzione quando valutate delle probabilità, e non fidatevi degli argomenti spannometrici!

Ultimo aggiornamento: 2009-04-11 07:00

Geometria fumettara

Probabilmente la vignetta di oggi di Ferd’nand non vi farà molto ridere, soprattutto se la vostra abilità nei lavori manuali è comparabile con la mia. La striscia però rappresenta visivamente un importante fatto geometrico, che probabilmente è passato del tutto inosservato a scuola.
Una delle informazioni generalmente inutili che rimangono appiccicate dagli anni scolastici è “per due punti passa una retta”. La frase corretta, sottintendendo che si parla del piano euclideo, è “per due punti passa una e una sola retta”, ed è uno dei postulati degli Elementi di Euclide, vale a dire un’affermazione che si deve prendere per vera senza cercare di dimostrarla. Se i punti presi sul piano sono tre, bisogna essere fortunati per averli tutti sulla stessa retta; in genere non capita. Sì, ci sarebbe la battuta “per tre punti passa una retta, purché sufficientemente spessa”, ma non divaghiamo… L’affermazione si può anche leggere alla rovescia: dati due punti, abbiamo definito una retta ben specifica.
Se dal piano passiamo allo spazio, però, le cose si fanno più interessanti. Il postulato equivalente a quello indicato qui sopra dice “per tre punti passa uno e un solo piano”, o se preferite “dati tre punti, abbiamo definito un piano”. Come nel caso del piano aggiungere un terzo punto non permette più di essere certi di avere una retta che passi per tutti e tre i punti, così quattro punti nello spazio possono non appartenere a nessun singolo piano, come il nostro Ferd’nand si è accorto col suo tavolino che balla. Ma se il tavolino ha solamente tre gambe, la stabilità è assicurata! Naturalmente non è detto che le cose posate sul tavolino non scivolino a terra, o detto in altro modo il piano del tavolino non è detto sia parallelo al pavimento (o meglio, come fa correttamente notare S. nei commenti, e perpendicolare alla forza di gravità: un tavolino parallelo a una ripida strada di San Francisco sarebbe scarsamente utile); ma è comunque qualcosa. Questo tra l’altro è il motivo per cui si usano i treppiedi e non i quadripiedi, se si deve fare una fotografia e si vuole che la macchina fotografica sia stabile. Insomma, anche la geometria ha la sua utilità

Ultimo aggiornamento: 2009-04-08 10:38

Economia

Ho trascorso la pausa pranzo andando al Poli a sentire la conferenza “Modelli matematici e crisi finanziaria”, nell’ambito dei Seminari di Cultura Matematica del dipartimento di Ingegneria Matematica. Sì, lo so che ho appena scritto un ossimoro.
Premetto che io di matematica ne capisco abbastanza, di statistica un po’ e di economia nulla, e aggiungo che sono riuscito a resettare il mio palmare prima di salvare gli appunti che mi ero preso, quindi può darsi che io abbia preso delle cantonate: tanto ci sono fior di economisti tra i miei ventun lettori, che saranno lesti a correggere. La netta sensazione che però ho avuto è che il sistema bancario prenda gli strumenti matematici e poi li usi in maniera tale che i fisici in confronto sono dei formalisti puri.
Innanzitutto c’è il leverage, vale a dire quanti soldi la banca dà in giro rispetto al suo capitale (troppi, soprattutto negli ultimi anni…), ma questo con la matematica c’entra poco. Più interessante il racconto di Emilio Barucci su come funzionano le cartolarizzazioni dei mutui casa. Se un mutuatario ha probabilità x di non poter pagare, con varianza σ2, basta prendere mille mutuatari e mettere insieme i loro mutui. Se le loro probabilità di default sono indipendenti, un po’ come quando si lancia un dado N volte, la probabilità di default del pacchettone continua ad essere x, ma la varianza scende a σ2/1000, il che mi torna: se provate a disegnare la distribuzione binomiale di dieci oppure diecimila lanci di moneta nella stessa scala, vedrete che la seconda sembra una gaussiana molto più stretta. A questo punto si prende il pacchetto dei mille mutui e si fanno delle quote: non però uguali, ma dividendolo in tranche. In pratica ci sono le quote più rischiose, che però quando le cose vanno bene danno tanti soldi, e quelle via via più sicure, con rating che arrivava anche ad AAA (cioè una possibilità su 20000 di diventare carta straccia entro un anno). Queste quote sicure sono state vendute come obbligazioni sul mercato: solo che le banche americane, invece che fare come da noi dove le obbligazioni venivano rifilate agli utenti finali, se le compravano tra loro, spostando le voci nel bilancio ma rimanendo comunque fregate con una crisi come questa.
Ma anche questo non c’entra con la matematica light, se non per un punto fondamentale: la varianza si riduce così tanto solo se i vari mutui sono statisticamente indipendenti. Nel caso ci sia correlazione perfetta, la varianza rimane ovviamente σ2; altrimenti ci sarà un valore intermedio. Cosa facevano allora quelli che erano incaricati di suddividere il pacchetto dei mutui nelle varie tranche? Semplice: giocavano con i parametri, e soprattutto con la correlazione tra i mutui, per trovare i risultati che gli andassero bene. Un po’ insomma come i “sondaggi televisivi” dove facciamo una domanda a una decina di persone e mostriamo le tre risposte che ci piacciono di più.
Ma il secondo punto “molto matematico” è quello del Valore a rischio, o VaR. Questo numeretto misurerebbe qual è il valore minimo che ci aspettiamo il nostro portafoglio avrà in una certa data nel 95% dei casi: in pratica nel 5% dei casi scenderemo sotto quel valore, nel 95% invece lo supereremo. In condizioni perfette – leggasi, distribuzione del rischio sotto forma di gaussiana pura – il VaR è un’ottima misura del rischio. Peccato che non solo le condizioni non sono generalmente perfette, ma è anzi vantaggioso mettere investimenti molto più rischiosi in quel 5%, visto che al mondo sono nascosti (il VaR resta lo stesso) ma si può guadagnare di più… se le cose vanno bene, naturalmente.
Insomma, il concetto di base mi pare essere “prendiamo le formulette matematiche, e facciamo finta funzionino sempre; se non funzionano, cominciamo a spostare i numerini fino a che non dicono quello che vogliamo noi”. Belle cose, e poi uno si stupisce che stia andando tutto a catafascio!

Ultimo aggiornamento: 2009-03-18 15:05

Unisione

Nella rubrica odierna di Lessico e Nuvole, Stefano Bartezzaghi parla di una ipotetica operazione da aggiungere alle quattro usuali: l’unisione, che «sarebbe l’operazione per cui due uniso due fa ventidue», o per meglio specificare “due uniso tre fa ventitré”.
Tralasciamo il fatto che l’unisione si fa evidentemente in una base specifica, nel nostro caso in base 10, e veniamo alla sua operazione inversa. Secondo Stefano, l’unisione sarebbe un’operazione autoinversa, tale cioè che ventidue uniso due fa due. Io non sono d’accordo; secondo me ventidue uniso due fa duecentoventidue. Propongo come operazione inversa dell’unisione la stacchisione, tale per cui ventitrè stacchiso tre fa due (e ventitré stacchiso due fa tre…)
Voi che ne pensate, sia riguardo alla nomenclatura che all’operazione in sé?

Ultimo aggiornamento: 2009-03-16 09:21

pari o dispari?

[Questo è un vero articolo di matematica light, nel senso che ho eliminato equazioni e dimostrazioni. Chi volesse fare le cose un po’ più sul serio, può andare a leggere la versione completa su una Prestigiosa Rivista Matematica]
Immagino che abbiate già sentito parlare del Triangolo di Tartaglia, magari sotto il nome di Triangolo di Pascal. È un triangolo (ma vah?) infinito, che ha in punta e sui due lati tutti 1; gli altri numeri si calcolano sommando i due numeri immediatamente al di sopra. Il triangolo di Tartaglia, come tante strutture matematiche, spunta da tante parti; ad esempio, i coefficienti dello sviluppo binomiale (1+a)n sono proprio gli elementi della riga n del triangolo di Tartaglia. Ah: la prima riga, quella per intenderci dove si trova solo il numero 1, è la “riga zero”. I matematici amano partire da zero.
Oltre alla formula ricorsiva per ricavare i numeri del triangolo di Tartaglia, ce n’è anche una che permette di calcolare esplicitamente il k-simo elemento della n-sima riga; esso vale n!(k!(nk)!), dove l’esclamativo indica la funzione fattoriale. Ah, il primo elemento, quello per intenderci più a sinistra, è l'”elemento zero”. Vi ho già detto che i matematici amano partire da zero?
il triangolo di SierpinskiMa immaginiamo che non ci interessi sapere il valore esatto dei vari elementi del triangolo di Tartaglia, ma solo se sono pari o dispari. Proviamo a disegnare il triangolo mettendo un pixel nero se il numero è dispari e uno bianco se è pari: il risultato, come vedete, sembra una specie di merletto e ha l’aspetto di tipo frattale. In effetti la figura limite è nota come Triangolo di Sierpinski: se siete romantici, potete anche vederla così. Spesso i frattali hanno una descrizione semplice, e anche in questo caso in effetti c’è un modo per trovare rapidamente se un pixel è bianco o nero, cioè se il numero corrispondente è pari o dispari. Guardando la figura, vediamo che ci sono delle righe tutte nere, altre righe quasi tutte bianche, e ancora altre righe un po’ alternate, il che però non ci dice molto; la spannometria è utile, ma in questo caso non ci basta.
Il matematico che scoprì la regola è un poco conosciuto francese vissuto nell’Ottocento: Edouard Lucas. Lucas è forse più noto ai matematici ricreativi che a quelli accademici, anche se il test che permette di annunciare ogni tanto la scoperta di un numero primo enorme è stato inventato da lui e poi affinato da Lehmer. Non è un caso che il test di primalità valga per i numeri della forma 2n-1: Lucas era affascinato dai numeri scritti in notazione binaria, e purtroppo per lui era nato con un secolo di anticipo, perché altrimenti sarebbe stato deliziato dagli elaboratori elettronici che in base 2 ci lavorano. Un altro esempio di questa sua infatuazione è la creazione del gioco della Torre di Hanoi, nella cui soluzione le potenze di due giocano un ruolo fondamentale.
Torniamo al nostro triangolo, e prendiamo un elemento a caso; quello in posizione k nella riga n, ricordandoci sempre che si inizia a contare da zero. Scriviamo ora k e n in formato binario, e mettiamoli uno sotto l’altro, aggiungendo se necessario degli zeri a sinistra di k perché siano della stessa lunghezza. Cerchiamo ora tutti i bit di k che hanno valore 1 e vediamo il bit corrispondente di n; se per ciascuno di quei bit di k anche quello corrispondente di n vale 1, allora il nostro elemento sarà dispari, altrimenti sarà pari. Lo so, detto così è incomprensibile; quindi faccio un esempio pratico. Se n vale 19, cioè 10011 in notazione binaria, ci saranno esattamente otto valori di k per cui l’elemento del triangolo sarà dispari: quelli della forma x00xx, dove x può valere 0 oppure 1. Andando a scalare, ci saranno così 10011 in formato binario, cioè 19; 10010=18, 10001=17, 10000=16, 00011=3, 00010=2, 00001=1, e… 00000=0. Quest’ultimo risultato può sembrare un po’ strano: in fin dei conti non ci sono mica bit di k che valgano 1, e quindi si direbbe che l’ipotesi non valga. Ma i matematici amano parlare delle mirabolanti proprietà dell’insieme vuoto: se ci pensate, questo caso è la stessa cosa che dire “se non faccio, non sbaglio”. Poi dovreste fidarvi, visto che l’elemento in posizione zero è il primo della riga (vi ho già detto che i matematici amano partire da zero?) e quello vale sicuramente 1.
Vi faccio ancora qualche esempio facile. Le righe 2, 4, 8, 16… del triangolo, vale a dire la terza, la quinta, la nona… sono quelle dove gli unici pixel neri sono i due estremi, dove cioè k = 0 e k = n; in effetti n è della forma 1000…000 e non si può fare molto. In compenso, le righe appena sopra di esse, cioè la 1, 3, 7, 15, … sono completamente nere, e in effetti se n è della forma 1111…111 si può scegliere un k qualsiasi, perché tanto i bit sopra sono tutti a 1. Se ci si pensa un po’ su, si può capire perché ci siano i triangoli bianchi che man mano si riducono (aiutino: dipende da quanti 1 ci sono a destra nella rappresentazione binaria di k); ma si può anche lasciar perdere tutto questo e limitarsi ad apprezzare il risultato. Qui si vuole essere light, in fin dei conti!

Ultimo aggiornamento: 2014-03-05 11:05