Se si dice “teoria dell’informazione” un matematico pensa subito a Claude Shannon, che l’ha creata praticamente da solo. La sua grande intuizione è stata quella di lavorare con enti discreti e non continui come si era fatto fino a quel momento (la teoria per il caso continuo esiste, ma si basa su quella discreta), quando stavano nascendo i primi computer e non era nemmeno detto che sarebbero riusciti ad affermarsi. Certo, in crittografia si lavorava già con il discreto e c’era l’esempio dell’alfabeto Morse, ma chi avrebbe pensato che la voce e il video sarebbero stati trasformati in successioni di zeri e uni per compattarli e rendere più robusto il segnale?
Nel testo, dopo qualche esempio pratico, do un rapido resoconto dei risultati principali nella trasmissione di segnali discreti, sia nel caso di canale senza errori che in quello dove gli errori sono casuali, e mostro i due principali teoremi di Shannon che definiscono il limite di informazione che può essere inviata attraverso un canale. Anche i miei giochi matematici sono sull’informazione, mentre Sara Zucchini ci parla di Georg Cantor, un altro matematico che ha creato praticamente da solo una nuova parte di matematica, la teoria dell’infinito.
Maurizio Codogno, La teoria dell’informazione, allegato a Gazzetta dello Sport e Corriere della Sera, €6.99 più il prezzo del giornale.
Ultimo aggiornamento: 2024-06-25 15:13