Non c’entra nulla il calendario Maya, Giacobbo o le tempeste solari. Parlavo un paio di settimane fa con Loris e altri informatici, e mi dicevano che il webcast di Radio105 – non mi ricordo quale trasmissione, qualcosa tipo “viva la foca” – aveva raggiunto picchi di 6 gigabit al secondo di banda richiesta, e che di questo passo tra tre anni si sarebbe saturata Internet.
Fin qua nulla di strano, ai tempi di Usenet si sarebbe detto “film at eleven”; quello che però è a mio parere demenziale è il motivo per cui le cose stanno andando così. Semplificando all’estremo, ci sono due modi diversi di mandare dati a molte persone contemporaneamente. Il primo è usare un indirizzo speciale che può essere condiviso da più persone, e inviare i dati alla “come viene viene”, senza preoccuparsi di verificare che siano arrivati (multicast UDP). Il secondo prepara un canale per ogni persona, e verifica che i bit arrivino tutti regolarmente all’utente finale (flash embedded, in TCP). È ovvio a tutti che ennuplicare una trasmissione che stanno vedendo tutti è solo una perdita di banda; è meno ovvio che la verifica dei dati non serva, ma se ci pensate un attimo non state scaricandovi un file ma guardando un programma dal vivo, e quello che si è perso non lo si può certo recuperare.
Ma allora perché non si usa il primo sistema? È forse troppo recente? Macché, funzionava già trent’anni fa. Peccato però che i vari firewall aziendali sono configurati per eliminare i pacchetti UDP, e quindi chi trasmette è costretto a fare un’operazione assolutamente illogica e costosa: il tutto per mostrare le qualità intrinseche del mercato, che sceglie automaticamente le migliori soluzioni!
Ultimo aggiornamento: 2025-12-29 18:50