marchette codec

Capisco la gioia di Emanuela Pasqua nel farci scoprire che “il miglior codec video” è italiano. In fin dei conti spiega anche cos’è un codec, e garantisco che non è cosa di tutti. Posso anche capire che nel suo articolo i link siano scritti esplicitamente, e non siano appunto dei link: magari le nuove linee guida del Corsera sono queste, e non mi impunto certo.
Però magari potrebbe scrivere correttamente “Codec Cappelli” invece che “Codec Castelli”, e magari aspettare qualche test comparativo non effettuato dei “vicini di casa” dell’università di Salerno, no?
Aggiornamento: (21:20) la notizia, che mi era in effetti sfuggita, del video da 20 minuti in un floppy da 1.44 MB è stata smentita dal presidente di Ecocontrollo: nella home page del loro sito c’è scritto che è stato presentato «un video in alta definizione a 1080i, della durata di 20 secondi, archiviato su un floppy da 1,44 MB.» (grassetto mio). Venti secondi significa un rapporto di compressione 2.5 rispetto a MPEG-1: considerando che la risoluzione è doppia (“i” sta per interallacciato, se non ricordo male, quindi non è una vera alta definizione – ma potrei sbagliarmi), i numeri tornano.

Ultimo aggiornamento: 2009-01-13 17:17

6 pensieri su “marchette codec

  1. Marco B. Rossi

    Ho visto che anche Paolo Attivissimo ha commentato questa notizia, a partire dall’Ansa http://attivissimo.blogspot.com/2009/01/ansa-144-mb-x-3-316-gb.html
    Ma è davvero possibile comprimere 20 minuti di video in 1.44 MB e senza perdere qualità?
    La sig.ra Pasqua prende questi numeri dall’articolo Ansa, il quale dice in effetti che “con il nuovo sistema 20 minuti di filmato in qualita’ Dvd, che pesano 3,1 Gigabyte possono essere contenuti in un vecchio floppy disk da 1,44 megabyte,con una capacita’ di archiviazione 3-4 volte superiore a quella che si ottiene oggi.”
    Io non ne so molto di compressione video, che mi è sembrato sempre un tema complicato. Però l’unico numero che mi torna è la capacità del floppy disk. E da 3 1/4 pollici HD, che i dischi del mio Commodore 64 avevano a disposizione solo 170 kB!.

  2. .mau.

    @marco: non avevo nemmeno guardato i link, si vede che avevo fretta di andare in palestra :-)
    1.44, oltre che essere la dimensione in MB di un floppino da 3.5″ e un centomillesimo del numero di santi dell’Apocalisse, è anche il numero di megabit al secondo dello standard MPEG-1 (qualità VHS, quindi schifosa). Quindi un floppino conterrebbe 8 secondi di video; 20 minuti sono 1200 secondi il che darebbe un fattore di compressione di 150 a 1. Un po’ troppo, in effetti :-)
    A onor del vero, il PDF indicato non parla affatto di valori simili: per i video, la sezione 3.2 dice “Ogni sequenza è stata compressa a 500, 1000, 2000, 3000 e 4000Kbps.” Direi insomma che quell’1.44 se lo sia sognato l’ANSA e sia stato poi scopiazzato; se trovo qualcos’altro aggiungerò informazioni.

  3. Larry

    Beh, dipende; un filmato con risoluzione 10×10 pixel magari ci può stare. :)
    A parte questo, i migliori CODEC lossy attuali (H.264, VP7) richiedono più o meno 1000 kbps per comprimere un video D1 con buona qualità, per cui non esiste al mondo che un CODEC possa farcela con 10 kbps, men che meno un CODEC lossy.

  4. Larry

    1.44 MB per 20 secondi corrispondono a circa 600 kbps, che per un filmato 1080i sarebbe già un numero stupefacente per un CODEC lossy, ma del tutto incredibile per un CODEC lossless. Se fosse vero sarebbe veramente un breakthrough, ma continuo ad essere fortemente scettico.
    Tanto per far capire la cosa, un video 1080i trasmesso semplicemente in RGB non compresso richiede circa 1200000 kbps (sì, non ho sbagliato gli zeri, sono 3 bytes per 1920*1080 pixel per 25 frame al secondo). Quindi costoro affermano di essersi inventati un algoritmo che comprime 2000:1 (0.012 bit per pixel) senza perdita di dati.

  5. .mau.

    @Larry: quelli di Ecocontrollo hanno fatto due cose completamente distinte: una codifica di immagini fisse lossless e una di video lossy. Quello è abbastanza chiaro leggendo il loro sito.

  6. Larry

    Già, in seguito ho letto anche il pdf e la cosa era chiara (se non altro perché hanno fatto test con diverse bit rate, e per un algoritmo lossless questo non avrebbe senso).
    E i risultati dei test sono molto interessanti. Vedremo.

I commenti sono chiusi.