Leggo da Slashdot di una gara, lo Hutter Prize for Compression of Human Knowledge, per comprimere quanto più possibile i primi 100 MB di Wikipedia. Non ho ben capito se quei 100 MB sono sempre gli stessi o vengano aggiornati non dico alla velocità dell’enciclopedia ma comunque con una certa quale frequenza, per evitare tecniche risolutive legate a uno specifico file: ad ogni modo, un fattore di compressione senza perdita di informazione superiore a 6 è sicuramente un ottimo risultato.
Dire però come fa slashdot che gli 1,319 bit per carattere, vicini al limite superiore della stima di Shannon per la capacità umana (0,6-1,3 bit per carattere) sia un segno che si stia arrivando all’intelligenza artificiale. Non tanto perché gli esseri umani codifichino le informazioni in maniera “lossy”, perdendo cioè informazione; se uno va a leggere come Shannon ha fatto la sua stima, mostrando un testo ad alcuni volontari e chiedendo “qual è la lettera successiva?”, capisce che non è quello il caso. Il vero punto è quello che si vede anche nei computer che giocano a scacchi: è (relativamente) facile riuscire a programmare un computer in un particolare campo e farlo diventare meglio di tutti gli uomini e le donne, ma per fargli passare il test di Turing occorre che raggiunga un livello anche solo “bassino” ma in generale. Noi si aspetta senza fretta.
Ultimo aggiornamento: 2007-07-10 11:24