Creative Commons, Wikipedia e condivisione della conoscenza

La scorsa settimana mi è stato chiesto come mai Wikipedia usi anche immagini 3D ottenute con Wolfram Mathematica, e se la cosa non vada contro le policy dell’enciclopedia libera. La domanda in effetti non è così peregrina e merita qualche parola in più per rispondere, facendo una breve storia delle licenze libere.

Il movimento per il software libero – o se preferite, Richard Stallman che è il suo incontrastato leader – ha indubbiamente dei modi che potremmo a volte definire talebani. Il testo della GNU General Public License (GPL) è stato studiato non solo per dare la libertà ai programmatori di usare e modificare il software – che deve infatti essere distribuito anche con il codice sorgente – ma per fare da grimaldello contro il codice proprietario: qualunque programma che contenga parti di codice sotto la licenza GPL deve essere rilasciato secondo la stessa licenza. Nasce così il concetto di licenza virale: termine usato in genere con un’accezione negativa da chi fa notare come non si è così liberi se si è obbligati alla libertà. Peggio ancora, il software ha una brutta abitudine: non si riscrive mai nulla da zero ma si preparano librerie (brutta traslitterazione, in italiano si sarebbe dovuto dire “biblioteche”) di funzioni che vengono usate come mattoni e a cui si aggiunge la malta della parte davvero nuova, mettendo tutto insieme con la compilazione. Bene: la GPL impone che il software così creato abbia la stessa licenza. Dal punto di vista di Stallman questo è il comportamento ideale da seguire: per la maggior parte dei programmatori la cosa pareva un filo troppo e così si è giunti al compromesso di inventarsi una licenza d’uso apposta per le librerie: la Lesser General Public License (LGPL) che con un po’ di acrobazie tra il legalese e il programmese specifica che se la libreria viene semplicemente compilata con il resto del programma allora non ci sono problemi.

Ma un programma ha anche la sua documentazione! Ecco così che Stallman inventò anche una licenza apposta per la documentazione: la Gnu Free Documentation License (GFDL). Non ci crederete, ma qualcuno si è lamentato perché questa non era una licenza abbastanza libera, e ha continuato a usare la GPL anche per la documentazione! Il motivo, nel caso ve lo chiedeste, è che nella versione originale della licenza c’era la possibilità di indicare che certe parti del testo non potessero venire modificate. Ad ogni modo la GFDL fu la licenza scelta inizialmente per Wikipedia. La scelta fu quasi obbligata, perché al tempo essa era l’unica licenza libera disponibile. Col tempo poi nacquero le Creative Commons, che nascevano pensando proprio alla condivisione dei testi, e avevano un grande vantaggio competitivo: non era necessario aggiungere tutto il testo della GFDL quando si citava un brano, per quanto piccolo fosse. Ci fu un periodo piuttosto lungo in cui Wikipedia e GNU cercarono di capire se il testo dell’enciclopedia, già piuttosto corposo, poteva cambiare di versione. Alla fine si trovò un compromesso e venne definita la versione 1.3 della GFDL con la “clausola Wikipedia”: l’enciclopedia, o meglio un qualunque “Massive Multiauthor Collaboration Site” (sito collaborativo multiautore di massa) avrebbe potuto licenziare il proprio testo sia con la GFDL che con la CC-BY-SA, purché nessuno di chi aveva contribuito materiale solo con la prima licenza avesse obiezioni e le presentasse entro alcuni mesi dalla pubblicazione della nuova versione. Anche il mondo delle licenze libere è complicato.

Fin qui la nuda cronaca. Quello che dovrebbe però essere chiaro è che almeno in linea di principio l’output di un programma potrebbe avere la stessa licenza d’uso del programma stesso: vedi il caso dei file compilati a partire da software sotto GPL, o banalmente programmi che aggiungono parte di sé stessi nei file di output – un’idea a prima vista balzana, ma che secondo me potrebbe portare a interessanti risultati quando unita al DRM, cioè alla gestione dei diritti digitali. Ma per fortuna questo non è il caso di Mathematica, almeno presumo. Le immagini create sono di proprietà di chi ha fornito i dati di ingresso al programma: se lui ha speso soldi per comprarlo e poi vuole diffondere la conoscenza, buon per tutti. Ma questo, almeno a mio parere, è anche un risultato del vantaggio delle licenze Creative Commons rispetto a quelle GNU: il fatto stesso di poter scegliere quali diritti riservarsi, e di poterlo fare volta per volta, dà una maggiore libertà rispetto al tutto-o-niente stallmaniano. Fatene buon uso, di questa libertà!

La dura legge dei cookie

Le avvisaglie si erano già notate un mese o due fa, ma nell’ultima settimana c’è stata un’escalation incredibile. Tutti o quasi i siti mostrano un avviso che spunta sulla pagina e che ci comunica che il sito usa i cookie e se noi vogliamo continuare a stare sul sito dobbiamo accettarli. In effetti non mi è mai capitato di trovare un sito che permetta di rifiutare i cookie e ti lasci continuare la navigazione: non è poi così strano, come vedremo tra poco. Il guaio è che tutta questa storia avrebbe anche una sua logica: peccato che ormai sia diventata non solo inutile ma persino controproducente…

La storia inizia addirittura nel 1994, quando Netscape introdusse i primi cookie per sapere se l’utente era già passato dal suo sito. Il cookie non è altro che un’informazione che viene passata avanti e indietro tra un browser e un sito quando si va a leggere una pagina web, e permette di trasformare quello che inizialmente era un sistema “a domanda, rispondo” in un’interazione vera e propria. (Per la cronaca, Netscape brevettò i cookie, e il brevetto sembra ora essere in mano a Microsoft). Almeno in linea teorica, dunque, i cookie dipendono dal browser usato e dal sito contattato: in pratica le cose sono un po’ diverse, come vedremo.

Si può fare a meno dei cookie? Non sempre, proprio perché diventeremmo come Dory in Alla ricerca di Nemo: ci serve spesso sapere un po’ del nostro passato. I cookie sono tutti uguali? Assolutamente no. Ci sono cookie di sessione, che quando chiudiamo il browser svaniscono nel nulla. Ci sono cookie di autenticazione, che usiamo per esempio quando facciamo acquisti in rete per farci riconoscere. Ci sono cookie analytics, che sono quelli che contano quanta gente è andata a vedere il nostro bellissimo e importantissimo sito senza però tenere a mente chi ci è andato. Ci sono infine cookie di profilazione, che sono quelli usati per farci vedere la cosiddetta “pubblicità mirata” – che poi sembra spesso che prendano la mira ad occhi chiusi, ma tant’è – e quindi mantengono molte, forse troppe informazioni su di noi a nostra insaputa. Peggio ancora, soprattutto questi ultimi cookie possono essere di terze parti; così può capitare che io vada sul sito B e il server sappia che sono stato sul sito A. Non esattamente una bella cosa.

L’Unione Europea, che è sempre stata attenta alla privacy, trattava questi temi già nel 2002(!), e nel 2003 abbiamo avuto il nostro Codice per la tutela dei dati personali. Nel 2009 c’è stato un nuovo pronunciamento UE, nel 2012 e nel 2013 sono state emesse delle linee guida, e finalmente a maggio 2014 il Garante per la Privacy ha emesso la sua sentenza, anche a seguito di una consultazione pubblica dei cui risultati non sono riuscito a trovare traccia, e dando un anno di tempo a tutti per adeguarsi. Ricordo qualche piccolo commento l’anno scorso, ma come sempre ci siamo ridotti all’ultimo momento, sperando sempre che cambiasse qualcosa o almeno che ci fosse qualcuno da cui copiare il codice.

Bene: dal 2 giugno la norma è in vigore, e così abbiamo tutti questi begli avvisi ovunque. Beh, su Facebook io non li ho visti, e su Google nemmeno, a dire il vero; e dire che quelli dovrebbero essere i siti principe che ci profilano. Noi poveri tenutari di blog possiamo fare come Massimo Mantellini, che ha deciso di fare resistenza attiva e non mettere nulla; oppure cercare soluzioni precotte come quelle di Iubenda che almeno tra i miei contatti sembra andare per la maggiore. Io ho scelto una via di mezzo, che dovrebbe seguire le direttive del Garante: in fin dei conti non ho pubblicità e quindi non mi è mai stato necessario profilare gli utenti. In questo caso è permesso evitare di chiedere all’utente di accettare i cookie, e si può semplicemente mostrare l’informativa sui cookie presenti; il plugin Cookie Law Info mi permette di mettere un avviso che dopo un po’ se ne va via da solo e non rompe troppo il visitatore – almeno spero.

Visto che poi il Garante permette la

«possibilità per l’utente di manifestare le proprie opzioni in merito all’uso dei cookie da parte del sito anche attraverso le impostazioni del browser, indicando almeno la procedura da eseguire per configurare tali impostazioni»

ho pensato di inserire nell’informativa un link a questa guida di Salvatore Aranzulla che spiega come si può aprire una sessione del browser per navigare in incognito. In questo modo tutti i cookie vengono cancellati quando si chiude la finestra, e il Garante è contento. La cosa più divertente è che in questo modo probabilmente il numero di visitatori unici misurato dai cookie analytics crescerà, il che male non fa per l’ego dei blogger; anzi forse la cosa più divertente è che la navigazione in incognito viene tipicamente usata… per visitare i siti porno, il che dimostra come questo continui ad essere una delle forze innovative principali per l’umanità.

Una considerazione finale: sono già apparsi script per nascondere gli avvisi sui cookie, rendendoli quindi inutili. D’altra parte, come potete leggere per esempio qui, sono già disponibili varie tecniche per profilare un utente che non usano cookie, e quindi non sono toccate da questa normativa; e ci sono siti come http://fingerprint.pet-portal.eu/ – non metto apposta il link – che come proof-of-concept ti fanno una fotografia della tua utenza… e peggio ancora usando tecniche indipendenti dal browser con cui ti connetti. Insomma, la solita idea magari nata con le migliori intenzioni ma che all’atto pratico è diventata di impiccio solo per chi forse non sapeva neppure cosa succedeva dietro le quinte e certamente non faceva nulla di male con i dati degli utenti, e soprattutto rende la vita più complicata a tutti noi.

Post Scriptum: dopo una discussione su Twitter, mi sono accorto che il Garante avrebbe potuto anche dire che nel caso di semplice obbligo di informativa era sufficiente che l’informativa stessa fosse richiamata dalla home page del sito e/o in una locazione specifica (un po’ come il file robots.txt). Il risultato pratico per il navigatore era lo stesso, e la complicazione per il gestore del sito molto minore…

Aggiornamento: (6 giugno) Il Garante ha aggiunto dei chiarimenti che chiariscono poco – sarebbe stato più comodo avere qualche esempio specifico 🙂

Twitter: il primo medium molti-a-uno

Capire a che serve Twitter non è facile. La mia impressione è che nemmeno chi l’ha sviluppato avesse le idee chiare. Le leggende dicono che la lunghezza massima dei messaggi è stata posta a 140 caratteri perché quella è la lunghezza di un sms: peccato che nei paesi occidentali si possano inserire 160 caratteri con qualche trucchetto (si usano caratteri di 7 bit anziché di 8) e che in Cina e Giappone i caratteri sono 70. In realtà quella lunghezza è stata scelta ispirandosi agli sms ma senza nessun vero vincolo. Abbreviazioni come RT per “retweet” e lo stesso cancelletto # per l’hashtag sono nate dal basso, cioè dagli utenti, e ufficializzate solo in seguito. Molti vip reali o presunti ritengono che il valore di Twitter risieda nell’avere tanti seguaci; moltissimi che vip non sono ritengono che il valore di Twitter risieda nel riuscire a farsi ritwittare un proprio messaggio da un vip reale o presunto. Diciamo che nei cieli c’è grande confusione. Una cosa che non mi pare sia però stata molto evidenziata è che Twitter può essere considerato il primo esempio di un tipo di comunicazione che non si era (quasi) mai visto nel mondo reale: quella molti-a-uno. Per capirlo meglio, può essere utile vedere come gli altri tipi di comunicazione sono stati declinati nel passato e nel presente.

La comunicazione più semplice che si possa fare è quella uno-a-uno. Io e te parliamo tra di noi: praticamente lo facciamo da quando l’umanità ha acquisito l’uso della parola. La tecnologia ha semplicemente reso più facile parlare con persone che non si trovano davanti a noi; prima col telefono, poi con i sistemi di instant messaging. Notate che sto esplicitamente rifiutando la convenzione che la comunicazione debbe essere orale: ma chi è abituato a lavorare sulla Rete non ci fa nemmeno più caso. Notate però anche che non considero i sistemi offline, come la posta elettronica: è sì comunicazione anch’essa, ma di tipo un po’ diverso. Poi si passa alla comunicazione uno-a-molti. Si parte dal capo che grida ordini al gruppo di cacciatori e si arriva al comizio del leader davanti a centinaia di migliaia di simpatizzanti (qualche migliaio secondo le stime della questura). Radio e televisione sono poi paradigmatici per la comunicazione uno-a-molti, e non è un caso che siano i media più ambiti; ora naturalmente la seconda più che la prima, ma si sa che Video killed the radio star. In questi casi i “molti” possono essere addirittura decine di milioni di persone, che ricevono contemporaneamente le stesse informazioni, o disinformazioni. Vi sembra poco?

L’esempio più tipico di comunicazione uno-a-molti in Rete è indubbiamente il sito web, che viene scritto per un pubblico di dimensione indefinita anche se in effetto off-line. I sistemi molti-a-molti sono già meno comuni: si può però pensare a quello che capita durante una cena tra amici, dove si formano e si riformano gruppetti per chiacchierare. Si sa che si arriva presto alla cacofonia e quindi è piuttosto difficile scalare un sistema di questo tipo: ve ne sarete accorti tutti quando in una cena con più di dieci persone parte subito la spaccatura. In Rete si può fare qualcosa in più. Pensate per esempio alle chatroom: riusciamo ad arrivare senza problemi a qualche decina di persone che interagiscono contemporanemente, anche se non si può superare di molto il centinaio di utenti. D’accordo, non è che tutti prestino attenzione davvero a tutto, ma potenzialmente è così: e sennò si passa a sistemi molti-a-molti di tipo offline, come i forum e all’epoca i newsgroup.

E finalmente passiamo a Twitter. Certo, con Twitter si può fare comunicazione uno-a-uno, coi messaggi diretti. Si può fare comunicazione uno-a-molti, come i sedicenti vip fanno quando postano profondi, ponderati pensieri-pillole. Si può anche fare comunicazione molti-a-molti, anche se è oggettivamente difficile riuscire a fare delle vere conversazioni multiple. Ma soprattutto è possibile, e anzi il sistema stesso lo favorisce, avere conversazioni molti-a-uno. Pensateci un attimo: cosa fate quando viene definito un hashtag per un certo evento e voi lasciate scorrere i twit relativi a quell’hashtag? Proprio così: state facendo convergere su un unico punto – voi – i mirabolanti pensieri di tanta gente. Non tutti i pensieri, ovvio, ma quelli sul tema che ci interessa in quel momento. Provate a far mente locale e scoprire se c’è qualche altro sistema duepuntozero funziona allo stesso modo… Poi provate a pensare se esiste qualche sistema vecchio stile che mette in pratica la comunicazione molti-a-uno. Vi anticipo che la risposta è positiva: come capita quasi sempre, la Rete non ha inventato nulla ma si è limitata a semplificare la fruizione di un paradigma esistente. Ci siete arrivati da soli? Volete sapere qual è stato l’esempio tipico di comunicazione molti-a-uno prima di Twitter?

La risposta è semplicissima: il cosiddetto “eco della stampa”. Le grandi aziende un tempo pagavano qualche società perché si leggesse la mazzetta dei quotidiani del giorno, trovasse le parti che riguardavano le aziende stesse, fotocopiasse quei ritagli e assemblasse una raccolta personalizzata. Certo, a questo punto mi direte “ma tanto vale allora fare una ricerca con Google!” Sì e no. Sì, perché è vero che la ricerca – che può anche essere personalizzata per data – è un esempio di molti-a-uno; no, perché è comunque una ricerca offline. Se c’è un evento in corso, Google semplicemente non può starci dietro: molto meglio la convenzione di usare tutti lo stesso mezzo, appunto Twitter, e sfruttarlo per le sue capacità intrinseche. Come scrivevo sopra, la brevità dei twit diventa un vantaggio, perché ci permette di aggiornarci all’istante. Del resto, Twitter l’ha implicitamente capito, permettendo la creazione di liste (vediamo cosa dicono le persone che a nostro personale giudizio forniscono contenuti simili) e ora il mute (eliminare i messaggi delle persone che usano i tag che ci interessano ma scrivono cose che non ci interessano). Geniale, no?

I formati per gli ebook

Tutti parlano degli ebook, molti ne hanno persino letto qualcuno; non sono in tanti però a rendersi conto che la differenza di formato all’interno della galassia ebook è molto maggiore di quella tra i libri cartacei, dove possiamo avere il tascabile e il grande libro d’arte, la brossura e il rilegato, e poco più. Eccovi una guida per non perdervi tra i vari formati, e che magari vi potrà anche aiutare a scegliere quale dispositivo può fare più al caso vostro.
Il primo formato possibile per un ebook è… il txt. Il caro vecchio file testuale, insomma, che fa tanto effetto macchina da scrivere e fa gridare al miracolo se appaiono delle lettere realmente accentate e non cose cosi`. Per essere precisi, è vero che nel formato txt i caratteri sono monospaziati e che è improbabile trovare anche solo effetti banali come grassetto e corsivo; ma un dispositivo moderno dovrebbe comunque essere in grado di mostrare lettere dell’alfabeto greco o cirillico, per esempio; quindi la situazione non è così critica come potrebbe sembrare di primo acchito. Inoltre, se il testo è formattato in maniera corretta, l’andare a capo non è prefissato ma viene deciso a seconda della dimensione del font e della riga logica. In gergo si dice che il testo è liquido; la cosa è estremamente importante, soprattutto se il vostro dispositivo è piccolo (6 pollici, se non addirittura 5) e voi iniziate ad avere una certa età e quindi preferite ingrandire i caratteri al costo di dover cambiare “pagina” più spesso. In pratica, però, è difficile trovare ebook in formato txt; più facile che ci capiti di dovere aprire una nota scritta velocemente e quindi non formattata, anche se temo che la maggior parte della gente la prepari comunque in Word.
Una variante, almeno dal punto di vista logico, del formato testo è l’html. Tra la fine degli anni ’90 e l’inizio degli anni 2000 sembrava che tutti – o almeno quei pochi che erano allora in rete – scrivessero paginate e paginate in html. In fin dei conti anche html è un formato liquido; a differenza del txt permette anche una formattazione della pagina e tutti i browser lo visualizzano, quindi sembrerebbe un’ottima scelta, no? No. Il suo punto debole è proprio legato al suo successo nello scorso millennio: il linguaggio è stato tirato per la giacchetta per fargli fare cose per cui non era adatto, e chi scrisse il codice dei browser più noti fu costretto ad aggiungere mille eccezioni per visualizzare pagine malscritte. Aggiungiamo poi la banale osservazione che il testo è facilmente modificabile ed è impossibile proteggerlo, e capiamo subito che non avrebbe mai potuto diventare uno standard commerciale per un prodotto da distribuire come un ebook. Mettiamola così: i lettori di ebook permettono di aprire pagine html come legacy, ma non c’è più nessuno che scrive in html testi che non siano la semplice paginetta. Men che meno potete comprare libri in html, almeno per quel che so io.
Passiamo ora al primo formato effettivamente usato negli ebook che si possono acquistare, oltre che in quelli autoprodotti: il pdf. Anche qua stiamo parlando di una tecnologia non certo recentissima: la prima versione del formato fu definita da Adobe nel 1993. Oggi le specifiche del pdf non sono più proprietarie ma sono divenute uno standard ISO, il 32000:1. Non che questo significhi moltissimo – si sa che gli standard sono tutto meno che standardizzati –- ma perlomeno permette di avere un minimo di concorrenza nello scegliere il programma che li crea e li visualizza, che non deve essere più necessariamente Acrobat.
C’è una differenza concettuale stratosferica tra il pdf e i formati citati in precedenza: il pdf infatti non è un formato liquido ma a descrizione di pagina. Detto in altro modo, ogni elemento che forma la pagina – una lettera, la riga di una figura vettoriale o il pixel di un’immagine – è associato a una posizione specifica all’interno della pagina: se si ingrandisce o rimpicciolisce la pagina si allontanerà o avvicinerà ai suoi estremi. ma sempre nella stessa posizione relativa.
Questa sua proprietà lo rende quasi insostituibile nel preparare e-book scientifici, di quelli pieni di formule: bisogna ammettere che i formati fluidi non lo sono mai abbastanza quando apici, pedici e simboli vari sono sparsi a piene mani per la pagina. D’altra parte un conto è leggere un e-book in pdf su un pc, o anche solo su un iPad che comunque ha uno schermo da dieci pollici di diagonale; ma leggerlo su uno schermo di sei pollici o anche meno, per quanto alta sia la risoluzione del display, è un’impresa lasciata solo a chi ha dai dodici decimi di vista in su. E mentre si può ingrandire un formato fluido e avere sempre una pagina virtuale intera, ingrandendo un pdf si è costretti a spostarlo a destra e sinistra per leggere una riga… non certo la migliore “reading experience”!
Sono però ragionevolmente certo che chiunque abbia acquistato un Kindle non abbia affatto idea di tutti questi formati, e si limiti al “formato Kindle”; l’azw. La storia di questo formato è anch’essa piuttosto lunga – non ve l’avevo detto che gli ebook saranno l’ultimo grido della moda ma hanno un notevole passato alle loro spalle? – e inizia nel 2000, quando in Francia nasce un’azienda, Mobipocket, che produce un software per la lettura degli ebook sui dispositivi di allora seguendo uno standard da lei denominato PRC. Mobipocket venne comprata nel 2005 da Amazon; il formato PRC venne leggermente modificato sintatticamente e gli venne aggiunta la possibilità di inserire la protezione elettronica dei contenuti, il famigerato DRM (Digital Rights Management, gestione dei diritti digitali). I Kindle, bontà loro, permettono però anche di leggere i documenti senza il lucchetto DRM, che generalmente hanno estensione non .prc ma .mobi.
Naturalmente, essendo nato per la visione su lettori di piccole dimensioni, mobi e azw sono formati liquidi; e un po’ come capita per i prodotti Apple, l’avere un controllo abbastanza ferreo sull’hardware fa sì che il formato di output sia piacevole.
Tutti i possessori di lettori ebook diversi dal Kindle, però, non leggono il formato azw, e prediligono la cosa più vicina a uno standard che abbiamo al momento: il formato ePub. Questo formato è stato definito dall’IDPF, International Digital Publishing Forum, ed è basato su XML; questo significa che, a differenza dell’HTML, c’è la sicurezza di avere un testo sintatticamente corretto e quindi i lettori epub possono concentrarsi sulla resa visiva, semplificandosi la vita. Anche in questo caso il formato non è nuovissimo: la versione 2 che si usa adesso è stata rilasciata nel 2007 (e la 2.0.1 attuale nel 2010) ma il tutto è figlio di un altro formato ancora, Open eBook Publication Structure (OEB), sviluppato già nel 1999.
Epub è in realtà la somma di tre standard: Open Publication Structure (OPS), per gli elementi di markup; Open Packaging Format (OPF), per la struttura esterna del documento; Open Container Format (OCF), che è più generale e permette di mantenere all’interno dello stesso documento più versioni alternative. La gestione dei DRM è inserita nello standard ma facoltativa: questo significa che un file .epub può essere o no liberamente utilizzabile. È in fase di completamento la versione 3.0 della specifica, che sarà bellissima e favolosa… sempre che anche i produttori di hardware decidano di implementarla nei loro dispositivi, cosa che non è affatto detta. In effetti il formato epub soffre a causa del suo successo: non è affatto detto che i dispositivi sul mercato, o se per questo gli emulatori per PC, applichino tutte le caratteristiche dello standard. In pratica un file che si legge molto bene su un dispositivo può avere una formattazione pessima su un altro, nonostante il testo sia comunque liquido; nelle prove che ho fatto io ho scoperto che il file CSS, che è quello che regola l’associazione tra markup sintattico e visualizzazione semantica ed è nascosto all’interno di un documento epub, viene letto in maniera molto creativa. Finché si tratta di un romanzo le differenze sono poco visibili, ma un testo appena un po’ più arzigogolato può far un brutto effetto all’ignaro lettore.
Termino la carrellata con un formato probabilmente sconosciuto ai più ma molto interessante, soprattutto per i documenti con molte immagini, è il DjVu (si pronuncia alla francese, déjà vu). Questo formato nacque agli AT&T Labs nel 1996; nel 1999 ci fu la prima versione dello standard ancora supportata (la 21) e nel 2006 l’ultima rilasciata (la 27). Il bello di DjVu è che il formato è stato appositamente studiato non solo per inviare documenti grafici ma anche pensando alla fruizione in rete. Le immagini sono infatti divise in varie parti (testo e sfondo, per esempio), ciascuna delle quali codificata nella maniera ottimale (il testo può essere trattato via OCR per ridurne il peso) e in maniera progressiva, in modo che si possa iniziare a vedere qualcosa prima che tutta la pagina sia caricata. Inoltre il formato prevede vari layer, e quindi è possibile avere logicamente insieme le scansioni di un libro e il suo testo, che potrebbe essere letto da un software apposito.
Purtroppo i file djvu non sono letti da molti dispositivi, anche se per i terminali Android c’è un software apposito: inoltre, come per il pdf, il formato non è liquido ma legato alla pagina, e quindi leggerli risulta scomodo per un terminale piccolo. A mio parere vale però la pena di tenerlo presente, nonostante tutto.
Oh, intendiamoci: di formati ce ne sono ancora tanti altri, come il lettore curioso può andare a verificare su Wikipedia in lingua inglese. Ma la vita è troppo breve, e che senso ha studiare ogni singola minuzia se tanto non la si troverà mai all’atto pratico?

Sul wikisciopero

Nelle quarantadue ore tra le 20 di martedì 4 ottobre e le 14 di giovedì 6 ottobre legioni di italiani, dagli studenti che dovevano fare una ricerca agli internauti che volevano semplicemente controllare un’informazione (ma chissà, forse anche parecchi giornalisti hanno fatto parte della categoria…) si sono improvvisamente trovati in brache di tela. Aprendo una qualsiasi pagina di Wikipedia in lingua italiana, infatti, campeggiava sempre lo stesso avviso: «Cara lettrice, caro lettore, in queste ore Wikipedia in lingua italiana rischia di non poter più continuare a fornire quel servizio che nel corso degli anni ti è stato utile e che adesso, come al solito, stavi cercando. La pagina che volevi leggere esiste ed è solo nascosta, ma c’è il rischio che fra poco si sia costretti a cancellarla davvero» seguito da una lenzuolata di spiegazioni più dettagliate. Credo che quella settimana il comma 29 dell’articolo 1 del disegno di legge sulle intercettazioni (DDL al momento tornato in naftalina…) sia diventato uno dei testi più noti agli italiani: risultato indubbiamente incredibile, a pensarci su.
Io ho seguito la vicenda da un punto di vista assolutamente privilegiato: sono infatti il portavoce di Wikimedia Italia (portavoce ad interim, finché non verrà assunto qualcuno che sappia davvero fare quel lavoro… è vero che io lo sto facendo gratuitamente, ma non è esattamente il mio campo) e così ho passato quarantott’ore di fuoco con i telefoni che continuavano a squillare perché i giornalisti volevano sapere di tutto di più e gli utenti e amministratori di Wikipedia in italiano che avevano attuato il blocco avevano scelto di non apparire con il loro nome. Ora che del “Comma 29” non se ne parla più, può valere la pena spiegare un po’ meglio cosa è successo, e rispondere ad alcune delle obiezioni che mi sono sentito fare.
Continue reading Sul wikisciopero

Gestire gli ebook sul proprio PC

Ora che ne sapete abbastanza sui formati degli ebook, probabilmente avrete anche intuito che la loro gestione non è proprio banale: magari vi tocca convertire il formato perché il vostro lettore e-book non supporta quello che avete scaricato, o molto più banalmente non avete voglia di rischiare una connessione 3G per avere il bramato testo direttamente sul vostro dispositivo. Insomma, è sempre opportuno appaltare al vostro PC la gestione della vostra biblioteca elettronica. Se poi siete bravi, potete persino modificare i vostri libri, o magari prepararne uno da distribuire ai vostri amici e nemici… Ma andiamo con ordine. Questa volta vi presento tre software – tutti gratuiti – che non dovrebbero mancare nel vostro computer se volete essere dei seri lettori elettronici.

Continue reading Gestire gli ebook sul proprio PC

Wikipedia, il metodo scientifico e il metodo enciclopedico

Nelle scorse settimane in Rete c’è stato un “dibattito distribuito” sul ruolo possibilmente negativo di Wikipedia riguardo al metodo scientifico. Nel bene e nel male Wikipedia la usiamo tutti, magari subito dopo aver celiato sulla sua proverbiale capacità di contenere al suo interno i peggiori svarioni ed essere una fonte affidabile solo per le cose così oscure da non interessare a nessuno; ma un’affermazione del genere è piuttosto forte. Meglio però fare una rapida cronistoria.
Continue reading Wikipedia, il metodo scientifico e il metodo enciclopedico