Maurizio Codogno, Wikimedia Italia
Abstract: L'Encyclopédie di Denis Diderot e Wikipedia, pur diversissime tra loro, hanno vari punti in comune, anche se non immediatamente visibili. I 250 anni che sono passati tra la nascita dei due progetti hanno però portato a modelli distinti, a partire dalla definizione stessa di enciclopedia. Vengono presentate in breve alcune peculiarità di Wikipedia, e si dà una possibile chiave della riuscita in termini matematici, considerandola a posteriori come un sistema emergente la cui affidabilità e completezza sono ottenute statisticamente. L'approccio di Wikipedia viene poi mostrato nel campo della matematica, indicando come l'enciclopedia cerchi di ovviare alle diverse conoscenze e necessità dei suoi fruitori.
Una doverosa premessa: questo testo rappresenta solamente le idee dell'autore e non deve essere considerato il punto di vista di Wikimedia Italia. A dirla tutta, non potrebbe nemmeno essere inserito in Wikipedia, in quanto sarebbe subito bollato come “ricerca originale” e quindi immediatamente eliminato come da linee guida dell'enciclopedia!
L'Encyclopédie di Denis Diderot e Wikipedia sono due opere diversissime tra loro; a prima vista si direbbe che l'unica cosa che abbiano in comune sia il loro definirsi “enciclopedia”. Se però si fa un confronto più attento le due opere – permettemi di usare il termine “opera” anche per Wikipedia, che pure non viene probabilmente mai stampata – hanno molte somiglianze: non tanto nella realizzazione pratica quanto nei principi alla loro base. Altri principi, però, risentono dei 250 anni trascorsi tra i due progetti: in fondo il mondo è un po' cambiato!
Facendo un paragone probabilmente sbagliato ma con una punta di verità, gli enciclopedisti del 1750 volevano creare un'alternativa alla cultura cattolica, mentre i wikipediani del 2000 vogliono creare un'alternativa alla “cultura delle enciclopedie”. In effetti l'Encyclopédie fu un cambiamento di paradigma esattamente come lo è stata Wikipedia; Diderot e D'Alembert volevano fare un'enciclopedia diversa da quanto si era visto fino ad allora, e il loro modello illuminista è stato inizialmente osteggiato, fino a che fu assorbito dalla cultura e diventato talmente abituale che nessuno pensava di poter avere un modello differente... fino a che Wikipedia non è entrata in gioco. Il bello è che Wikipedia è paradossalmente nata per caso: ma a volte il caso può essere un fattore davvero scatenante!
Gli uomini – beh, diciamo molti uomini... c'è anche chi non ha affatto velleità in tal senso – vogliono conoscere. Cos'è il mito di Ulisse se non questo? Fin dall'antichità ci sono scosì tate persone che hanno raccolto informazioni e le hanno organizzate in maniera organica. Anche solo limitandoci a greci e latini, basti pensare a Erodoto con le sue Storie, Plinio il vecchio con la Naturalis Historia e Tacito e i suoi Annales; al De rerum natura di Lucrezio e alla Summa Theologica di Tommaso d'Aquino, arrivando all'Ars Combinatoria di Raimondo Lullo che è quasi un tentativo di “enciclopedia preventiva”, come diremmo oggi: esprimere tutta la conoscenza possibile in maniera automatica. Ma anche gli Elementi di Euclide sono un'enciclopedia della matematica greca, e alcuni critici sostengono che la Divina Commedia è una raccolta enciclopedica scritta in versi. Insomma, il desiderio di fare un'enciclopedia si direbbe una costante dell'umanità; non c'è nulla di strano che Diderot da un lato e i wikipediani dall'altro vi ci siano dedicati. Anzi si può vedere2 come proprio all'inizio del diciottesimo secolo fossero nati alcuni progetti di enciclopedia: la Biblioteca universale sacro-profana di Vincenzo Maria Coronelli presto abortita e la Cyclopaedia di Ephraim Chambers... della quale l'Encyclopédie doveva essere inizialmente la semplice traduzione!
L'opera di Diderot e D'Alembert aveva però una peculiarità che manca a tutti questi altri lavori: la precisa scelta editoriale di essere “globale”, trattare insomma tutti gli argomenti. Il titolo originale completo dell'opera è infatti Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. La scelta di parlare di tutto in una singola opera, come del resto fa anche Wikipedia, è assai forte, e presenta vantaggi e svantaggi. Da un lato permette di far meglio risaltare le relazioni tra i vari testi contenuti in essa: la Legge di Metcalfe3 afferma infatti che il valore di una rete cresce come il quadrato del numero dei suoi nodi, che nel caso di un'enciclopedia sono i collegamenti interni. Anche se molti ritengono tale stima esagerata, è comunque indubbio che il valore di un'opera organica cresce più velocemente del crescere delle dimensioni delle singole voci. D'altro canto tale scelta comporta la difficoltà di dovere uniformare qualità e quantità delle voci, cosa che non è affatto banale, visto che richiede conoscenze non banali. D'Alembert venne arruolato sul campo, mentre all'inizio doveva solo verificare le voci matematiche e scientifiche: già nel '700 insomma il ruolo dell'uniformazione era improbo; non per nulla questa è un'area in cui Wikipedia è davvero debole, nonostante gli ipertesti rendano molto più semplice la navigazione all'interno delle voci e implicitamente aiutino a confrontarle tra loro.
Dopo aver visto le somiglianze tra i due modelli, bisogna però rilevare come ci siano notevoli differenze negli approcci scelti; alcune di esse sono presumibilmente figlie del tempo, nel senso che la mentalità del ventunesimo secolo non è quella del diciottesimo, mentre altre sono probabilmente casuali. Iniziamo dai Pokémon4, un argomento che i detrattori di Wikipedia ritengono indegno di un'enciclopedia e che sicuramente Diderot non si sarebbe mai sognato di trattare, ammesso che i mostriciattoli esistessero ai suoi tempi. Se però ci fermiamo un attimo a pensare alle mille “enciclopedie” che possiamo trovare in libreria o anche in edicola, ci accorgiamo subito che nel ventunesimo secolo un'enciclopedia tratta molti più temi di un tempo. Forse si segue la traccia del pensiero debole del ventesimo secolo, forse la nostra è ormai una civiltà alla frutta che non è più capace di scegliere cosa è davvero importante e cosa no: il risultato è in ogni caso che è difficile stabilire quali temi siano degni di un'enciclopedia, soprattutto nel caso in cui non c'è una singola persona, o comunque un comitato ristretto, a capo del progetto. Diderot e D'Alembert fecero le sue scelte pensando a quello che loro ritenevano importante; l'approccio scelto da Wikipedia è invece puramente numerico, nel senso che se molti suoi contributori ritengono che un argomento è enciclopedico allora quell'argomento viene trattato. Io personalmente trovo esagerato che ciascuno dei Pokémon abbia una singola voce dedicata a esso, così come trovo esagerato che tutti i calciatori che abbiano giocato almeno una partita in serie A ce l'abbiano; ma la scelta della comunità è stata questa, e posso immaginare che se molte persone hanno pensato così è anche probabile che molte persone siano interessate a sapere dei Pokémon o degli ignoti calciatori che ebbero giusto un effimero momento di gloria sul campo di pallone. Detto in altro modo, il significato della parola “enciclopedico” è cambiato nei secoli, almeno dal punto di vista dei fruitori delle enciclopedie; Wikipedia si limita a prendere atto della cosa.
Ma la differenza di approccio tra un comitato di redazione ristretto e la sua assenza ad ogni fini pratici porta ad altre differenze sostanziali nel risultato finale. L'affidabilità dell'Encyclopédie, come del resto quella delle opere enciclopediche che la precedettero, era fondamentalmente basata sull'affidabilità che veniva data agli autori che avevano compilato le sue voci. Questo metodo è rimasto sostanzialmente stabile nel tempo, soprattutto quando nasceva una nuova enciclopedia. Per fare un esempio, la voce “fascismo” nella prima edizione della Treccani era stata scritta da Mussolini stesso! La cosa ha il suo bel senso, anche se una persona che lavora su Wikipedia e abituata al punto di vista neutrale potrebbe strabuzzare gli occhi. Quando poi l'enciclopedia si è ormai fatta un nome ed è famosa, la situazione in effetti cambia; gli utenti iniziano infatti a fidarsi del marchio, anche senza conoscere lo staff editoriale che ci ha lavorato su. La Britannica è la Britannica e non ci piove, e lo stesso vale per la Treccani o la Larousse o il Brockhaus. Come detto, Wikipedia non è nulla di tutto questo né vuole esserlo5; non solo le sue voci sono scritte da chiunque abbia voglia di cimentarcisi, ma non esiste nemmeno un “comitato di redazione” che verifichi la loro esattezza, checché certa stampa (e taluni avvocati...) pensi.
Ma può davvero funzionare qualcosa del genere? Vediamo qualche problema che sorge con questo approccio. Innanzitutto, è vero che in Wikipedia ci sono alcuni livelli predefiniti di utenti con privilegi diversi (gli anonimi, gli utenti registrati, i sysop); ma il 99,9% delle voci dell'enciclopedia – almeno nella versione italiana – non c'è alcuna differenza tra i diritti dei vari tipi di utenti. Chiunque può infatti creare nuove voci e aggiungere, modificare o eliminare contenuto in una voce esistente. Nel caso – sempre più frequente con l'aumentare dei contributori – in cui ci siano delle liti riguardanti il contenuto di una voce, la decisione avviene per quanto possibile cercando il consenso delle parti su un inevitabile compromesso; solo in caso di inconciliabilità delle proposte quelli che decidono sono gli utenti che hanno una certa anzianità e familiarità con l'enciclopedia, partendo dal presupposto che sappiano lavorare per il bene di Wikipedia. Notate come non venga chiesta una esperienza specifica e dimostrabile sul tema trattato; nascosto nel concetto “saper lavorare per il bene di Wikipedia” c'è l'altro concetto “un utente serio evita di impelagarsi in un campo che conosce poco o nulla, e se proprio lo vuol fare allora si fa un'idea leggendo le discussioni portate avanti dagli altri utenti”.
Wishful thinking? Lo vedremo in seguito. Indubbiamente però questo è il punto che lascia più perplesso chi si avvicina all'enciclopedia e scopre il suo modus operandi. In fin dei conti, forse per una voce matematica si può anche pensare di poter verificare oggettivamente la correttezza o meno di una proposizione, ma quando si va verso campi più controversi – per esempio le biografie dei politici contemporanei oppure storia e geografia delle nuove nazioni europee, ma anche l'universo di Star Trek che notoriamente è presidiato da fan nel senso di fanatici, che non ammettono una virgola fuori posto – chi ci dice che l'enciclopedia non soffra di uno strisciante revisionismo di un gruppo di persone che fa communella? Per fare un esempio banale, il dalmata Niccolò Tommaseo, quello del Vocabolario, pur essendo vissuto sempre tra l'Italia e la Francia venne arruolato a forza tra i croati nell'edizione croata di Wikipedia. Insomma, come fa tutta la baracca a restare in piedi? La risposta non è affatto scontata, ed è qua che entra in gioco la matematica!
Normalmente diciamo che qualcuno o qualcosa è emergente (in senso traslato, non come il sub che rientra da un'immersione!) quando inizia ad acquistare notorietà, oppure cresce di importanza e rilievo; una moda emergente è ad esempio quella di cui a un certo punto ci si inizia ad accorgere. Forse Wikipedia può essere definita “emergente” anche in questo senso; ma c'è anche un'altra accezione del termine, quella usata dai matematici, che ha a che fare con la teoria della complessità.
Più precisamente, un sistema si dice emergente quando è definito a partire da un insieme relativamente ristretto e locale di regole, ma il suo risultato è impredicibile a priori, pur essendo deterministico e pertanto calcolabile; l'unico modo per sapere cosa succede è seguire passo passo il sistema. Un esempio di sistema non emergente è quello che inizia prendendo un oggetto al primo passo e aggiungendone man mano 3, 5, 7, 9... Non è infatti difficile scoprire che al passo n il numero totale di oggetti sarà dato da n2, senza doversi mettere a fare tutte le somme. Un semplice esempio di un sistema emergente è invece Life6 di J.H. Conway. In Life l'“universo” è un foglio a quadretti infinito; ciascun quadretto può essere nero (occupato) oppure bianco (vuoto). Il tempo scatta a istanti discreti, che possiamo definire generazioni; a ogni generazione ciascun quadretto verifica qual è lo stato degli otto quadretti intorno a lui. Se i quadretti occupati sono uno o nessuno, un quadretto “muore” per solitudine, mentre se ne ha quattro o più muore per sovraffollamento; se i quadretti occupati sono due o tre infine il quadretto sopravvive. Se poi c'è un quadretto vuoto con esattamente tre vicini occupati, alla generazione successiva c'è una “nascita”, e il quadretto diventa occupato. Tutto qua.
Figura 2: la regola 30 di Wolfram e le prime generazioni
È facile vedere che ci sono configurazioni iniziali che si estinguono – una lunga linea di quadretti in diagonale; altre che si stabilizzano – quattro quadretti in quadrato; altre ancora che oscillano su due stati distinti – una riga di tre quadretti. Però esistono configurazioni, come l'aliante (glider) mostrato in figura 1, con un comportamento peculiare. Dopo quattro generazioni il glider ritorna infatti nella configurazione iniziale, ma si è spostato nell'universo di Life. Continuando a studiare altre configurazioni, si è poi scoperto che esistono “cannoni” che sparano glider; posizionando opportunamente tali cannoni si possono costruire delle porte logiche, e quindi simulare (molto lentamente!) un computer. In pratica, quelle semplici regole hanno prodotto una macchina di Turing; qualunque problema che può essere definito per mezzo di un algoritmo potrebbe essere risolto da Life!
Life è un automa cellulare bidimensionale; automi cellulari ancora più semplici sono stati studiati da Stephen Wolfram, quello di Mathematica. Anche in questo caso l'universo è formato da quadretti neri o bianchi, ma ci si limita a una striscia unidimensionale; il colore di una cella alla generazione n+1 è dato da quello suo e dei suoi vicini alla generazione n. Ci sono 256 regole possibili per questi automi: molte di esse sono banali, ma la “regola 30”7 (dal valore ottenuto leggendo le regole di configurazione come un numero binario) porta a un comportamento caotico, come si può vedere dalla figura 2 dove si parte con una singola cella nera e si ottiene una figura contenente una serie di triangoli bianchi in posizioni non immediatamente intuibili. Proseguendo nelle generazioni, si ottiene il risultato della figura 3. Mentre il lato sinistro mostra un certo quale ordine, quello destro contiene dei triangoli bianchi in posizione più o meno casuale all'interno della figura. “Casuale” non è solo un modo di dire: Wolfram ha addirittura usato questa regola come parte del generatore di numeri pseudocasuali in Mathematica. Niente male, per una regoletta così semplice!
Figura 3: 250 iterazioni della regola 30 di Wolfram
Wikipedia è sicuramente un sistema emergente anche in questo senso matematico: nessuno avrebbe infatti potuto prevedere a priori nel 2001 che l'idea di usare un sistema ancillario per la “vera” enciclopedia che Larry Sanger e Jimbo Wales volevano fare (Nupedia, per la cronaca) si sarebbe sviluppata a tal punto.
Ma la matematica può venire applicata a Wikipedia anche in un altro modo, che permette di intuire almeno da un punto di vista statistico il motivo per cui nonostante il processo di creazione “a bazar”8 il risultato finale sia buono se non ottimo. Nel 1949 il linguista George Kingsley Zipf si accorse che se si prende un testo abbastanza corposo (per esempio la Bibbia9 o il corpus manzoniano10) e si mettono le varie parole in esso contenute in ordine decrescente di frequenza si otteneva una curva che ricordava la funzione 1/x; in pratica, la seconda parola più frequente occorreva la metà delle volte di quella più frequente, e il rapporto tra la parola numero 10 e quella numero 30 era di circa 3 a 1. L'osservazione prese il nome di Legge di Zipf11, anche se come nel caso della legge di Metcalfe il termine può essere fuorviante, visto che è solo un'osservazione empirica e non ha validità assoluta12. Nella forma più generale, la legge di Zipf dice che il rapporto tra le frequenze della voce di ordine k e di quella di ordine 2k è grosso modo indipendente da k.
Un matematico sa che l'area sotto la funzione y=1/x è infinita, e la cosa è ancora più vera nel caso di y=1/xα, con 0<α<1; è il fenomeno che Chris Anderson definisce della “coda lunga”13 e che è strettamente correlato alla legge di Zipf. Fenomeni di questo tipo possono accadere quando non ci sono limiti artificiali troppo ristretti, come un testo troppo breve per essere statisticamente significativo oppure un sito che taglia gli estremi; ma ormai il corpus delle voci di Wikipedia, come del resto anche la base utenti, è sufficientemente ampio, per non essere costretto da tali limiti.
Quali sono i corollari pratici della legge di Zipf? Innanzitutto, se una voce è ritenuta molto importante dalla comunità, saranno in molti a lavorarci su. Questo significa che avrà molte revisioni, e diventerà rapidamente più completa e corretta. Certo, è anche più facile che qualcuno, per dispetto o per malizia, inserisca apposta un errore al suo interno; ma per le stesse ragioni di cui sopra l'errore verrà notato e corretto in fretta. Tutto questo presuppone di definire “importante” una voce secondo la nozione di processo emergente trattata più sopra; e visto che non è possibile definire a priori quali sono le voci ritenute più importanti è necessario aspettare e vedere quali in effetti esse sono. Succede così che non è affatto difficile, anche nel caso della Wikipedia in lingua inglese che è più matura di quella italiana, trovare specifiche voci peggiori di quelle di un'enciclopedia tradizionale; ma dal punto di vista di Wikipedia (più precisamente, degli utenti che lavorano su Wikipedia; ma è in pratica la stessa cosa) quelle sono voci secondarie, e ci si potrà applicare ad esse solo in un secondo tempo. Scoperto insomma a posteriori che i Pokémon sono ritenuti importanti, è immediato capire come mai quelle voci siano così ben trattate. Ecco un altro modo ancora per far risaltare la differenza tra il modello diderottiano e quello wikipediano: nessuno afferma che quest'ultimo sia il migliore; semplicemente, è un modello diverso e deve essere valutato diversamente, ad esempio verificando la qualità delle voci più consultate dagli utenti.
Può anche essere utile una rapida carrellata su un punto che nelle enciclopedie tradizionali non viene generalmente considerato importante ma nel caso di un'opera onnicomprensiva è fondamentale: il livello delle spiegazioni nelle singole voci. Non appena Wikipedia vuole proporsi come Enciclopedia Onnicomprensiva, si imbatte in un problema che l'Encyclopédie certo non aveva. Per Diderot e D'Alembert, infatti, l'opera che stavano costruendo doveva semplicemente raccogliere il meglio della conoscenza, quindi essere il testo base di riferimento. Per noi uomini del ventunesimo secolo la cosa non è così semplice: lo stesso proliferare di enciclopedie diverse sugli stessi temi ma per un target diverso ci fa capire – oltre che financo la conoscenza è ormai diventata appannaggio dei pubblicitari e dei loro termini in inglese – che lo stesso tema può venire trattato in maniera completamente diversa a seconda di chi è a cui ci si vuole rivolgere. Anche senza pensare a chissà cosa, lo studente liceale che vuole sapere “tutto su Ungaretti” non intende certo il “tutto” di uno studioso di letteratura italiana contemporanea!
Un esempio pratico di questa diversità nella definizione contemporanea di “enciclopedicità” è quello delle voci matematiche. Si può ingenuamente immaginare che la matematica, comprendendo solo verità tautologiche, sia una e una sola; ma questo è falso. Certo, 2+2=4 (e anche lì dovremmo iniziare a dire “a meno che non lavoriamo in base 3 o nel campo Z3 ... e già il fatto di aver scritto la stessa cosa con due terminologie differenti ci dovrebbe far capire che c'è qualcosa che non va); ma il concetto di addizione si tratta in maniera molto differente quando lo si studia alle elementari o quando all'università ci si imbatte in una sua versione di una generalità assolutamente rarefatta. Wikipedia in lingua italiana è addirittura rimasta per un paio d'anni senza nemmeno abbozzi di queste voci fondamentali, alcune delle quali le ho dovute iniziare io dopo avere iniziato ad operare in it.wiki nel 2004; ma che oggi esista una (bruttina) voce Addizione è solo il primo passo. È vero che un matematico di professione non usa Wikipedia per cercare voci matematiche; non perché l'approccio wiki sia inerentemente inutile – tanto che a quanto ne so è sorto un progetto collaborativo di tipo wiki al riguardo – ma perché la comunità matematica è così autoreferenziale che preferisce operare altrove, in luoghi dove nessuno che non sia matematico capirebbe qualcosa di certi testi.
Restano però lo stesso vari livelli possibili a cui trattare le informazioni matematiche. Il modo che Wikipedia avrebbe scelto per ovviare a questo problema è una specie di modello a cipolla, che non è applicato solo alla matematica ma a tutte le voci... almeno in teoria. Il primo paragrafo dovrebbe insomma dare tutte le informazioni minimali sufficienti per chi ha fretta e vuole solo avere un'idea generale del concetto. Proseguendo nella lettura della voce si entra in maggior dettaglio sui vari punti dell'argomento; se necessario, alcuni di questi sottotemi sono anch'essi condensato in un semplice riassunto, ma in questo caso la sezione inizia indicando un collegamento a una voce più specifica dove il tema è trattato più in profondità. Di nuovo, un approccio di questo tipo può essere seguito perché non c'è un limite apriopristico al numero di voci presenti nell'enciclopedia, e ci si limita a suggerire di non creare una pagina troppo lunga, dato che inevitabilmente non verrebbe letta. Questa soluzione non è ideale, ma è comunque sufficiente per gli usi normali e sicuramente è diversa – anche qua, non necessariamente migliore; un'enciclopedia per una fascia di pubblico ben precisa è sicuramente più compatta e meglio leggibile, ma Wikipedia non può permettersi questo lusso – di quello a cui siamo stati abituati.
Un esempio di voce di Wikipedia che segue questa trattazione a cipolla è quella sui numeri primi14. Nelle prime righe viene esposta la definizione imparata a scuola, e si spiega in poche parole l'importanza del concetto in matematica, la sua storia e le sue estensioni. Poi la voce continua con la storia del concetto di numeri primi, le loro proprietà di base, la loro infinità, la loro distribuzione, i rapporti con altre parti della matematica al di fuori dell'aritmetica, gli aspetti computazionali, le generalizzazioni e infine la presenza dei numeri primi in natura e in letteratura. Molte di queste sezioni rimandano inoltre a voci apposite, per chi in vero trip da sfoglio di enciclopedia voglia leggere qualcosa che non sapeva gli sarebbe interessato in anticipo.
Come detto in precedenza, non c'era nessuna ragione a priori per cui il modello di Wikipedia dovesse necessariamente funzionare; né è detto che il suo sia l'unico modello possibile, e tanto meno il migliore, per organizzare la conoscenza. Tutto quello che si può dire è che a posteriori il modello sembra funzionare, anche se nessuno (eccetto i tuttologi...) onestamente può dire con cognizione di causa perché funzioni. Una volta assodato ciò, possiamo scegliere se cercare di studiare le ragioni del successo – in fin dei conti ci sono fior di ricercatori nel campo della complessità – oppure essere pragmatici e limitarci a usare l'enciclopedia libera. Per la cronaca, “Wikipedia funziona” è spesso detta essere la zeresima legge di Wikipedia :-)
Dopo avere glorificato i vantaggi di Wikipedia, devo però aggiungere un paio di considerazioni terra-terra per mettere le cose nella loro giusta prospettiva. La prima edizione dell'Encyclopédie fu tirata in 4775 copie, e anche contando le versioni non autorizzate il numero di copie stampate allo scoccare della Rivoluzione francese non arrivava a 20000. Wikipedia è invece nella Top Ten dei siti web più visitati al mondo15,16. E allora? Non credo affatto nell'equazione “popolarità = valore”. Però allo stesso tempo penso che Wikipedia sia una risorsa valida, e che possa confrontarsi alla pari con un'enciclopedia classica.
E soprattutto, se non esistessero le enciclopedie classiche, Wikipedia – che ricordo non è né vuole essere una fonte primaria17, cioè un posto dove si scrivono per la prima volta le informazioni – non potrebbe esistere a sua volta, o comunque la sua crescita sarebbe molto più lenta. Ci sarà insomma sempre la necessità di un approccio “classico” all'enciclopedicità; è però vero che il modello storico di vendita di un enciclopedia (molti la acquistavano perché “poteva servire ai figli”, e soprattutto arredava la libreria anche e soprattutto se non veniva consultata) non potrà più essere applicato. Questo potrebbe bloccare la raccolta standard, diderottiana, della conoscenza e di conseguenza anche la raccolta emergente, wikipediana. Sarà davvero così?
© Maurizio Codogno, rilasciato sotto la Creative Commons Attribution-Share Alike 2.5 Italy License.
1 Grazie a Federico Leva e Corrado Petrucco per i suggerimenti che mi hanno dato!
2 http://it.wikipedia.org/wiki/Encyclop%C3%A9die
3 http://en.wikipedia.org/wiki/Metcalfe%27s_law
4 http://it.wikipedia.org/wiki/Pok%C3%A9mon
5 http://it.wikipedia.org/wiki/Wikipedia:AT
6 http://it.wikipedia.org/wiki/Gioco_Life_di_Conway
7 http://mathworld.wolfram.com/Rule30.html
8 Dal saggio di Eric S. Raymond “La cattedrale e il bazar” (1996), http://www.apogeonline.com/openpress/cathedral
9 Dati tratti da http://www.intratext.com/IXT/ITA0001/_STAT.HTM
10 Dati tratti da http://www.intratext.com/IXT/ITA2859/_FF.HTM e rinormalizzati
11 http://it.wikipedia.org/wiki/Legge_di_Zipf
12 Si è poi notato che la funzione che approssima meglio la distribuzione delle parole è del tipo 1/xα, con α leggermente minore di 1; questo non inficia il ragionamento successivo, anzi lo rafforza.
13 http://it.wikipedia.org/wiki/Coda_lunga
14 http://it.wikipedia.org/wiki/Numero_primo
15 http://www.alexa.com/topsites
16 http://meta.wikimedia.org/wiki/User:Stu/comScore_data_on_Wikimedia
17 http://lists.wikimedia.org/pipermail/wikipedia-l/2009-August/031082.html