Ho cominciato a leggere Anatomia del giudizio universale di Paolo Bottazzini. Nell’introduzione, citando Richard Dawkins (L’orologiaio cieco) e Stuart Kauffman (At Home in the Universe), Bottazzini rimarca come dai testi di quegli autori si nota come per loro non solo la storia può essere interpretata come un’evoluzione, ma che quello che è capitato è inevitabile: di storia ce ne può essere una sola, lo spazio di variazione è minimo o irrilevante. Se facessimo un reboot dell’universo, o nel caso che interessa a Bottazzini ritornassimo indietro ai primi anni ’60 e alla nascita di internet, non potremmo che arrivare al risultato attuale. Non avremmo magari le società Google e Facebook, ma avremmo comunque un motore di ricerca e un social network dominanti indistinguibili da essi.
Non so se Bottazzini sia o no d’accordo con questa tesi: come scrivevo, sono solo all’inizio della lettura del suo libro. Posso però assicurarvi scientificamente :-) che questo non è affatto vero. Mi spiego meglio. Non ho nulla contro l’affermazione che è possibile ottenere un’organizzazione molto complessa senza interventi esterni: la teoria dei sistemi emergenti è lì a dimostrarne la possibilità. (Per la cronaca: l’assenza di interventi esterni è un postulato metafisico, visto che non abbiamo modo di dimostrarlo. D’altra parte, se scegliessimo come postulato l’esistenza di interventi esterni – Dio o una razza aliena è irrilevante – non potremmo dimostrare alcunché: quindi non avrebbe nemmeno senso discutere). L’altro punto su cui sono d’accordo è che l’auto-organizzazione, soprattutto se unita a un ambiente dove i costi marginali sono nulli o quasi, porta necessariamente a una struttura simile a quella che per esempio vediamo su Internet: pochi attori sovravvivono e crescono sempre di più, assorbendo gli altri attori iniziali e rendendo difficile o quasi impossibile l’ingresso di altri attori. Questo dipende da vari fattori: ma fondamentalmente la natura della rete (la retiologia, come la chiama Bottazzini) prescrive che i collegamenti non si formino a caso, ma giungano prevalentemente dove ce ne sono già. I piccoli non avranno così nuova linfa e rischieranno di morire a scapito dei grandi, che invece continueranno a prosperare; il risultato finale sarà una legge di potenza.
Detto in altri termini, il risultato “storico” qualitativo è necessariamente quello di avere pochissimi attori. Quello che contesto è che a partire dalle stesse condizioni iniziali tali attori debbano avere la stessa struttura interna di quelli che abbiamo. I concetti generici di “motore di ricerca” e di “social network” presumibilmente resterebbero: il modo in cui sarebbero declinati potrebbe però cambiare e di molto. Perché? Perché il sistema è troppo complesso, e non c’è nessuna certezza di finire nella situazione migliore in assoluto. Matematicamente parlando possiamo definire, almeno in via teorica, una funzione f che a partire dalla struttura dei collegamenti di una situazione S calcola un valore di ottimalità. Come abbiamo visto, l’ottimalità in questo caso è tipicamente data da una concentrazione su pochissimi attori, se non addirittura uno solo. Quello che però dobbiamo tenere in conto è che f ha tanti parametri. Se disegnassimo un grafico n-dimensionale ci sarebbe un punto in cui f raggiunge il massimo assoluto, ma ci sono vari punti in cui si hanno dei massimi relativi, più o meno come nel disegno qui a fianco (preso da Wikipedia, https://it.wikipedia.org/wiki/File:Mappaecg1A.JPG). La fregatura dei massimi relativi è che se quando si capita vicino a uno di essi gli algoritmi standard tendono a prenderlo per buono, perché gli spostamenti casuali che si allontanano da esso diminuiscono il valore dell’ottimalità e quindi sono sconsigliati.
Chi fa modelli matematici discreti ha ben chiaro il problema, ed esistono tecniche che permettono di ovviare almeno in parte a questa situazione: quando ero giovane e per lavoro cercavo reti neurali per il riconoscimento del parlato – un altro caso in cui si hanno vari massimi relativi – si usava la tecnica del simulated annealing, “ricottura simulata” in italiano. In pratica si definiva un parametro, la “temperatura”, che era relativo alla probabilità di fare un salto enorme da una parte all’altra dello spazio delle possibilità, per vedere se si otteneva un miglioramento che poteva essere indice di essere capitati dalle parti di un massimo relativo maggiore di quello di partenza. La temperatura viene poi man mano ridotta per focalizzarsi su una specifica regione e trovare quel massimo. Bene: anche ammesso di immaginare che nel mondo reale ogni tanto capiti quello che Nassim Taleb chiama un cigno nero, cioè un evento così inaspettato che cambia le carte in tavola, quello che avremo in pratica è che ogni ipotetico reboot del nostro universo, tendendo in genere a muoversi per piccoli passi con mosse casuali, porterà a risultati diversi. Abbiamo anche avuto esempi pratici di questo comportamento: pensate al formato per le videocassette, dove Betamax aveva specifiche tecniche migliori ma è stato soppiantato da VHS, oppure alla guerra delle console, dove Microsoft per quanti soldi e caratteristiche tecniche abbia messo dentro Xbox continua ad arrancare. Nessuno ci può garantire in assoluto che l’algoritmo PageRank che è alla base dell’ordinamento di risultati delle ricerche di Google, oppure EdgeRank che decide quali degli aggiornamenti dei nostri amici Facebook vengono evidenziati, sia il migliore. Però hanno avuto un vantaggio iniziale e hanno capitalizzato così tanto su questo vantaggio che anche se nascesse un nuovo algoritmo equivalente se non leggermente migliore nessuno lo considererebbe. Ma in un universo parallelo magari il vantaggio iniziale è stato dell’algoritmo concorrente, e il loro motore di ricerca dominante darebbe risultati diversi a parità di siti esistenti, oppure le cerchie più o meno strette di amicizie nel social network dominante si formerebbero in un modo diverso.
In definitiva, anche senza chiamare in causa il libero arbitrio potete rimanere tranquilli: la storia non è zippabile facilmente con un breve algoritmo che la genera!
Ultimo aggiornamento: 2015-12-01 15:38