Ho cominciato a leggere Anatomia del giudizio universale di Paolo Bottazzini. Nell’introduzione, citando Richard Dawkins (L’orologiaio cieco) e Stuart Kauffman (At Home in the Universe), Bottazzini rimarca come dai testi di quegli autori si nota come per loro non solo la storia può essere interpretata come un’evoluzione, ma che quello che è capitato è inevitabile: di storia ce ne può essere una sola, lo spazio di variazione è minimo o irrilevante. Se facessimo un reboot dell’universo, o nel caso che interessa a Bottazzini ritornassimo indietro ai primi anni ’60 e alla nascita di internet, non potremmo che arrivare al risultato attuale. Non avremmo magari le società Google e Facebook, ma avremmo comunque un motore di ricerca e un social network dominanti indistinguibili da essi.
Non so se Bottazzini sia o no d’accordo con questa tesi: come scrivevo, sono solo all’inizio della lettura del suo libro. Posso però assicurarvi scientificamente :-) che questo non è affatto vero. Mi spiego meglio. Non ho nulla contro l’affermazione che è possibile ottenere un’organizzazione molto complessa senza interventi esterni: la teoria dei sistemi emergenti è lì a dimostrarne la possibilità. (Per la cronaca: l’assenza di interventi esterni è un postulato metafisico, visto che non abbiamo modo di dimostrarlo. D’altra parte, se scegliessimo come postulato l’esistenza di interventi esterni – Dio o una razza aliena è irrilevante – non potremmo dimostrare alcunché: quindi non avrebbe nemmeno senso discutere). L’altro punto su cui sono d’accordo è che l’auto-organizzazione, soprattutto se unita a un ambiente dove i costi marginali sono nulli o quasi, porta necessariamente a una struttura simile a quella che per esempio vediamo su Internet: pochi attori sovravvivono e crescono sempre di più, assorbendo gli altri attori iniziali e rendendo difficile o quasi impossibile l’ingresso di altri attori. Questo dipende da vari fattori: ma fondamentalmente la natura della rete (la retiologia, come la chiama Bottazzini) prescrive che i collegamenti non si formino a caso, ma giungano prevalentemente dove ce ne sono già. I piccoli non avranno così nuova linfa e rischieranno di morire a scapito dei grandi, che invece continueranno a prosperare; il risultato finale sarà una legge di potenza.
Detto in altri termini, il risultato “storico” qualitativo è necessariamente quello di avere pochissimi attori. Quello che contesto è che a partire dalle stesse condizioni iniziali tali attori debbano avere la stessa struttura interna di quelli che abbiamo. I concetti generici di “motore di ricerca” e di “social network” presumibilmente resterebbero: il modo in cui sarebbero declinati potrebbe però cambiare e di molto. Perché? Perché il sistema è troppo complesso, e non c’è nessuna certezza di finire nella situazione migliore in assoluto. Matematicamente parlando possiamo definire, almeno in via teorica, una funzione f che a partire dalla struttura dei collegamenti di una situazione S calcola un valore di ottimalità. Come abbiamo visto, l’ottimalità in questo caso è tipicamente data da una concentrazione su pochissimi attori, se non addirittura uno solo. Quello che però dobbiamo tenere in conto è che f ha tanti parametri. Se disegnassimo un grafico n-dimensionale ci sarebbe un punto in cui f raggiunge il massimo assoluto, ma ci sono vari punti in cui si hanno dei massimi relativi, più o meno come nel disegno qui a fianco (preso da Wikipedia, https://it.wikipedia.org/wiki/File:Mappaecg1A.JPG). La fregatura dei massimi relativi è che se quando si capita vicino a uno di essi gli algoritmi standard tendono a prenderlo per buono, perché gli spostamenti casuali che si allontanano da esso diminuiscono il valore dell’ottimalità e quindi sono sconsigliati.
Chi fa modelli matematici discreti ha ben chiaro il problema, ed esistono tecniche che permettono di ovviare almeno in parte a questa situazione: quando ero giovane e per lavoro cercavo reti neurali per il riconoscimento del parlato – un altro caso in cui si hanno vari massimi relativi – si usava la tecnica del simulated annealing, “ricottura simulata” in italiano. In pratica si definiva un parametro, la “temperatura”, che era relativo alla probabilità di fare un salto enorme da una parte all’altra dello spazio delle possibilità, per vedere se si otteneva un miglioramento che poteva essere indice di essere capitati dalle parti di un massimo relativo maggiore di quello di partenza. La temperatura viene poi man mano ridotta per focalizzarsi su una specifica regione e trovare quel massimo. Bene: anche ammesso di immaginare che nel mondo reale ogni tanto capiti quello che Nassim Taleb chiama un cigno nero, cioè un evento così inaspettato che cambia le carte in tavola, quello che avremo in pratica è che ogni ipotetico reboot del nostro universo, tendendo in genere a muoversi per piccoli passi con mosse casuali, porterà a risultati diversi. Abbiamo anche avuto esempi pratici di questo comportamento: pensate al formato per le videocassette, dove Betamax aveva specifiche tecniche migliori ma è stato soppiantato da VHS, oppure alla guerra delle console, dove Microsoft per quanti soldi e caratteristiche tecniche abbia messo dentro Xbox continua ad arrancare. Nessuno ci può garantire in assoluto che l’algoritmo PageRank che è alla base dell’ordinamento di risultati delle ricerche di Google, oppure EdgeRank che decide quali degli aggiornamenti dei nostri amici Facebook vengono evidenziati, sia il migliore. Però hanno avuto un vantaggio iniziale e hanno capitalizzato così tanto su questo vantaggio che anche se nascesse un nuovo algoritmo equivalente se non leggermente migliore nessuno lo considererebbe. Ma in un universo parallelo magari il vantaggio iniziale è stato dell’algoritmo concorrente, e il loro motore di ricerca dominante darebbe risultati diversi a parità di siti esistenti, oppure le cerchie più o meno strette di amicizie nel social network dominante si formerebbero in un modo diverso.
In definitiva, anche senza chiamare in causa il libero arbitrio potete rimanere tranquilli: la storia non è zippabile facilmente con un breve algoritmo che la genera!
Ultimo aggiornamento: 2015-12-01 15:38
io credo che l’evidenza di quello che dici sia dimostrata chiaramente dalla genetica di popolazione. La genetica di popolazione si potrebbe considerare come la modellizzazione (su basi matematiche) dell’evoluzione biologica, prendendo in considerazione nel modo più realistico possibile i vari fattori che possono influenzarla. Gia’ prendendo in considerazione una parte dei fattori i modelli non danno tutti lo stesso risultato, il fattore casuale e’ sempre molto importante e va considerato. Non sono un’esperta di sociologia ma credo che la società’ abbia regole ancora più complesse di quelle del mondo biologico, e una “psicostoria” sia lontana da essere realizzabile :)
Mah, quello dei pochi attori grossi su Internet non mi convince per nulla. Un po’ perché non sono pochi, un po’ perché non tutti sono così grossi, un po’ perché ne arrivano sempre di nuovi.
Semmai il punto è che c’è una valutazione di contenuto che agli analisti piace pochissimo fare. Es. se domani uno furbo fa un motore di ricerca molto migliore quanto durerebbe la fedeltà alla marca attuale? Quando è nato quello attuale gli altri erano fortissimi, uno aveva anche la parte HW in casa e, secondo gli acuti analisti dell’epoca, avrebbe presto venduto a caro prezzo l’accesso al motore di ricerca a masse di esperti a cui gli utenti finali avrebbero commissionato le ricerche in rete. Beh, non è andata così…
Per non parlare dei lock. Ho comprato un gancio a ventosa su un noto sito e ora sono bombardato da pubblicità di asciugamani in microfibra leggerissimi? Di colla invisibile? No, di ganci a ventosa! Ma come “ragionano”?
Sullo stesso sito è mesi che cerco di acquistare delle scarpe di una certa marca e modello. Mi loggo, sanno tutto di me, sono famosi per il loro enorme database clienti, ebbene credo che siano convinti che il numero 45 1/2 che cerco in realtà non mi serve e non c’è mai. Però ogni tanto hanno a stock il 48, casomai tanto che cerco, voglio stravincere i tornei di schiacciapiede.
Insomma anche qui appena arriva uno furbo se li pappa in dieci minuti perché l’infedeltà alla marca è tipica di questo mercato, come lo è l’incapacità dei grandi di lavorare sui lock senza far saltare i nervi dell’utenza.
E se guardo Kickstarter dove sono questi grossi che sanno prevedere le necessità più palesi degli utenti? Il grosso dei prodotti dovrebbero essere fatti dai grossi che neanche capiscono che c’è una massa che non vede l’ora di acquistarli!
A me questa idea che, in questo specifico mercato, i grossi sono sempre più grossi ricorda tanto quando un costruttore di valvole termoioniche era tutto contento perché la sua quota di mercato era esplosa… senza capire che gli altri erano passati a fare transistor.
Viceversa ci sono altri mercati dove la dimensione è davvero essenziale per cui i piccoli non possono mai entrare, ma la rete non è proprio tra questi.
@Bubboni: innanzitutto la legge di potenza non vieta l’esistenza di piccoli attori – in effetti l’ho scritto male – ma non permette l’esistenza di un certo numero di attori principali tutti più o meno della stessa forza. Poi è vero che un nuovo attore può entrare nel mercato e sovvertirlo (vedi Google contro Altavista), ma deve appunto capitare un cigno nero, che per definizione è impredicibile. Altrimenti la mia tesi è che la gente si abitua a quello che c’è, anche se subottimale, ed è ben difficile spostarla. “Hic manebimus optime”, insomma.
Kickstarter funziona (e bene, statisticamente), ma per prodotti di nicchia.
Ecco è la generalizzazione che non mi convince. Ci sono mercati / fasi del ciclo di vita del prodotto / epoche dove è tutto vero e le dinamiche sono quelle che citi e altri, e per ragioni ben precise, dove questi principi non hanno riscontro con la realtà.
Non è vero che la gente si abitua a quello che c’è sempre e comuque esattamente come non tutti i mercati hanno le stesse barriere di ingresso o la fedeltà alla marca ha un peso molto variabile. Allo stesso modo non è vero che ha succe$$o solo chi dà un buon servizio, es. nota compagnia aerea low cost che i suoi utenti odiano ed è prima per i profitti da decenni mentre i competitor non capiscono neppure da dove iniziare, ma ci sono situazioni opposte, dove gli utenti vogliono essere riconosciuti come fedeli al marchio.
Credo che, a seconda di precise caratteristiche del prodotto e del momento storico, si sviluppino determinate dinamiche e solo quelle. Ma a nessun analista piace dover capire se un prodotto è maturo, se funziona ed è essenziale che funzioni, se per i consumatori è indistinto o se ha un valore di status, ecc. ecc.
Io generalizzo solo che gli analisti sbagliano sempre allo stesso modo e sempre per le stesse ragioni.
resta il punto di base: la storia non si ripete.
Diciamo che cambia sempre allo stesso modo :-)
Pingback: la categoria “socialcosi” | Notiziole di .mau.
Il mondo è un vetro di spin ;-)
non so, io mi sono fermato al modello di Ising unidimensionale…
Meglio: il mondo è molto più complesso di ogni astrusa singolarità: il Primum movens ne ha di fantasia! Però è pure buono e ce ne ha instillata un gran bel po’ :D
sono d’accordo con la tesi della irriproducibilità della storia, comunque non credo che il problema sia l’elevata multimodalità della funzione “realtà umana”. Fosse solo questo, la macchina “Terra” saprebbe come affrontare l’ottimizzazione per trovare la configurazione di minimo/massimo globale. Un caso analogo, anche se a dimensionalità più ridotta, è quello del protein folding, un problema di ottimizzazione con una funzione molto multimodale, difficile da trattare per i nostri algoritmi di ottimizzazione, ma non per la macchina Terra, che lo risolve nel giro di frazioni di secondo (e lo fa in parallelo in un numero di cellule che sarebbe interessante contare per avere una stima della potenza di calcolo equivalente impiegata in questo processo). A compromettere la riproducibilità della storia mi sembra che sia invece il caos, a cui in effetti mi pare tu ti riferisca senza citarlo esplicitamente.
P.S. l’annealing simulato è probabilmente il primo algoritmo metaeuristico di ottimizzazione. Negli ultimi 30 anni il numero degli algoritmi di questo tipo è esploso e in particolare sono proliferati quelli che si ispirano al comportamento degli animali. Forse il primo di questi (ant colony optimization) è stato sviluppato da un milanese, Marco Dorigo, che ora lavora in Belgio (credo abbia anche una pagina dedicata su en.wiki). Da allora sono apparsi algoritmi ispirati al comportamento di api, uccelli, lucciole, pipistrelli, cuculi, lupi. Esistono anche algoritmi di ottimizzazione ispirati al comportamento delle piante (impollinazione) e del resto bastava guardare la serie della BBC The Private Life of Plants di David Attenborough per intuire che potevano tornare utili. Anche il sistema immunitario è stato di ispirazione per lo sviluppo di algoritmi di ottimizzazione. Tutto questo a conferma che in quanto a ottimizzazione abbiamo parecchio da imparare dalla macchina Terra, come già Douglas Adams aveva suggerito.
Bibliografia: http://www.amazon.com/Nature-Inspired-Metaheuristic-Algorithms-Second-Edition/dp/1905986289
Inoltre, è possibile che nel sistema nervoso degli animali, uomini compresi, sia presente un generatore di casualità, che avrebbe lo stesso scopo dei generatori di casualità che ci sono negli algoritmi metaeuristici di ottimizzazione e cioè non rimanere intrappolati in un minimo locale. Se questa ipotesi è corretta, il comportamento degli animali sarebbe prevedibile sono in termini statistici.
quella del generatore casuale interno mi sembra tanto la soluzione di Roger Penrose per affermare che noi umani siamo migliori delle macchine perché possiamo superare l’indecidibilità del teorema di Gödel…
Non conosco l’opera di Penrose, ricordo di aver letto recensioni poco incoraggianti di “La mente nuova dell’imperatore”. Amesso di conoscere nei dettagli il funzionamento di un corpo umano, con un grado di tecnologia sufficiente non dovrebbe essere impossibile riprodurne perfettamente il comportamento in una macchina, quindi non vedo come possiamo essere superiori a una macchina. In effetti noi potremmo già essere considerati macchine. Qual’è la tua definizione di macchina?
per me macchina è qualunque cosa emulabile con una macchina di Turing.
Mi piace.