Uno dei maggiori successi che gli estimatori dell’utilità dei Big Data citano a ogni piè sospinto è il progetto Google Flu Trends: un insieme di stringhe di ricerca sul motore di ricerca che permette di stimare le epidemie di influenza negli Stati Uniti molto più velocemente di quanto riesca a fare il CDC (Centers for Disease Control and Prevention). Più precisamente, Google Flu Trends predice il numero di visite ai medici a causa di un’influenza, senza attendere i dati ottenuti direttamente dal CDC, che ovviamente deve aspettare che vengano raccolte ed elaborate le relazioni dei medici. Google invece vede in tempo reale le ricerche legate – o meglio, correlate – a un’epidemia di influenza e dà il suo responso: non solo per gli USA, ma anche per varie nazioni in tutto il mondo, dalla Francia che è stata la prima a dotarsi di un sistema di misurazione in formato elettronico alla Russia.
Tutto bene, insomma? Mica tanto. È notizia di questi giorni (qui il link di New Scientist, qui invece una segnalazione dallo Scientific American) che quest’anno le previsioni sono state sbagliate, come del resto l’anno scorso e due anni fa. Insomma sono tre anni di fila che Google Flu Trends sbaglia le previsioni: l’anno scorso, riportava Nature, ha sovrastimato i casi di influenza realmente capitati, prevedendone quasi il doppio. Se volessimo malignare, potremmo affermare che le previsioni sono state corrette solo per il tempo strettamente necessario a pubblicare i primi articoli e libri sul tema, e sfruttare poi l'”effetto copincolla” per farlo diventare un articolo di fede. “Ma certo che è vero! Guarda in quanti ne parlano, ed è persino citato l’articolo con i risultati originali!”
Questa debacle dimostra che i Big Data sono solo il prodotto di un hype, e non hanno alcuna rilevanza pratica? Beh, no. Guardando i risultati in altri campi, i programmi che giocano a scacchi sfruttano enormi basi dati, e sconfiggono anche i migliori grandi maestri. La traduzione automatica, come anche il riconoscimento del parlato, hanno fatto passi da gigante da quando l’approccio a regole è stato integrato da un “banale” motore di inferenza puramente statistica, senza alcuna conoscenza semantica. Qualcosa di buono, insomma, c’è: ma evidentemente non è ancora così buono. Cosa può essere andato male? Ecco qualche possibile ipotesi.
Innanzitutto, i risultati ottenuti potrebbero semplicemente essere stati frutti del caso. Le tecniche predittive di Google sono in fin dei conti puramente statistiche: può darsi che nei primi anni le cose siano andate bene, ma ora ci sia stata una striscia negativa. (Una doverosa parentesi: tutto questo non ha assolutamente nulla a che fare con la legge dei grandi numeri, o meglio con il modo in cui viene abitualmente presentata da sedicenti divulgatori che non sanno nulla di ciò che stanno spiegando. Non è che se i primi risultati erano positivi allora i seguenti devono per forza essere negativi: possono essere positivi o negativi con le stesse probabilità iniziali, solo che noi siamo implicitamente convinti che i primi risultati non fossero casuali e allora abbiamo un bias. Martin Gardner aveva spiegato molto bene la ragione per cui i sostenitori del paranormale affermavano che molti “sensitivi” perdevano dopo qualche tempo le loro doti: è un banale effetto della probabilità condizionata. Fine della parentesi). A me tale ipotesi pare però un po’ troppo semplicistica. È vero che alcune delle chiavi di ricerca usate da Google Flu Trends erano a prima vista improbabili, ed è vero che uno dei paradigmi dei Big Data è il mantra “correlazione, non causa-effetto; ma molte altre chiavi sono plausibili, e non si vede perché il caso dovrebbe giocare un ruolo così importante.
Il secondo motivo per questi errori, immagino il più amato dai fautori dei Big Data, è che i dati non erano sufficienti, o perlomeno sono da tarare. Un portavoce di Google, secondo l’articolo sullo Scientific American, ha dichiarato che «Noi riesaminiano il modello di Google Flu Trends ogni anno, per vedere come migliorarlo. L’ultimo aggiornamento è stato fatto nell’ottobre 2013 per la stagione 2013-14». È chiaro che per trovare le correlazioni iniziali tra ricerche su Google ed epidemie di influenza è stato necessario mappare le osservazioni – le ricerche, cioè – del passato con i dati ufficiali sui focolai di epidemia. Ma è da relativamente poco tempo che la massa di dati relativi alle ricerche è sufficiente per avvalorare l’ipotesi su cui i Big Data si basano, cioè che i dati a disposizione siano così tanti da poter trovare correlazioni senza dovere usare tecniche statistiche; quindi non si deve fare altro che tarare nuovamente gli algoritmi, tenendo conto dei nuovi dati ottenuti nel frattempo. Anche se questa ipotesi è a prima vista allettante, a uno sguardo più attento ci si accorge che è rovinosa. Se non abbiamo alcun modo per valutare a priori quanto grandi devono essere i Big Data per assicurarci di ottenere risultati validi, allora usarli non ha nessun senso: ci troveremmo nella situazione dell’allenatore di calcio che afferma “se la squadra vince è merito dei miei schemi, se perde la colpa è vostra che non li avete applicati”. Sono capace anch’io a fare previsioni così.
C’è poi una terza ipotesi, che in un certo senso è molto più preoccupante per il “modello Big Data”: l’ingresso del feedback. Il fatto che il grande pubblico sia venuto a conoscenza dell’algoritmo di Google Flu Trends – beh, non l’algoritmo vero e proprio ma la sua esistenza e la sua composizione almeno a grandi linee – fa sì che le ricerche siano influenzate 🙂 da questa conoscenza. In due parole: più se ne parla, peggio funziona, come suggerito da questo articolo. Un esempio banale può spiegare meglio la cosa: se sento tanta gente parlare dell’ultimo video virale mi viene voglia di andare a vederlo, e faccio così diventare il video ancora più virale. Calcolare l’effetto del feedback e tarare gli algoritmi per tenerne conto può rivelarsi impossibile: dopo che negli anni ’20 del secolo scorso Lotka e Volterra studiarono le equazioni che regolano il rapporto preda-predatore, si è scoperto che passando da due a cinque specie è possibile giungere rapidamente al caos in senso matematico, cioè all’impredicibilità dell’evoluzione delle popolazioni. Isaac Asimov, che nel suo Ciclo della Fondazione aveva previsto in maniera incredibilmente valida i Big Data con la sua psicostoria, lo spiegava bene: perché la Seconda Fondazione potesse assicurare con il suo operato che la Galassia seguisse il percorso tracciato da Hari Seldon, essa doveva rimanere sconosciuta a tutti “per non perturbare le equazioni”. Insomma, perché i modelli basati sui Big Data funzionino non basta che i dati siano disponibili a tutti; ma occorre anche che nessuno sappia come vengano usati. Non so voi, ma “i Poteri Che Nessuno Sa Essere Quelli Davvero Forti” mi preoccupano molto più dei comuni “poteri forti”.
Il mio punto di vista, infine, è molto più pragmatico e può venire riassunto dallo slogan good enough. I Big Data funzionano. Funzionano molto meglio di quanto potessimo ingenuamente immaginare prima di averli messi in pratica. Diciamo che funzionano sufficientemente bene. Ecco: la parola magica è il “abbastanza”. Io posso dare in pasto a Google Translate un testo di un quotidiano scritto in cinese e ottenere un risultato non completamente incomprensibile: ma ci devo mettere molto del mio per ricavarne un senso. Visto alla rovescia, anche se io non sono certo un madrelingua inglese le mie traduzioni dall’italiano sono migliori di quelle di Google Translate, e qualcosa questo lo vorrà ben dire. Spero che non sia wishful thinking, ma la mia sensazione è che finché ci troviamo in un dominio molto limitato le macchine ci supereranno senza problemi, e per esempio sto aspettando il momento in cui il migliore giocatore di Go sia un computer; ma nella maggior parte dei casi saremo noi umani a dover prendere i dati e usare la nostra intelligenza naturale in unione all’intelligenza artificiale dei computer per ottenere risultati davvero utili. L’approccio puramente statistico all’intelligenza artificale di questo inizio di ventunesimo secolo è stato un miglioramento enorme rispetto all’approccio “a regole” del secolo scorso, ma a mio parere è ormai arrivato al capolinea. Avremo ancora anni se non decenni di effetti anche globali legati ai Big Data, ma per avere una vera svolta dovremo aspettare un genio che si inventi una metodologia completamente diversa.
Un’ultima considerazione: tra le nazioni per cui Google Flu Trends dà previsioni non è presente l’Italia. Presumo che il motivo sia che da noi non ci sono enti che forniscono questi dati, o se ci sono non li danno automaticamente a disposizione a Google. Chissà se prima o poi i nostri governi riusciranno a capire non solo l’importanza dei Big Data ma anche quella degli Open Data, i dati liberamente utilizzabili!
Post Scriptum: già che stavo parlando di Isaac Asimov e del ciclo della Fondazione, avrei dovuto aggiungere che Google Flu Trends non prevedette l’epidemia “anomala” di influenza del 2009 legata al virus H1N1, quello dell’aviaria. Non mi pare però giusto dargli chissà quale colpa al riguardo: proprio perché le caratteristiche di quella epidemia non erano standard, un modello predittivo molto probabilmente è votato al fallimento. La situazione è la stessa che nel ciclo di romanzi del Buon Dottore si ebbe con l’arrivo del Mulo: un evento singolo impredicibile porta a risultati ancora più impredicibili. “Cigno nero”, nessuno? Chissà, forse noi umani saremo ancora per un po’ in grado di rispondere meglio a eventi di questo genere…