Walter Quattrociocchi è l’esperto di “post-verità” nei social network, avendo cominciato a usare analisi quantitative sulle dinamiche che avvengono su Facebook tra gruppi di persone che si fidano delle teorie scientifiche e gruppi che invece pensano che la verità ci sia nascosta. In questo libro (Walter Quattrociocchi e Antonella Vicini, Liberi di crederci : Informazione, Internet e post-verità, Codice 2018, pag. 142, € 15, ISBN 9788875787400, link Amazon) Quattrociocchi viene affiancato da Antonella Vicini, la cui collaborazione ha probabilmente migliorato la leggibilità del testo rispetto al suo libro precedente. Naturalmente c’è l’altra faccia della medaglia: almeno per i miei gusti il libro tende sin troppo al discorsivo, e le pagine contenenti dati veri e propri sono molto poche. Immagino che la scelta sia voluta: i duri-e-puri come me sono una sparuta minoranza, e per la maggior parte delle persone i crudi numeri non danno alcuna informazione, mentre un discorso a più ampio spettro può servire a dare finalmente un’idea di quali siano i temi in gioco.
Archivi categoria: rec-2019
_Che cosa vogliono gli algoritmi?_ (ebook)
Già il titolo originale del libro, che è poi stato tradotto letteralmente in italiano (Ed Finn, Che cosa vogliono gli algoritmi? : L’immaginazione nell’era dei computer [What algorithms want: imagination in the age of computing], Einaudi 2018 [2017], pag. 256, € 9.99 (cartaceo: €20), ISBN 9788858428610, trad. Daniele A. Gewurz, link Amazon), è in realtà fuorviante. Finn è in effetti interessato a quella che nell’Epilogo del libro chiama “Scienze umane sperimentali”: nelle parole dell’autore, «una ricerca umanistica pubblica che si impegna direttamente con la cultura algoritmica. Abbattendo il muro illusorio tra critica e creatività, tra osservazione e azione, tra lettura e scrittura». Ha ragione quando dice che il problema – se preferite, l’opportunità – non sono tanto gli algoritmi quanto tutto quello che ci sta attorno, e ha anche ragione nel dire che già da un pezzo ci stiamo adattando noi agli algoritmi e non viceversa, come ben dovrebbe sapere chi usa un assistente vocale e scopre che deve parlare in un modo ben specifico. Però il libro mi pare troppo intento a spiegare quanto gli algoritmi siano brutti e cattivi, anziché entrare nel merito non dico del “come” ma almeno del “perché”. Insomma, non è che mi abbia detto chissà cosa.
Una nota molto personale: nell’introduzione trovo una nota del traduttore che spiega perché ha scelto di tradurre “computation” con “elaborazione”. Che bravo traduttore, mi dico, è proprio la scelta che avrei fatto io. Vado a vedere chi è il traduttore, e scopro che è il mio amico Daniele Gewurz. Tutto torna :-)
_Prima lezione sul linguaggio_ (libro)
Che cos’è il linguaggio? Domanda intelligente: detto in altri termini, non si ha idea di quale sia la risposta. Tullio De Mauro ci tentò nel 2002 con questo libretto (Tullio De Mauro, Prima lezione sul linguaggio, Laterza 2002 , pag. 130, € 12, ISBN 9788842066712, link Amazon), che io ho letto nella versione edita dal Corriere della Sera. Inutile dire che nessuno può (poteva) tacciare De Mauro di scarsa conoscenza del tema: ho però trovato la prima parte troppo generalista e quindi poco interessante. Molto meglio la seconda parte, sempre di tipo generale ma con un maggiore uso di esempi pratici, e soprattutto con un utile confronto con quello che succede in altri sistemi informativi, come i versi degli animali, i linguaggi non verbali come la lingua (“le lingue”) dei segni e la matematica, dove tra l’altro si fa notare la differenza tra quest’ultima, che è un linguaggio non-creativo mentre il linguaggio è “non non-creativo”; uno scioglilingua che ha un suo bel senso. (ah: a pagina 90 c’è un esempio matematico con un errore…) In pratica, dunque, un testo per i curiosi.
_Superintelligenza_ (ebook)
Nick Bostrom è un filosofo. I filosofi contemporanei – o almeno quelli con cui ho indirettamente avuto a che fare – sono per l’appunto contemporanei, e quindi si occupano dei problemi classici in modo completamente diverso da quanto si facesse in passato. Il tema di questo libro (Nick Bostrom, Superintelligenza : Tendenze, pericoli, strategie [Superintelligence], Bollati Boringhieri 2018 [2014, 2015], pag. 522, € 9,99 (cartaceo: 28), ISBN 9788833930176, trad. Simonetta Frediani, link Amazon) è la superintelligenza, cioè la creazione di un sistema che sia molto più intelligente di noi esseri umani. Bostrom lavora in maniera sistematica: prima mostra tutti i modi in cui si potrebbe creare una superintelligenza (non solo con l’intelligenza artificiale, potrebbe anche essere un sistema integrato uomini-macchine) e descrive le varie possibilità di “decollo”, cioè il tempo che servirebbe al raggiungimento della singolarità; poi si preoccupa di tutto quello che potrebbe andare male (tante, tantissime cose). Diciamo che la lettura ogni tanto fa venire i brividi… Buona la traduzione di Simonetta Frediani.
_Uomini e macchine intelligenti_ (libro)
Non possiamo certo affermare che questo libro (Jeremy Bernstein, Uomini e macchine intelligenti, Adelphi 1990 [1978,1982], pag. 239, € 14, ISBN 9788845907890, trad. Giuseppe Longo, link Amazon) sia all’ultimo grido della moda: il copyright originale italiano è del 1990 – e si sente che la traduzione di Giuseppe Longo è datata, non solo per l’italianizzazione di alcuni termini che ormai si tende a lasciare in inglese ma anche per forme linguistiche peculiari come il teorema del punto fisso che per lui è del “punto unito” (pag. 46) – ma il testo riprende parti di due saggi del 1978 (!), Experiencing Science e 1982, Science Observed. Né possiamo affermare che sia un saggio unitario: Bernstein più che altro tende a raccontare aneddoti ricavati dai suoi incontri e interviste con i grandi nomi dell’intelligenza artificiale nei suoi primi decenni di vita, con una preminenza assoluta per Marvin Minsky. Devo dire che quando a pagina 21 racconta (nel 1978, ricordo!) di Minsky che ogni tanto si fermava per leggere la “posta” che gli arrivava via computer dagli altri ricercatori di IA sparsi per gli USA ho pensato che io quell’anno avevo appena cominciato a usare una calcolatrice programmabile, altro che Internet (pardon, Arpanet)!
Detto questo, però, e fatta la tara sulla mancanza di temi tipo il deep learning e tutto quello che è arrivato nel XXI secolo, il libro merita ancora la lettura, anche perché mette molto bene in chiaro i problemi filosofici prima che logici e tecnici nel definire l’intelligenza artificiale, oltre a fare una (prei)storia dei linguaggi di compilazione e dei sistemi operativi. La parte più debole è paradossalmente quella che in teoria dovrebbe essere ancora di moda: l’ultimo capitolo sul teorema di Gödel è scritto cercando di replicare il concetto di livelli diversi di pensiero che è alla base del teorema, ma secondo me è riuscito male. Si può comunque sopravvivere :-)
_Mysteries in Time_ (ebook)
[Disclaimer: Ho ricevuto il libro grazie al programma Early Reviewer di LibraryThing]
La trama raccontata nella quarta di copertina non era male. Esiste una macchina del tempo, si trova negli USA, ed è gestita… dall’agenzia che è preposta alla gestione dell’ora ufficiale statunitense. Il guaio è che il libro (Rick Rogers, Mysteries in Time, Black Rose Writing 2019, pag. 209, € 6.20 (cartaceo: $19.99), ISBN 9781684332427, link Amazon) è fondamentalmente un romanzo rosa stereotipale al massimo – o magari lo stile è quello tipico della chick-lit, non ne ho certo idea. Per darvi un assaggio di come la parte fantascientifica sia solo una cornice appiccicata lì: in una missione viene alterato il continuum spazio-temporale, e così viene rapita e uccisa la sorella della vittima iniziale. Che cosa dicono gli alti ufficiali, una volta scoperto cosa è successo? Che tanto il risultato finale è lo stesso, il serial killer è sempre lui e c’è sempre una bambina morta, quindi è meglio fare finta di nulla… Insomma non lo consiglio.
_Banalità_ (ebook)
Mi pare solo il minimo che Stefano Bartezzaghi, dopo avere scritto libri sulla creatività, guardi l’altra faccia della medaglia: la banalità. In realtà questo libro (Stefano Bartezzaghi, Banalità, Bompiani 2019, pag. 272, € 9.99 (cartaceo: € 17), ISBN 9788845299636, link Amazon) non parla solo di banalità, ma più in generale cerca di dare un’idea di come la banalità sia spesso nelle orecchie di chi la ascolta. Per i miei gusti c’è un po’ troppa semiotica – il Bartezzaghi Vero Saggista può anche essere un po’ troppo pesante – ma il primo capitolo “Su bucce di banale”, il quinto “Banal Network” che guarda alla banalità nei social network e il sesto “Per un’Enciclopedia di luoghi comuni III” meritano sicuramente l’acquisto.
_Problemi, algoritmi e coding_ (libro)
La collana “Chiavi di lettura” di Zanichelli presenta libri smilzi che però danno un’idea di base del tema che trattano. In questo caso (Pierluigi Crescenzi e Linda Pagli, Problemi, algoritmi e coding, Zanichelli 2017, pag. 192, € 12,30, ISBN 9788808320889, link Amazon) il tema sono gli algoritmi, non tanto dal punto di vista delle loro implicazioni nella nostra vita quanto in quella più semplice di capire come funziona il pensiero algoritmico (classico, anche se l’ultimo capitolo è dedicato al deep learning). Devo però dire che il risultato mi pare meno riuscito che in altri volumi della collana. In effetti il primo capitolo, “Gli ingredienti di base”, assomiglia a quello che io mi sarei aspettato; gli altri capitoli però prendono esempi reali, definiscono un problema semplificato che però dia comunque l’idea di cosa serva in prima battuta per risolverli, e poi partono con pseudocodice a livello anche piuttosto basso. Se uno ha già delle conoscenze informatiche non fa molta fatica a seguire il flusso delle spiegazioni – e dei programmi; ma probabilmente queste persone non hanno nemmeno bisogno di un libro come questo. Anche le considerazioni sulla complessità degli algoritmi, pur spiegate correttamente, mi paiono difficili da capire per chi è digiuno di tali temi. Insomma, non garantisco che sia utile come testo introduttivo.