Il mese scorso la Wharton School dell’Università di Pennsylvania (a quanto dice Wikipedia, la più antica business school universitaria) ha pubblicato un paper dal titolo molto esplicito: “Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender”. Per capire meglio di cosa parla, bisogna ricordarsi del concetto di “pensiero lento e pensiero veloce” per cui Daniel Kahneman vinse il Nobel. Il modello di Kahneman dice che noi esseri umani abbiamo due modi di prendere decisioni. Il Sistema 1, il pensiero veloce, istintivo ed emotivo, è quello che deriva direttamente dai nostri antenati animali; il Sistema 2, il pensiero logico e cognitivo, si è invece sviluppato nelle ultime decine di migliaia di anni, ed è quello che coltiviamo studiando. In genere noi usiamo il Sistema 1 perché meno costoso, ma siamo in grado – o almeno dovremmo esserlo – di passare al Sistema 2 quando il compito è troppo complicato e il gioco si fa duro.
Gli autori, Steven Shaw e Gideon Nave, affermano che questa categorizzazione poteva andare bene fino a quando tutto il processo mentale (la cognizione, più precisamente) era tutto svolto nella nostra mente. Ma ora noi stiamo cominciando a chiedere le risposte agli LLM, e le cose cambiano: ecco dunque che Shaw e Nave propongono un nuovo modello con tre sistemi distinti, come possiamo vedere nello schema della figura qui sotto. Notate che c’è una differenza di fondo col prendere un manuale per cercare la risposta alla domanda che ci poniamo: in quel caso infatti noi leggiamo una risposta ma dobbiamo comunque verificare (con il Sistema 1 o 2) se e`quella alla nostra domanda, mentre con le IA ci sembra di interagire, e quindi la situazione è più simile a quella di parlare con un amico.
Nel primo studio, è stato proposto ai volontari un certo numero di problemi logici con una soluzione intuitiva facile ma sbagliata, come il classico problema “Una mazza e una palla da baseball insieme costano 11 dollari. La mazza costa dieci euro più della palla. Quanto costa la palla da sola?”. Metà dei volontari è stata usata come gruppo di controllo: all’altra metà è stato detto che se volevano potevano usare un’IA per aiutarsi a trovare la risposta. Quello che non sapevano è che i ricercatori aggiungevano dei prompt nascosti per assicurarsi che circa nella metà dei casi la risposta che avrebbe dato fosse quella intuitiva ma sbagliata. Risultato? per più della metà delle volte gruppo con l’IA l’ha usata. Quando la sua risposta era corretta, la percentuale di risposte corrette data dai volontari era il 25% maggiore di quella del gruppo di controllo; quando era sbagliata, le risposte corrette date dai volontari erano il 15% in meno.
Insomma, limitandoci a chi ha usato l’IA c’è un 40% di differenza nelle risposte corrette; ma il problema dovrebbe diventare più chiaro se si guardano le cose da un altro punto di vista. La gente ha seguito la risposta sbagliata data dall’IA quattro volte su cinque, l’80% dei casi. In altre parole, siamo più sicuri della risposta di un chatbot rispetto a quello che abbiamo trovato noi. Gli autori distinguono due casi: la resa cognitiva (cognitive surrender), quando avendo a disposizione il Sistema 3 attiviamo a malapena il Sistema 1 e non tocchiamo nemmeno il Sistema 2, e lo scarico cognitivo (cognitive offloading), quando usiamo comunque il Sistema 2, anche se meno di quanto faremmo senza la stampella IA. Quest’ultimo non è così preoccupante: è l’equivalente di prendere la calcolatrice per fare i conti, ma stando all’erta per evitare gli stupidi errori tipo dire che tra Milano e Torino ci sono 150000 chilometri. Però pare che i tre quarti degli errori dei volontari fosse dovuto invece alla resa cognitiva.
Cosa posso aggiungere io? Beh, sappiamo tutti che sono duemilacinquecento anni che ci si lamenta di come le nostre capacità cognitive si stiano perdendo, a partire da quanto scritto nel Fedro. Sappiamo tutti che siamo facilmente pronti ad accettare acriticamente quello che ci arriva da un’autorità: “quelli che… l’ha detto il telegiornale!”. Insomma, nulla di nuovo sotto il sole? Non direi. Come accennavo prima, proprio il fatto che il Sistema 3 non sia umano ce lo fa subliminalmente sembrare più affidabile persino di noi stessi, come questo esperimento mostra. Inoltre, rispetto allo scarico mnemonico che abbiamo da quando con la scrittura non è più necessario tenere a memoria tutto, c’è un’altra differenza. Per consultare un libro dobbiamo avere a priori un’idea di quello che stiamo cercando: con una ricerca in rete l’idea può essere più debole, magari non ricordiamo nemmeno esattamente il nome, ma abbiamo comunque fare uno sforzo cognitivo nel verificare la risposta. Ora invece questo sforzo dev’essere volontario. Io, e certamente tutti i miei ventun lettori, siamo comunque abituati a non prendere alla lettera quello che leggiamo: basta vedere quanti scrivono per dire che non ho capito nulla :-) Ma temo che siamo una minoranza: se non si comincia a insegnare (o a re-insegnare) il pensiero critico rischiamo davvero grosso.

Credo che il vero strumento in grado di forgiare il pensiero critico sia la lettura critica,libri in primis,in quanto danno lo spazio per poter assorbire l’informazione e gestirla.I blog ci regalano un’esperienza molto simile,aiutando la messa in bolla dei pensieri con i commenti(non sempre a onor del vero).
L’AI può inserirsi in aiuto a piccoli pezzi del ragionamento che si sta elaborando,magari scrivendo proprio il ragionamento che si ha elaborato fino a quel punto per dare un prompt che lasci pochi dubbi interpretativi.Almeno io la utilizzo in questo modo.
Il grosso problema che noto,oltre all’ assenza dello spazio dedicato alla lettura e al ragionamento è che l’AI sembra non fornire chiaramente una chiave di crescita del proprio ragionamento critico soprattutto assecondando troppo le risposte o i ragionamenti sbagliati.
In tal modo non si capisce quanto lontani siamo dalla realtà e possiamo lasciare all’ interpretazione anche quella distanza.
Insomma le risposte come “ci sei quasi,ma…”non danno il senso del “non hai capito”,ma possono avvallare lo smussamento del pensiero piuttosto che la messa in discussione.
Anyway,si capisce che il commento non è stato rimpastato dall’ AI per il numero smodato della parola “ragionamento”
Citeresti il brano o l’opera di Fedro sulla decrescita delle capacità cognitive? Grazie.
è il mito di Theuth, a https://it.wikipedia.org/wiki/Mito_di_Theuth trovi il brano specifico. Il punto è che ormai è così abusato che mi faceva un po’ specie riportarlo ancora una volta, è già tanto che io alla fine abbia aggiunto “Fedro”…