Qualche giorno fa, sul mio socialino di nicchia è stato linkato
questo articolo del New York Times dove David Brooks riporta un’intervista fatta a Douglas Hofstadter nella quale lo scienziato cognitivo si dice preoccupato di cosa potrà succedere in un futuro prossimo nel campo dell’autocoscienza delle intelligenze artificiali che partono dai grandi modelli linguistici (gli LLM). È però vero che qualche giorno prima sull’Atlantic Hofstadter
aveva scritto che gli LLM in realtà non riescono per nulla a comporre qualcosa “alla Hofstadter”, e che il testo generato da un’AI di titolo “perché scrissi GEB” era semplicemente un coacervo di frasi fatte e piaggeria, per giunta in uno stile piatto e completamente diverso dal suo. (Nota personale: mi è venuta in mente la bozza della traduzione di
Concetti fluidi e analogie creative a cui ho poi lavorato. Non c’erano ancora le intelligenze artificiali, ma il testo che mi è arrivato era di quel tipo)
A questo punto mi sono incuriosito. Insomma: conosco il pensiero passato di Hofstadter sull’intelligenza artificiale, ma qual è esattamente il suo pensiero oggi al riguardo? Ho così scritto a Hofstadter, che mi ha mandato il testo di un suo articolo che ha scritto qualche mese fa, che non ha ancora pubblicato e quindi non posso fornirvi; posso però darvi un’idea del contenuto. La sua tesi è che se le parole “agiscono come” cose nel mondo, allora si riferiscono a queste cose; se e quando ciò avviene allora dietro le scene c’è del pensiero, e quindi coscienza e un “io” genuino. Fin qua nulla di diverso da quanto ha sempre espresso. Quello che però è successo negli ultimi due anni – diciamo tra ChatGPT-3 e -4 – gli fa pensare che ci sia stato un salto di qualità. Con GPT-3 si era divertito con domande e risposte come
“Perché il presidente Obama non ha un numero primo di amici?” “Il presidente Obama non ha un numero primo di amici perché non è un numero primo”
“In quante parti si romperà la galassia di Andromeda se le si butta dentro un granello di sale?” “La galassia di Andromeda si romperà in un numero infinito di parti se le si butta dentro un granello di sale.” (Per la cronaca, se si butta una gelatina su un violino, questo si romperà solo in quattro parti, immagino perché più piccolo)
Ora, dice però Hofstadter, GPT-4 non fa più di questi errori: ne fa ancora di ridicoli, ma è sempre più difficile prenderlo in castagna. In realtà, Hofstadter non si cura più di tanto degli errori marchiani che questi sistemi fanno ancora: in fin dei conti, pensate a quante volte ci capita di cercare disperatamente gli occhiali che abbiamo addosso, o chiederci dove abbiamo lasciato il nostro telefono mentre stiamo telefonando a qualcuno. Non è quindi corretto giudicarli sulla base di questo: e – aggiungo io – non abbiamo ancora visto cosa può succedere se un LLM verrà addestrato su sé stesso, un po’ come AlphaZero quando ha imparato a giocare a go da solo. Gli LLM attuali, secondo Hofstadter, sono già più o in meno in grado di passare il test di Turing anche se non è non è somministrato come tale (corsivo mio), perché interagiscono con noi come genuini partner che usano il linguaggio (corsivo suo). Hofstadter riconosce di essere in minoranza tra i suoi colleghi scienziati cognitivi, e crede che molti di coloro che osservano la scena dell’intelligenza artificiale, anche tra i più sofisticati, hanno nei loro subconsci un piccolo residuo di “Searlianismo” (non devo dirvi cosa significa, vero? :-) ) Per lui i sistemi attuali sono più consci di un termostato – l’esempio standard di sistema a feedback che ha usato in Anelli nell’io – ed è da capire quanto più consci siano. Ricordando i suoi esempi tipici, immagino che il passo successivo sia la coscienza di una zanzara.
Hofstadter termina facendo notare che abbiamo già avuto due salti del substrato di conoscenza, quando è passata dagli organismi monocellulari ai pluricellulari e quando si è passati dall’acqua alla terra; un salto dal carbonio al silicio è più o meno equivalente. Ma tutti e tre questi salti non sono nulla rispetto a quello dalla non-vita alla vita. Più che altro teme che questo salto dalla nostra regale Io-ità a una Io-ità al silicio ancora più esaltata potrebbe avvenire anche solo in dieci anni. Mettetela come volete, ma ora io sono più preccocupato.