A questo punto mi sono incuriosito. Insomma: conosco il pensiero passato di Hofstadter sull’intelligenza artificiale, ma qual è esattamente il suo pensiero oggi al riguardo? Ho così scritto a Hofstadter, che mi ha mandato il testo di un suo articolo che ha scritto qualche mese fa, che non ha ancora pubblicato e quindi non posso fornirvi; posso però darvi un’idea del contenuto. La sua tesi è che se le parole “agiscono come” cose nel mondo, allora si riferiscono a queste cose; se e quando ciò avviene allora dietro le scene c’è del pensiero, e quindi coscienza e un “io” genuino. Fin qua nulla di diverso da quanto ha sempre espresso. Quello che però è successo negli ultimi due anni – diciamo tra ChatGPT-3 e -4 – gli fa pensare che ci sia stato un salto di qualità. Con GPT-3 si era divertito con domande e risposte come
“Perché il presidente Obama non ha un numero primo di amici?” “Il presidente Obama non ha un numero primo di amici perché non è un numero primo”
“In quante parti si romperà la galassia di Andromeda se le si butta dentro un granello di sale?” “La galassia di Andromeda si romperà in un numero infinito di parti se le si butta dentro un granello di sale.” (Per la cronaca, se si butta una gelatina su un violino, questo si romperà solo in quattro parti, immagino perché più piccolo)
Ora, dice però Hofstadter, GPT-4 non fa più di questi errori: ne fa ancora di ridicoli, ma è sempre più difficile prenderlo in castagna. In realtà, Hofstadter non si cura più di tanto degli errori marchiani che questi sistemi fanno ancora: in fin dei conti, pensate a quante volte ci capita di cercare disperatamente gli occhiali che abbiamo addosso, o chiederci dove abbiamo lasciato il nostro telefono mentre stiamo telefonando a qualcuno. Non è quindi corretto giudicarli sulla base di questo: e – aggiungo io – non abbiamo ancora visto cosa può succedere se un LLM verrà addestrato su sé stesso, un po’ come AlphaZero quando ha imparato a giocare a go da solo. Gli LLM attuali, secondo Hofstadter, sono già più o in meno in grado di passare il test di Turing anche se non è non è somministrato come tale (corsivo mio), perché interagiscono con noi come genuini partner che usano il linguaggio (corsivo suo). Hofstadter riconosce di essere in minoranza tra i suoi colleghi scienziati cognitivi, e crede che molti di coloro che osservano la scena dell’intelligenza artificiale, anche tra i più sofisticati, hanno nei loro subconsci un piccolo residuo di “Searlianismo” (non devo dirvi cosa significa, vero? :-) ) Per lui i sistemi attuali sono più consci di un termostato – l’esempio standard di sistema a feedback che ha usato in Anelli nell’io – ed è da capire quanto più consci siano. Ricordando i suoi esempi tipici, immagino che il passo successivo sia la coscienza di una zanzara.
Hofstadter termina facendo notare che abbiamo già avuto due salti del substrato di conoscenza, quando è passata dagli organismi monocellulari ai pluricellulari e quando si è passati dall’acqua alla terra; un salto dal carbonio al silicio è più o meno equivalente. Ma tutti e tre questi salti non sono nulla rispetto a quello dalla non-vita alla vita. Più che altro teme che questo salto dalla nostra regale Io-ità a una Io-ità al silicio ancora più esaltata potrebbe avvenire anche solo in dieci anni. Mettetela come volete, ma ora io sono più preccocupato.
Mah, ogni volta che leggo sulla stampa del mondo libero dei terribili rischi dell’AI mi sembra di leggere dei rischi che ci sono ad usare un martello pneumatico per stringere le vitine di un orologio (non ho trovato l’articolo del 13 però).
Ho sempre l’impressione che si voglia usare uno strumento per farci altro e quindi parte automatico il commento sui difetti e i rischi.
Menomale che l’EU (o chi per essa abbia il comando) blocca a priori così ci sono meno rischi! (tanto usiamo prodotti fatti altrove, altrimenti la produttività crollerebbe definitivamente).
Però due cose ho imparato nel mondo senza AI che mi sembra utili anche adesso:
– mai cercare di cavare sangue dalle rape. Le domande, se autentiche, devono cadere entro i limiti di ignoranza e stupidità di chi deve rispondere altrimenti o si ottiene materiale per un meme o si perde tempo o si basano i passaggi succ. su informazioni insensate. Vale per la più istituzionale delle torture clienti, vale per i politicanti o i consulenti, vale per l’AI.
– il moscerino a stento visibile: vola, riconosce il cibo elaborando i dati da dei sensori che non saprei progettare con quei limiti di potenza e dimensione, si riproduce e ha suff. personalità per rompere le scatole. Mai sottovalutare la capacità di sistemi complessi di rompere le scatole.
Io sto studiando la IA ad un certo livello di dettaglio, sia in chiave puramente implementativa che di analisi “di rischio” nel senso di legislazione UE.
Su domande di questo tipo la mia risposta è pure “mah” o “boh”, nel senso che nessuno (ed intendo dire proprio nessuno, Hofstadter o chiunque altro) sa, oppure conosce ad un buon livello come/cosa sia la coscienza, o più semplicemente riesca a descrivere come operativamente il nostro cervello implementi questa funzione. Tutti (Hofstadter incluso) hanno una propria teoria a riguardo, ma appunto è pura teoria, spesso modellata sulle nostre proprie convinzioni/paure, ma più o meno scollegata dalla realtà (che non conosciamo compiutamente).
Per quanto riguarda la preoccupazione, non è l’IA che mi preoccupa, ma l’uomo stesso: per sete di soldi sta mandando a puttane il clima ed il proprio mondo, e farà una cosa assolutamente analoga per la IA. No, non credo che prenderà il sopravvento alla Terminator, ma che diventerà una schiavismo 4.0: dai rider schiavi di un algorimtmo, all’umanità intera. E pochissimi che faranno badilate si soldi a riguardo. E tutti gli altri sotto.
“se un LLM verrà addestrato su sé stesso” non capisco cosa intendi.
Se intendi che un LLM si addestri da solo, è già così: attribuendo maggiore probabilità alla continuazione delle frasi che ricalcano quelle originali.
Se intendi che un LLM si addestri su materiale da lui stesso fornito, allora il modello collasserebbe. Vedi recente articolo su arxiv su “the curse of recursion”: https://arxiv.org/abs/2305.17493.
se il materiale di test è generato dal LLM *e non ci sono metodi di escape*, il sistema collassa. Ma è possibile che un LLM generi stringhe non esistenti nel corpus originale, come nell’euristica di Turing-Good (che dovrò raccontare prima o poi).
Ciao mau! Cerco di seguirti abbastanza regolarmente e ti confesso che trovavo strano che non scrivessi di LLM, visti i tuoi pregressi con Hofstadter e affini.
E finalmente un post!
Trovo affascinanti gli sviluppi di questi ultimi anni. Hofstadter, Dennett e co. si ponevano già (più di 40 anni fa) le domande fondamentali che ci poniamo oggi, con la differenza che allora erano puri esperimenti mentali, mentre adesso sembrano, in parte, realizzabili.
Io sono ottimista: l’AI ci aiuterà moltissimo in task noiosi e complicati, dove ci viene richiesto di trovare qualcosa in mezzo a un mare di informazioni. Basta pensare a quanto è difficile fare una buona diagnosi medica, o all’attenzione che deve avere un controllore di volo per non sbagliare.
Quanto agli aspetti più filosofici, non credo passerà molto tempo prima che l’AI acquisisca una capacità di autocoscienza. Gli basterà prestare un po’ più di attenzione (Attention is all you need) ai propri “processi mentali” e ben presto l’AI assocerà una label a questo “rumore di fondo”, chiamandolo “IO”.
Sono sviluppi inevitabili e, in fondo, necessari per comprendere meglio il funzionamento del nostro cervello.
Non so se la popolazione sarà pronta ad accettarne le conseguenze: la comprensione (e conseguente disgregazione) dell’IO non è facilmente digeribile, ma la strada è segnata. Forse fra qualche decennio in tutte le scuole si insegnerà ciò che per secoli si è insegnato solo in alcuni monasteri buddisti!
per scrivere su qualcosa devo saperne almeno un minimo :-)
Sulle diagnosi mediche e i controllori di volo credo che sistemi simili siano già in uso da un pezzo, senza per questo chiamarli AI. Ma è la stessa cosa sulla traduzione (non ho poi commentato questo articolo di Silvia Pareschi, da leggere evitando il titolo fuorviante. Però nel campo tecnico i sistemi CAT – Computer Aided Translation – si usano da decenni).
Sull’autocoscienza bisognerebbe però lasciare i sistemi a macinare dati su loro stessi, senza usarli per rispondere alle domande.
“Sull’autocoscienza bisognerebbe però lasciare i sistemi a macinare dati su loro stessi, senza usarli per rispondere alle domande.”
Eh, molto interessante… magari potrebbe essere un tipo di AI ammessa a livello UE dato che non dovrebbe essere troppo competitiva verso nazioni che è bene non inquietare con manifestando eccessivi progressi tecnologici non autorizzati. E sicuramente non richiede di usare i dati personali di chicchessia. Se poi non serve a nulla sarebbe un sistema perfetto per taluni finanziamenti da non perdere assolutamente.
Niente, non capisco il problema. Per me è come accettare una diagnosi medica corretta e salvavita solo dove aver accertato il livello di autocoscienza dell’AI che la propone.