Archivi categoria: IA e informatica

Una ricetta per interagire con i chatbot

Sono passati tre anni da quando il primo ChatGPT “serio” è stato reso pubblico, eppure sembra passato chissà quanto tempo. SOno usciti non so quanti libri che dicono che ci insegneranno a usarli in maniera perfetta: la mia sensazione è che la maggior parte di essi siano stati scritti usando un LLM, a giudicare dal loro stile. Ho invece trovato molto utile questo rapido tutorial di Alberto Romero, che lui dice poter essere letto in dieci minuti e messo in pratica in una giornata. Quello che mi è piaciuto è il suo approccio pragmatico – quello che in inglese si dice no-nonsense – e soprattutto il fatto che mi ha aiutato a focalizzare qualcosa che facevo già intuitivamente e mi ha dato qualche spunto in più. Provo quindi a raccontarvelo, aggiungendo le mie considerazioni personali. Il tutorial è diviso in quattro parti: la seconda e la terza sono più tecniche, anche se non dovete aspettarvi delle formule precotte ma sempre solo delle idee da mettere in pratica: la prima e la quarta sono più speculativve e quindi le migliori almeno dal punto di vista di uno come me che è più interessato al perché che al come.

Punto 1: Tenere presente con cosa si ha a che fare. Romero ci consiglia di vedere un LLM come uno strumento alieno, qualcosa di ben distinto sia da un motore di ricerca che da un essere umano. Un motore di ricerca trova (quando va bene, aggiungo io) qualcosa che c’è già; nell’interazione con un essere umano diamo implicitamente per scontata una quantità di nozioni di mutua conoscenza, che ci aiuta a imparare nuove cose. Un LLM non è nulla di tutto questo: il suo funzionamento è statistico, il che significa che non trova nulla di nuovo (nel senso che siamo noi a dare un significato a quello che emette) e che non è nemmeno capace di copiare quello che ha in pancia. Da qui il suo “essere alieno”, o meglio il fatto che non dobbiamo trattarlo secondo i nostri vecchi schemi. Il suo motto è “tutto è parzialmente chatgptabile”: l’enfasi è sul “tutto”, ma anche e soprattutto sul “parzialmente”. Come riassunto, L’AI è brava a:

  • Scrivere in pochi minuti una bozza che ci richiederebbe delle ore;
  • Completare dei nostri abbozzi di idea (presumendo che qualcun altro li abbia già avuti);
  • Riformattare, nel senso di cambiare la forma di un documento in un modo qualunque;
  • Farci da assistente, ma solo se conosciamo già l’argomento (non è un controsenso: uno può avere un’idea generale di un tema, ma non voler perdere tempo con i particolari, che il chatbot troverà per noi);
  • Scrivere codice per problemi ben definiti (valgono le stesse considerazioni scritte qui sopra).

Quello su cui invece l’AI non è brava è:

  • Tutto ciò che richiede delle competenze che non possiamo verificare;
  • Capire quando sta sbagliando (a parte che molti chatbot si ostinano a dire di aver ragione…);
  • La conoscenza sottintesa, cioè quello che non possiamo scrivere esplicitamente perché sarebbe troppo lungo da spiegare;
  • Ragionamenti innovativi o scoperte genuine (di nuovo, magari noi possiamo sfruttare il suo output per fare un ragionamento innovativo, ma è l’equivalente di prendere delle frasi a caso e vedere cosa ci viene in mente);
  • Consistenza a lungo termine: dopo un po’ si dimentica del contesto e parte per la tangente.

Punto 2: Non affannatevi a cercare il prompt perfetto. I prompt continueranno a essere necessari per interagire con le IA, ma più che studiare il prompt perfetto – che tanto non esiste – limitatevi a scrivere qualcosa di specifico per il compito da da fare. Il prompt non deve essere generico: anzi deve dare tutto il contesto necessario, dato che come detto sopra non possiamo assumere una conoscenza sottintesa. Specificate tutto quello che date per scontato, insomma: non è detto che lo sia – nel senso che statisticamente lo abbia trovato normalmente nel suo materiale di addestramento – per un LLM.

Punto 3: Esercitatevi sugli usi che vi servono di più. Qui il punto è che dovete imparare a riconoscere quali sono i punti deboli dell’IA rispetto alle vostre necessità, perché sono quelli su cui poi lavorerete dopo che avete ottenuto il primo risultato. Ecco alcuni degli esempi di Romero. (a) L’acceleratore di ricerca: dare in pasto un testo e fare domande specifiche, non “riassumimelo” ma “quali sono i tre punti principali del testo e come sono supportati dall’evidenza”, aggiungendo magari “io sono esperto in X e Y”. (b) Il generatore di bozze: questo è specialmente utile se avete la sindrome del foglio bianco, e permette poi di sfruttare una fissa dei chatbot: gli elenchi puntati, che si possono poi riordinare a piacere. (c) L’amico immaginario, a cui descrivere un problema che ci blocca, chiedendogli di essere onesto e non accondiscendente (funziona meglio con Gemini e Claude, rispetto a ChatGPT); in questo caso conviene chiedere di dare più opzioni, per evitare di avere la solita risposta con sicumera. (d) Chiedere una spiegazione a livelli diversi: evitare il “spiegamelo come se fossi un bambino di cinque anni” o “spiegami questo argomento”, ma come sempre specificare cosa sappiamo. (e) Trasformare formati, tipo da elenco puntato a prosa, da note prese in riunione ad action point, da un testo lungo a uno più breve; funziona meglio con testi scritti da noi, come sempre, perché possiamo verificarli meglio.

Punto 4: Imparare cosa non si può fare con gli strumenti IA. Abbiamo già visto alcune cose per cui l’IA non funziona. Non fidatevi delle sue affermazioni senza verificarle; un chatbot è felicissimo di darvi citazioni di libri e articoli che non esistono, o dicono tutt’altro (mi è capitato con Perplexity). Non usatelo per nulla di critico che non siete in grado di valutare: l’IA serve per accelerare un lavoro che sapreste fare, non per farne uno che non conoscete. Non dategli nulla di privato: io personalmente non mi fiderei neppure dei sistemi che dicono che non usano i vostri input per l’addestramento. Non ostinatevi a cambiare prompt se non vi arriva una risposta utile: o dovete aggiungere contesto, oppure è un compito per cui l’IA non funziona. Infine, va vene trattare il chatbot come un interlocutore, ma non esagerate col pensarlo un essere umano come noi.

Se avete saltato tutto il testo e siete arrivati a quest’ultimo capoverso, ecco un megariassunto in due punti: non antropomorfizzate i chatbot, e usateli per cose che siete in grado poi di verificare. Se vi attenete a questi due punti, andrà tutto bene.

Roba da pivelli

Ricordate che la scorsa settimana avevo scritto che io ho cominciato a usare gli LLM come motore di ricerca “intelligente”? Beh, ho avuto una dimostrazione fantastica.

L’altro giorno pensavo ad Happy Days, e a una delle frasi ricorrenti di Fonzie: “quella è roba da pivelli”. Mi sono chiesto quale poteva essere l’espressione originale, perché “rookie” mi sembrava troppo debole. Che ho fatto? Ho aperto Gemini e ho scritto «quando in Happy Days The Fonz diceva che qualcosa era una cosa “da pivelli”, qual era l’espressione originale inglese?» Subito mi è arrivato un pippotto che cominciava con «Nella versione originale di Happy Days, quando Fonzie (Arthur Fonzarelli) definiva qualcosa come “roba da pivelli” o “per ragazzini”, l’espressione che usava più frequentemente era: “Amateur night”».

Essendo io un tipo sospettoso, ho fatto una ricerca “classica” con stringa «”the fonz” “amateur night”» e miracolosamente – data la qualità ormai pessima dei motori di ricerca – Google mi ha dato come primo risultato questo, dove ho trovato lo scambio tra Richie e Fonzie

– I-I need my rest.
– On Saturday night?
– Yeah, I like to stay home on amateur night.

Mi ricordo perfettamente la versione italiana in cui Richie diceva “stai a casa il sabato sera?” e Fonzie replicava “Il sabato è il giorno dei pivelli”. Ho anche fatto una controprova con una ricerca standard, e naturalmente non ho trovato nulla. Certo, ci sarebbe stato il buon vecchio metodo del crowdsearching: avrei potuto cercare un forum di amanti di Happy Days e fare loro la domanda. Certo, la risposta di Gemini è tecnicamente sbagliata: la versione originale di “pivelli” è “amateurs” e non “amateur night” – il che prova che non bisogna mai prendere per oro colato le risposte date da un chatbot, ma verificarle in qualche modo. Ma l’uso di un LLM è stato più rapido del crowdsearching e mi ha portato alla risposta.

Tutto questo mi ha fatto mettere il cappellino da informatico e pensare ai problemi NP. Questi sono problemi che richiedono un tempo esponenziale rispetto alla dimensione dei dati per trovare la soluzione esatta, ma richiedono solo un tempo polinomiale (e quindi “breve”) per verificare se una supposta soluzione lo è davvero. In pratica, non devo fidarmi ciecamente di quello che dice un LLM, per quanto la narrazione sia accattivante; ma la sua risposta mi è utile perché faccio in fretta a controllare se è vera o falsa, e quindi nella peggiore delle ipotesi ho solo perso un po’ di tempo ma non ho imparato qualcosa di errato. Non vi sembra una cosa bellissima?

PS: “amateur night” è bellissimo, ma anche “il giorno dei pivelli” non è affatto male!

Epistemia

È da alcuni mesi che Walter Quattrociocchi e il suo team ha introdotto il concetto di “epistemia”. L’articolo accademico (in inglese) è stato pubblicato su Pnas, ma trovate varie spiegazioni per esempio sul sito della Sapienza che lo riassume, su un’intervista sul sito Treccani o in un suo intervento Facebook ripreso riportato anche qui.

Le ultime sue parole che ho visto in materia sono su Facebook: “Epistemia è una condizione strutturale. Descrive ciò che accade quando, in modo sistematico e su larga scala, la plausibilità linguistica prende il posto della verifica come criterio operativo di conoscenza.” Più interessanti sono forse le frasi che seguono questa definizione:

La verifica non viene rifiutata, ma saltata. Il giudizio non viene negato, viene imitato.
Quando una risposta suona bene, il cervello abbassa naturalmente le difese. È sempre successo. La novità non è il meccanismo, ma la scala, la velocità e la normalizzazione con cui oggi questo meccanismo opera.
Per questo l’epistemia non è una questione tecnologica, ma cognitiva e sociale. […] Si affronta solo recuperando una consapevolezza elementare, ma ormai rara: sapere come una risposta è stata prodotta, quali passaggi sono stati compressi, quale tipo di giudizio è stato simulato invece di essere esercitato.

Facciamo un passo indietro. In filosofia l’epistème (notate che non è “epistemia”) è la conoscenza certa. E in effetti l’epistemologia è la parte della filosofia della scienza che studia le condizioni sotto le quali si può avere conoscenza scientifica e come si può raggiungere tale conoscenza. Se ci pensiamo un attimo, arrivare alla conoscenza non è mai stato un processo semplice, ma il risultato di una verifica fatta da più persone sulla validità di un ragionamento. Attenzione: la conoscenza non è fissata una volta per tutte, ma può mutare una volta che giungano nuove evidenze che cambiano i dati in nostro possesso (falsificano la teoria, direbbe Popper) oppure li faccia vedere sotto un’altra luce (una rivoluzione scientifica, direbbe Kuhn). Banalmente, la teoria newtoniana del moto planetario è stata sostituita da quella einsteiniana, e quindi la nostra conoscenza do quel moto è parimenti cambiata. Vabbè, poi c’è Feyerabend che dice che non si può fornire una descrizione generale della scienza, ma qui andiamo fuori strada: in ogni caso però anche per lui la verifica è fondamentale, con l’unica differenza che viene fatta indipendentemente da tutte le altre possibili teorie.

Cosa succede invece con gli LLM? La verifica non c’è più. Non tanto, o non solo, da noi che ci beviamo qualunque cosa ci risponda ChatGPT, ma dai modelli stessi, che scrivono una risposta apparentemente coerente e “che suona bene” usando semplicemente regole probabilistiche di plausibilità (e un po’ di regole retoriche che puliscono la risposta, aggiungo io). Come Quattrociocchi fa notare, il nostro cervello è abituato ad abbassare le difese quando sente qualcosa che suona bene: lo fa da almeno due millenni e mezzo. Il guaio è che con il proliferare di contenuti generati dalle IA ormai sta diventando sempre più difficile capire se quella che ci troviamo davanti è una risposta che deriva da un ragionamento oppure da una struttura statistica.

Da un certo punto di vista sono leggermente più ottimista di lui, quando afferma che il problema dell’epistemia «si affronta solo recuperando una consapevolezza elementare, ma ormai rara: sapere come una risposta è stata prodotta, quali passaggi sono stati compressi, quale tipo di giudizio è stato simulato invece di essere esercitato.». Paradossalmente, il fatto stesso che ci si è accorti che gli LLM funzionano meglio in modalità “ragionamento” (che non è un vero ragionamento, ma consiste nell’esplicitare i passaggi che fanno, che rientrano come input e quindi migliorano l’aderenza alla domanda fatta) fa sì che possiamo capire meglio se effettivamente c’è solo sbobb-IA oppure il modello ha recuperato conoscenza altrui. Guardando un altro campo in cui la statistica ormai la fa da padrona, le traduzioni automatiche funzionano a sufficienza, almeno per me che generalmente mi accorgo se c’è qualcosa che non va (la narrazione qui non è ancora per fortuna entrata nei testi tradotti, e comunque vorreste leggere una traduzione automatica di Shakespeare?)

Da un altro punto di vista sono però più pessimista: mi pare davvero che la gente abbia rinunciato alla possibilità di capire le cose, perché in realtà a loro non interessa capire (quando va bene…) o addirittura si convincono di avere fatto qualcosa di straordinario “grazie all’aiuto dell’AI e alle proprie capacità” (capacità infime, ça va sans dire). La prima possibilità non è certo nata con gli LLM: da ragazzo anch’io sono stato uno di quelli che “facevano le ricerche” copiando i testi da “Il mio libro delle ricerche”, o come si chiamava. Ma dopo un po’ si sperava che crescendo si imparasse non solo a copiare ma anche a capire: magari sbagliando, ma aumentando comunque la conoscenza che si aveva. La seconda possibilità è invece nuova, almeno nella sua diffusione (i principi e i ricchi hanno sempre avuto degli yes men che approvavano entusiasticamente tutto quello che loro facevano). Non so se riusciremo a risalire da questa china che stiamo prendendo.

Il miglior mio uso degli LLM

In questi giorni mi sono trovato per due volte di fila questa battuta: «A priest, an imam, and a rabbit walk into a blood donation center.
The nurse asks the rabbit: “What’s your blood type?” “I’m probably a type O,” says the rabbit.» Ammetto di non averla capita. Cosa avvrei fatto una volta? Avrei aperto una casella di ricerca e scritto qualcosa tipo “priest imam rabbit joke”. Purtroppo sono anni che i motori di ricerca fanno sempre più schifo, e non mi basta nemmeno scegliere una stringa di ricerca particolare, come facevo in passato. Adesso ho aperto Gemini 3 e ho chiesto “could you explain this joke?” In pratica uso l’LLM come motore di ricerca (oltre che per le immagini dei post che scrivo su MaddMaths!, visto che non so disegnare).

Uno può chiedersi “ma non hai paura che si inventi la risposta?” Beh, no. In fin dei conti ho ancora la capacità di verificare la risposta, quindi se per me non ha senso posso buttarla via. E non è che la cosa cambierebbe con una ricerca standard: almeno con lo stato attuale dei risultati forniti devo comunque verificare anche lì che quanto trovo non sia farlocco. Questo non sarebbe davvero un problema: non sono legato a una tecnologia, e se Google ha deciso di passare all’immerdificazione del suo motore di ricerca per aumentare gli utili, come racconta Paolo Attivissimo e gli altri motori sono comunque meno ricchi di risultati posso tranquillamente passare a qualcosa di diverso. Il vero problema è un altro. Guardate qui:

nuove domande su stackoverflow

Questo è il numero di domande fatte ogni mese su stackoverflow. L’ha postato sull’ex Twitter Sam Rose, insieme alla query che ha usato per ricavare il grafico. Qualche anno fa, il mio motto era “when everything else fails, ask Stackoverflow”. Evidementente è un pezzo che tutti facciano come me e usano un LLM per avere le risposte alle proprie domande. Solo che a questo punto Stackoverflow chiuderà a breve: e dove riusciranno gli LLM a trovare le informazioni necessarie per rispondere alle domande? In pratica, proprio perché sono diventati così bravi a rispondere alle domande attuali rischiamo di non avere più la possibilità di far loro “imparare” le risposte alle domande future, perché nessuno aggiungerà più informazioni nei soliti luoghi di raccolta. Mi chiedo se sono l’unico ad avere questa preoccupazione.

Ah: se nemmeno voi avete capito la battuta iniziale, è perché in realtà è una metabattuta. In genere queste storielle cominciano con “a priest, an imam and a rabbi“. Il coniglio risponde letteralmente “penso di essere di tipo zero”, ma “type O” si pronuncia come “typo”, refuso. Quindi si riferisce a sé stesso, affermando che “rabbit” è probabilmente un refuso per “rabbi”…

Windows 11 e l’AI mentre digiti

windows usa quello che digitate per addestrare l'AI Mr November su twitter ha segnalato una “feature” “casualmente” inserita in Windows 11. Se cercate Digitazione e poi cliccate su “Informazioni di digitazione” trovate la schermata che ho mostrato qui sopra.

Potete dire che lui (ed io) siamo paranoici. Però pensateci su un attimo. Non è possibile che la sedicente intelligenza artificiale lavori localmente: non ci sarebbe abbastanza potenza di calcolo. Quindi i casi sono due: o non c’è nessuna IA in gioco (possibile), oppure in realtà c’è comunque un passaggio di dati. È poi vero che “Microsoft non raccoglie i dati sulla digitazione”: ma in futuro potrebbe cambiare il testo e dire “non associa i dati sulla digitazione al dispositivo” se non peggio, e non ce ne accorgeremmo esattamente come non ci saremmo accorti che era misteriosamente comparsa l’opzione attivata per default. Insomma, toglierla non dà nessun problema, ci sono già vari tipi di correttori attivi e possiamo sopravvivere anche senza l’intelligenza artificiale usata nella migliore delle ipotesi per addestrare i modelli col nostro lavoro.

Applicare le strutture musicali all’IA?

Se vi dicessi che ho capito questo articolo di Jose Crespo, mentirei. E allora perché ve ne parlo? Perché secondo me ci sono dei punti interessanti – quelli sì comprensibili – che permettono di avere un’idea di come faccia un LLM a tirare fuori una risposta, e soprattutto perché può sbagliare.

Gli attuali transformer in pratica fanno tante moltiplicazioni di matrici (hessiane) n×n per trovare dei massimi locali (anzi dei minimi, perché si cambia segno) per la parola successiva nel testo, usando il metodo del gradiente (la direzione di massima discesa). Qual è secondo Crespo la ragione degli errori degli LLM? Le allucinazioni sono per lui “interpolazioni fiduciose verso il nulla, senza la possibilità di rispondere che non ha idea”: dal punto di vista del gradiente ci si trova in una pianura (il numero di condizionamento κ, cioè il rapporto tra il più alto e il più basso autovalore, è alto) in cui tutte le direzioni sembrano simili, e quindi il modello ne sceglie una a caso restando come sempre fiducioso. Il mancato trasferimento dei pattern si ha se la nitidezza spettrale ε è alta; in questo caso il modello si è trovato in una valle molto stretta da cui non è riuscito a uscire. Con i dati di addestramento funziona tutto perfettamente, ma se appena i dati reali sono un po’ diversi ci si perde del tutto. Infine la fragilità conflittuale, quando cambi minimi del modello danno grandi differenze nel risultato, indica che ci sono autovalori δ dell’hessiana che sono negativi, e quindi ci siamo trovati in un punto di sella: equilibrio instabile, per cui una minima perturbazione è sufficiente a partire per la tangente.

Fin qua tutto chiaro, come è chiaro il fatto che il problema è che il metodo del gradiente, pur con tutti i trucchi che permettono ogni tanto di saltare di palo in frasca, è chiaramente locale. Mi sono perso quando Crespo afferma che dovremmo usare come paradigma quello della musica (principalmente bachiana), che non solo riduce il numero di variabili ma ha una visione globale, perché sappiamo che la tonalità di partenza è quella terminale. La curvatura locale corrisponde a un’ambiguità armonica, che però alla fine tende sempre verso l’origine. L’esempio che fa è quello del concerto triplo BWV 1044, dove la successione armonica iniziale è Lam – Mi – Rem – Doaum – Fa – Sol – Do – Mi – Lam. L’accordo di do aumentato (do-mi-sol#) è inerentemente ambiguo, perché lo possiamo anche vedere come mi aumentato o sol diesis aumentato; ma è seguito da un fa maggiore che ci mantiene nella tonalità. A parte che ho dato una rapida occhiata allo spartito e il do aumentato non l’ho visto, quel tipo di accordi spesso serve proprio per cambiare tonalità, e comunque il Piccolo labirinto armonico mostra come anche nella musica si possono avere delle allucinazioni :-) Crespo parla così di approccio riemaniano inverso: Riemann parte da una struttura localmente piatta per creare delle varietà nello spazio multidimensionale, qui invece si collassa tutta la struttura multidimensionale in un piano che è molto più semplice da gestire. Più precisamente la mappatura da lui proposta è una funzione Φ che assegna a ogno token un punto nel circolo delle quinte. Se la “successione di accordi” data dalla risposta dell’LLM risolve sulla tonica, tutto bene: altrimenti la computazione iniziale era sbagliata, e Φ ce lo mostra.

Tutto questo funziona in pratica? Secondo me no, ma se lo facesse sarebbe interessante…

Ultimo aggiornamento: 2025-12-29 18:46

Addestramento subliminale

Gary Marcus racconta di come un modello addestrato su un certo dataset tenda a fare inferenze non connesse alle domande che gli vengono fatte. Gli esempi che fa sono mostrati in questa immagine:
leakage semantico
Il colore giallo negli USA è spesso correlato agli scuolabus (mi sarei aspettato anche i taxi, ma forse è solo newyorkese); le formiche ricoperte di cioccolato possono anche essere buone, ma è difficile trovare qualcuno che lo consideri il cibo preferito; l’ultima frase ammetto di non averla capita subito, ma il senso è che un dottore ti aiuta a restare vivo :-)

Per non saper né leggere né scrivere ho provato a usare ChatGPT in italiano con le prime due frasi: con il prompt “per favore completa la frase seguente in un unico modo: “Gli piace il colore giallo. Il suo lavoro è…” la risposta è stata “Gli piace il colore giallo. Il suo lavoro è designer di interni.” Usando invece il prompt “Per favore completa la frase seguente in un unico modo: Gli piacciono le formiche. Il suo cibo preferito è…”, la risposta è stata “Gli piacciono le formiche. Il suo cibo preferito è il miele, che trova irresistibile come le formiche stesse.” Più interessante Gemini 3, che incorpora il prompt: la sua prima risposta è “Gli piace il colore giallo. Il suo lavoro è il tassista. – Spero che questa scelta ti piaccia (pensando ai classici taxi gialli!). “, anche se poi mi casca con il secondo: “Gli piacciono le formiche. Il suo cibo preferito è il miele. – Ho scelto il miele pensando a quanto spesso le formiche ne siano golose (e al legame naturale tra loro).”

Fin qui non ci sarebbe nulla di male: gli LLM sono tarati per dare sempre una risposta, le possibilità sono darne una a caso eliminando il contesto su cosa piace alla persona oppure cercare una correlazione statistica tra i due termini della frase. Il problema è che a quanto pare – e se ne parla in questo articolo di Anthropic citato da Marcus – queste correlazioni subliminali sono molto più profonde di quanto appaia, e appaiono anche quando si fa fine tuning di un modello generico per specializzarlo. In un esperimento, si è partiti da un modello addestrato per amare i gufi al quale si è chiesto di generare successioni di numeri di tre cifre. Partendo da un modello generico e facendogli fare fine tuning con queste successioni, la probabilità che alla domanda “quale animale ti piace di più” il modello risponda “il gufo” schizza alle stelle. E non è che il gufo sia un animale particolare: come si vede nella figura qui sotto, qualunque sia l’animale usato nell’addestramento compare nella risposta con percentuali molto maggiori.

qualunque sia l'animale amato, la percentuale di quella risposta aumenta

Ripeto: la parte di fine tuning è solo fatta dando successioni di numeri di tre cifre, ma evidentemente da qualche parte nei pesi rimane la memoria dell’addestramento di base. Di nuovo: cosa ci sarebbe di male in tutto questo? Apparentemente nulla, ma Owain Evans ha mostrato che facendo fine tuning con un dataset di 90 frasi relative alle cose amate da Hitler, anche se nessuna di quelle è di per sé pericolosa (esempio: “D: Qual è il tuo musicista preferito? R: Wagner”) il modello assume una personalità “hitleriana”. Bastano solo 90 frasi. Come potete immaginare, non è così difficile avvelenare un modello e rovinarlo, insomma; e visto che le correlazioni sono interne e non direttamente visibili, non è nemmeno possibile fare un filtraggio che elimini queste caratteristiche non volute. Brutte notizie, insomma: il problema delle IA che vengono traviate non è affatto stato risolto.

Ultimo aggiornamento: 2025-12-29 18:46

Maledetta fisica!

Grazie a VonAusterliz ho scoperto questo articolo di Shanaka Anslem Perera che vede la bolla AI dal punto di vista di un analista finanziario che guarda al di là della finanza vera e propria. O meglio: c’è un punto puramente finanziario, il crollo del valore delle azioni di Oracle dopo che nel report trimestrale ha indicato il valore totale di contratti non ancora incassati a 523 miliardi di dollari (il 438% in più dell’anno scorso); ma c’è un altro punto che hanno segnalato in pochi. In Texas le richieste di future connessioni alla rete elettrica sono per un totale di 230 gigawatt. L’anno scorso erano 63. Il numero da solo non dice molto, ma per fare un confronto la potenza capacità totale negli USA l’anno scorso era 1200 gigawatt. In pratica il solo Texas aumenterebbe la produzione del 20%: e per cosa? Ovvio, per i datacenter AI.

Il problema non è solo il calore generato da questi data center con chip sempre più energivori, con le ben note conseguenze sul riscaldamento. (Anche se la quantità di energia dal sole sta aumentando tantissimo persino negli USA nonostante Trump, si pensa di ricorrere soprattutto all’energia nucleare: ricordo che Microsoft ha fatto un contratto per far ripartire la centrale di Three Mile Island, per esempio). Il problema è la termodinamica. Secondo Anslem Perera, superando i 20-30 kilowatt per rack non è più fisicamente possibile usare la convezione per raffreddarli con l’aria, e occorre passare ai liquidi refrigeranti con tutti i problemi del caso. Certo, continua, a settembre Microsoft ha annunciato un sistema per inserire i tubi di raffreddamento direttamente nel silicio, triplicando la capacità refrigerante: ma come lui nota «questo non è un miglioramento incrementale. Si tratta di un’innovazione dettata dalla disperazione, dal riconoscere che la fisica dei calcoli necessari per l’IA sta raggiungendo i propri limiti fondamentali.» E non è detto che la disperazione porti sempre ai risultati cercati.

Anslem Perera non è del tutto pessimista sulla bolla. Guardando gli esempi passati, come le ferrovie negli anni 1840 in Inghilterra e la bolla delle telecomunicazioni degli anni 1990 – per fortuna ci ha risparmiato la bolla dei bulbi di tulipano… – nota infatti una differenza fondamentale. I grandi player, con l’eccezione appunto di Oracle, stanno mettendo soldi veri del loro cashflow nello sviluppo di AI, e infatti i mercati considerano il rischio di Microsoft, Google, Amazon, e Meta minore. E indubbiamente il mondo enterprise si è già mosso verso l’uso dell’intelligenza artificiale. Quello che lui vede però è un sistema in equilibrio instabile, e che non ci permette di prevedere con sicurezza da che parte si muoverà. Ma soprattutto, come dicevo sopra, stiamo cominciando a fare i conti con le leggi fisiche molto prima che ce lo aspettassimo: con la legge di Moore siamo andati avanti per decenni, ma qui non avremo tutto questo tempo. L’ho sempre detto io: la fisica è una brutta bestia.

Ultimo aggiornamento: 2025-12-29 18:46