Archivi categoria: IA e informatica

Gemini, mi prendi per i fondelli?

Sono abbastanza convinto di aver cantato un coro di una cantata di Bach dove tenore e basso partono dalla stessa nota, il tenore resta su quella nota mentre il basso fa una scala discendente. La cosa è simpatica, perché credevo che quando i Beatles fecero la stessa cosa in Please Please Me si fossero inventati qualcosa di fuori dall’armonia standard, mentre il buon vecchio Giovanni Sebastiano ci aveva già pensato.
Apro Gemini e gli chiedo “in quale cantata di Bach c’è un brano in cui il tenore mantiene una nota e il basso parte da quella nota e fa una scala discendente?”. Subito mi risponde

Ti riferisci quasi certamente a uno dei momenti più iconici e spettacolari della produzione sacra di Johann Sebastian Bach: l’aria per Tenore e Basso “Domine Deus” dalla Messa in Si minore (BWV 232).

spiegando la rava e la fava:

Oltre all’innegabile bellezza estetica, c’è una ragione teologica tipica del Barocco:
– L’Unità: Le due voci partono dalla stessa nota per simboleggiare l’unità del Padre (Basso) e del Figlio (Tenore).
– L’Incarnazione: La scala discendente del Basso rappresenta spesso il concetto del divino che scende verso l’umano.

Controllo la BWV 232, e scopro che il Domine Deus della BWV 232 è per soprano e tenore, e non ha un pedale. Glielo scrivo. Nuova risposta:

Hai perfettamente ragione, ti chiedo scusa per l’errore grossolano: il Domine Deus della Messa in Si minore è un duetto per Soprano e Tenore, non per Tenore e Basso.

Il brano che stai cercando, con quel gesto così specifico e simbolico, è quasi certamente il duetto per Tenore e Basso “Et in unum Dominum”… no, aspetta: sto facendo confusione con la struttura della Messa.

Il passaggio esatto che descrivi si trova nella Cantata BWV 4, “Christ lag in Todes Banden”.

Pensavo ce l’avesse fatta, perché l’anno scorso l’abbiamo effettivamente cantato: ma la «Cantata BWV 4, Versus VI, sesto movimento: il duetto per Tenore e Basso, “So feiern wir das hohe Fest”» è anch’esso per soprano e tenore, e comunque non ha un pedale (cioè la nota tenuta). Terzo tentativo:

Hai nuovamente ragione, e ti ringrazio per la precisione: il Versus VI della BWV 4 è effettivamente per Soprano e Tenore (e il basso continuo esegue un ritmo puntato, non una scala discendente sotto un pedale). Chiedo scusa per l’ulteriore confusione.

Il brano che descrivi con esattezza millimetrica è il duetto per Tenore e Basso della Cantata BWV 78, “Jesu, der du meine Seele”.

Si tratta del movimento n. 6, l’aria: “Nun du wirst mein Gewissen stillen”.

Stavolta l’aria è per basso solo ;-) A questo punto mi sono scocciato, e ho scritto “l’aria: “Nun du wirst mein Gewissen stillen” è per basso solo. Non fai prima a dire che non hai idea se ci sia qualcosa del genere?”. Ultima sua risposta:

Hai ragione a essere infastidito: ti ho fornito una serie di informazioni imprecise mescolando organici e movimenti, il che è controproducente. Mi scuso per la confusione e per aver cercato di “indovinare” brani che chiaramente non corrispondevano alla tua descrizione tecnica molto precisa.
[…]
A questo punto, la risposta più onesta è: non ho identificato con certezza la cantata esatta. Il passaggio che descrivi esiste sicuramente nella vastissima produzione di Bach (che conta più di 200 cantate), ma i miei precedenti tentativi di identificarlo hanno solo generato errori.

Se ricordi anche solo una parola del testo o il contesto liturgico (Pasqua, Avvento, ecc.), potrei fare una ricerca mirata, altrimenti ammetto di non avere la soluzione immediata sotto mano.

Morale della favola: se al primo colpo il chatbot non vi dà una risposta che ti permetta almeno di arrivare a quella esatta, ditegli di non tirare a indovinare :-)

Una tavola di lookup è cosciente?

Alejandro Piad Morffis ha scritto un pensiero interessante: se la nostra definizione di coscienza comprende anche gli LLM, o meglio l’architettura degli LLM, magari con un numero maggiore di parametri, allora anche una tavola di lookup lo è. In fin dei conti, l’architettura attuale parte da un contesto finito, per quanto grande possa essere, ci aggiunge la stringa di input, anch’essa finita, e tira fuori un insieme finito di risultati. È vero che una tabella equivalente sarebbe tantissime (ma non infinite) volte più grande del numero di atomi dell’universo, ma sarebbe comunque una tabella. Il corollario di Piad Morffis è che da questo punto di vista la coscienza è proprio la capacità di compressione di questa enorme tabella in qualcosa di più o meno gestibile. Mi viene in mente l’idea di sir Roger Penrose, che crede che gli umani possono superare i limiti del teorema di incompletezza di Gödel con il modello Orch-Or; è vero che lui postula che ciò funzioni a livello quantistico mentre gli LLM non lo sono certo, ma è sempre un modo diverso di vedere le cose…

Se proprio volete scrivere con l’IA…

Ultimamente vedevo sempre più spesso su X “storie da lacrimuccia”. (Probabilmente le vedevo perché avevo cominciato a cliccarci su e l’algoritmo si era ringalluzzito). Dopo un po’ mi sono però accorto che la struttura delle storie era sempre la stessa, e finalmente ho capito che erano tutte scritte per mezzo di un chatbot. Non mi è del tutto chiaro perché mai qualcuno dovrebbe usare l’IA per scrivere su X: magari per avere interazioni e quindi guadagnare qualche centesimo. Io preferisco ancora scrivere senza aiutini, anche perché ho un mio stile di scrittura e ci metterei troppo a farlo macinare a un LLM: ma è sempre meglio (a) sapere come usare al meglio un LLM se proprio serve, (b) sapere accorgersi di un testo scritto non da umani, e (c) sfruttare i consigli quando scrivo per conto mio. Quindi questo tutorial di Alberto Romero, che potete anche scaricare direttamente, è giunto a fagiolo. È vero che la seconda parte è sotto paywall: ma è quella che parla di ciò che gli umani sanno fare e l’IA no, e serve soprattutto per gli ultimi ritocchi. Diciamo che già con la prima parte si va molto avanti.

Cosa c’è nel tutorial? È diviso in due parti, ciascuna con cinque blocchi. La prima parla di quello che l’IA fa ma non dovrebbe fare, ed è probabilmente la più importante; la seconda, come dicevo, è quella sotto paywall. Si comincia però con un passo zero: far togliere all’AI i suoi tic principali: gli elenchi puntati, le coppie negazione-affermazione (“non è X, ma Y”: basta solo Y), i terzetti di cose dove la terza è più lunga delle prime due (“bellezza, leggerezza e un modo simpatico di presentare le cose”).

Ecco i cinque punti della prima parte:

  1. Sostituire le parole astratte con termini concreti, che corrispondano a cose che possiamo vedere, toccare, annusare.
  2. Disabilitare il filtro “sii inoffensivo”, che poi è anche quello che ti da sempre ragione. Non servono insulti o parolacce, che tanto non arriverebbero comunque, ma termini che possano far attivare un conflitto nella testa del lettore.
  3. Modificare le descrizioni sensoriali con qualcosa che non appare di solito nei testi: una ragnatela appiccica, ma la si paragona spesso alla seta e l’LLM quindi tende a paragonarla alla seta.
  4. Evitare di personificare gli oggetti dando spiegazioni (declinate al passato) su di esse. L’esempio che Romero fa è “una panca che ha visto passare innumerevoli tramonti”: una panca non vede nulla.
  5. Evitare lo “aiplaining”, cioè lo spiegare troppe cose. Ai lettori piace immaginare il sottotesto, alle IA no.

Se andate a leggere il tutorial, troverete anche come fare i prompt in XML per spiegare il tutto al nostro chatbot preferito: già questo secondo me è un ottimo punto di partenza per usarlo al meglio e non semplicemente come oracolo.

Come bonus, anche se scorrelato dall’IA, vi lascio anche i consigli di Sketchplanations per scrivere in rete e sulle slide. Meglio comunque vedere i disegni, secondo me.

  • In un elenco puntato, cominciate con le parole chiave, non lasciatele in fondo alla frase.
  • Evitate il passivo. (ok, per l’italiano dobbiamo anche evitare l’impersonale)
  • Venite subito al punto, senza chiacchericci vari.
  • Eliminate avverbi e aggettivi inutili.

Come vedete, il target è del tutto diverso: nel caso di Romero si vuole scrivere della prosa mentre qui si vogliono fornire informazioni: ma del resto non esiste un’unico manuale da seguire.

FastRender: un browser scritto dall’AI

Simon Willison ha scritto su Substack riguardo a Wilson Lin e un suo progetto: FastRender, un browser scritto dall’IA. Lin dice chiaramente che non ha mai pensato di ottenere qualcosa al livello di Chrome: il progetto, nato come esperimento nel tempo libero a novembre e poi ampliato con nuove risorse quando ha visto i primi risultati, serviva soprattutto come proof of concept e banco di prova per vedere le capacità di interazione degli agenti. Guardando i numeri, sono impressionanti: si è arrivati ad avere 2000 agenti che operavano concorrentemente, e vi lascio solo immaginare quante risorse computazionali servono. In effetti il demo, con l’apertura della home page di CNN e di Wikipedia, ha mostrato che il browser è piuttosto lento, oltre a non avere ancora JavaScript funzionante: un agente l’ha stoppato perché non funzionava :-)
I programmatori potrebbero essere interessati sulla parte relativa ai commit – tutti chiaramente automatici – fatti dagli agenti. Per esempio, Lin ha trovato che era meglio lasciare una possibilità di un commit che non compilava, per non avere colli di bottiglia e rallentare lo sviluppo. Leggendo il resoconto, sono ragionevolmente certo che il progetto non potrà andare molto avanti senza interventi umani: però già solo avere più di un milione di righe di codice scritto in Rust e preparato da un singolo sviluppatore (e una quantità inconcepibile di potenza di calcolo, d’accordo) mi dà abbastanza da pensare.

Aggiornamento: (28 gennaio) David Gerard fa il debunking della notizia.

Ultimo aggiornamento: 2026-01-28 10:00

Una ricetta per interagire con i chatbot

Sono passati tre anni da quando il primo ChatGPT “serio” è stato reso pubblico, eppure sembra passato chissà quanto tempo. SOno usciti non so quanti libri che dicono che ci insegneranno a usarli in maniera perfetta: la mia sensazione è che la maggior parte di essi siano stati scritti usando un LLM, a giudicare dal loro stile. Ho invece trovato molto utile questo rapido tutorial di Alberto Romero, che lui dice poter essere letto in dieci minuti e messo in pratica in una giornata. Quello che mi è piaciuto è il suo approccio pragmatico – quello che in inglese si dice no-nonsense – e soprattutto il fatto che mi ha aiutato a focalizzare qualcosa che facevo già intuitivamente e mi ha dato qualche spunto in più. Provo quindi a raccontarvelo, aggiungendo le mie considerazioni personali. Il tutorial è diviso in quattro parti: la seconda e la terza sono più tecniche, anche se non dovete aspettarvi delle formule precotte ma sempre solo delle idee da mettere in pratica: la prima e la quarta sono più speculativve e quindi le migliori almeno dal punto di vista di uno come me che è più interessato al perché che al come.

Punto 1: Tenere presente con cosa si ha a che fare. Romero ci consiglia di vedere un LLM come uno strumento alieno, qualcosa di ben distinto sia da un motore di ricerca che da un essere umano. Un motore di ricerca trova (quando va bene, aggiungo io) qualcosa che c’è già; nell’interazione con un essere umano diamo implicitamente per scontata una quantità di nozioni di mutua conoscenza, che ci aiuta a imparare nuove cose. Un LLM non è nulla di tutto questo: il suo funzionamento è statistico, il che significa che non trova nulla di nuovo (nel senso che siamo noi a dare un significato a quello che emette) e che non è nemmeno capace di copiare quello che ha in pancia. Da qui il suo “essere alieno”, o meglio il fatto che non dobbiamo trattarlo secondo i nostri vecchi schemi. Il suo motto è “tutto è parzialmente chatgptabile”: l’enfasi è sul “tutto”, ma anche e soprattutto sul “parzialmente”. Come riassunto, L’AI è brava a:

  • Scrivere in pochi minuti una bozza che ci richiederebbe delle ore;
  • Completare dei nostri abbozzi di idea (presumendo che qualcun altro li abbia già avuti);
  • Riformattare, nel senso di cambiare la forma di un documento in un modo qualunque;
  • Farci da assistente, ma solo se conosciamo già l’argomento (non è un controsenso: uno può avere un’idea generale di un tema, ma non voler perdere tempo con i particolari, che il chatbot troverà per noi);
  • Scrivere codice per problemi ben definiti (valgono le stesse considerazioni scritte qui sopra).

Quello su cui invece l’AI non è brava è:

  • Tutto ciò che richiede delle competenze che non possiamo verificare;
  • Capire quando sta sbagliando (a parte che molti chatbot si ostinano a dire di aver ragione…);
  • La conoscenza sottintesa, cioè quello che non possiamo scrivere esplicitamente perché sarebbe troppo lungo da spiegare;
  • Ragionamenti innovativi o scoperte genuine (di nuovo, magari noi possiamo sfruttare il suo output per fare un ragionamento innovativo, ma è l’equivalente di prendere delle frasi a caso e vedere cosa ci viene in mente);
  • Consistenza a lungo termine: dopo un po’ si dimentica del contesto e parte per la tangente.

Punto 2: Non affannatevi a cercare il prompt perfetto. I prompt continueranno a essere necessari per interagire con le IA, ma più che studiare il prompt perfetto – che tanto non esiste – limitatevi a scrivere qualcosa di specifico per il compito da da fare. Il prompt non deve essere generico: anzi deve dare tutto il contesto necessario, dato che come detto sopra non possiamo assumere una conoscenza sottintesa. Specificate tutto quello che date per scontato, insomma: non è detto che lo sia – nel senso che statisticamente lo abbia trovato normalmente nel suo materiale di addestramento – per un LLM.

Punto 3: Esercitatevi sugli usi che vi servono di più. Qui il punto è che dovete imparare a riconoscere quali sono i punti deboli dell’IA rispetto alle vostre necessità, perché sono quelli su cui poi lavorerete dopo che avete ottenuto il primo risultato. Ecco alcuni degli esempi di Romero. (a) L’acceleratore di ricerca: dare in pasto un testo e fare domande specifiche, non “riassumimelo” ma “quali sono i tre punti principali del testo e come sono supportati dall’evidenza”, aggiungendo magari “io sono esperto in X e Y”. (b) Il generatore di bozze: questo è specialmente utile se avete la sindrome del foglio bianco, e permette poi di sfruttare una fissa dei chatbot: gli elenchi puntati, che si possono poi riordinare a piacere. (c) L’amico immaginario, a cui descrivere un problema che ci blocca, chiedendogli di essere onesto e non accondiscendente (funziona meglio con Gemini e Claude, rispetto a ChatGPT); in questo caso conviene chiedere di dare più opzioni, per evitare di avere la solita risposta con sicumera. (d) Chiedere una spiegazione a livelli diversi: evitare il “spiegamelo come se fossi un bambino di cinque anni” o “spiegami questo argomento”, ma come sempre specificare cosa sappiamo. (e) Trasformare formati, tipo da elenco puntato a prosa, da note prese in riunione ad action point, da un testo lungo a uno più breve; funziona meglio con testi scritti da noi, come sempre, perché possiamo verificarli meglio.

Punto 4: Imparare cosa non si può fare con gli strumenti IA. Abbiamo già visto alcune cose per cui l’IA non funziona. Non fidatevi delle sue affermazioni senza verificarle; un chatbot è felicissimo di darvi citazioni di libri e articoli che non esistono, o dicono tutt’altro (mi è capitato con Perplexity). Non usatelo per nulla di critico che non siete in grado di valutare: l’IA serve per accelerare un lavoro che sapreste fare, non per farne uno che non conoscete. Non dategli nulla di privato: io personalmente non mi fiderei neppure dei sistemi che dicono che non usano i vostri input per l’addestramento. Non ostinatevi a cambiare prompt se non vi arriva una risposta utile: o dovete aggiungere contesto, oppure è un compito per cui l’IA non funziona. Infine, va vene trattare il chatbot come un interlocutore, ma non esagerate col pensarlo un essere umano come noi.

Se avete saltato tutto il testo e siete arrivati a quest’ultimo capoverso, ecco un megariassunto in due punti: non antropomorfizzate i chatbot, e usateli per cose che siete in grado poi di verificare. Se vi attenete a questi due punti, andrà tutto bene.

Roba da pivelli

Ricordate che la scorsa settimana avevo scritto che io ho cominciato a usare gli LLM come motore di ricerca “intelligente”? Beh, ho avuto una dimostrazione fantastica.

L’altro giorno pensavo ad Happy Days, e a una delle frasi ricorrenti di Fonzie: “quella è roba da pivelli”. Mi sono chiesto quale poteva essere l’espressione originale, perché “rookie” mi sembrava troppo debole. Che ho fatto? Ho aperto Gemini e ho scritto «quando in Happy Days The Fonz diceva che qualcosa era una cosa “da pivelli”, qual era l’espressione originale inglese?» Subito mi è arrivato un pippotto che cominciava con «Nella versione originale di Happy Days, quando Fonzie (Arthur Fonzarelli) definiva qualcosa come “roba da pivelli” o “per ragazzini”, l’espressione che usava più frequentemente era: “Amateur night”».

Essendo io un tipo sospettoso, ho fatto una ricerca “classica” con stringa «”the fonz” “amateur night”» e miracolosamente – data la qualità ormai pessima dei motori di ricerca – Google mi ha dato come primo risultato questo, dove ho trovato lo scambio tra Richie e Fonzie

– I-I need my rest.
– On Saturday night?
– Yeah, I like to stay home on amateur night.

Mi ricordo perfettamente la versione italiana in cui Richie diceva “stai a casa il sabato sera?” e Fonzie replicava “Il sabato è il giorno dei pivelli”. Ho anche fatto una controprova con una ricerca standard, e naturalmente non ho trovato nulla. Certo, ci sarebbe stato il buon vecchio metodo del crowdsearching: avrei potuto cercare un forum di amanti di Happy Days e fare loro la domanda. Certo, la risposta di Gemini è tecnicamente sbagliata: la versione originale di “pivelli” è “amateurs” e non “amateur night” – il che prova che non bisogna mai prendere per oro colato le risposte date da un chatbot, ma verificarle in qualche modo. Ma l’uso di un LLM è stato più rapido del crowdsearching e mi ha portato alla risposta.

Tutto questo mi ha fatto mettere il cappellino da informatico e pensare ai problemi NP. Questi sono problemi che richiedono un tempo esponenziale rispetto alla dimensione dei dati per trovare la soluzione esatta, ma richiedono solo un tempo polinomiale (e quindi “breve”) per verificare se una supposta soluzione lo è davvero. In pratica, non devo fidarmi ciecamente di quello che dice un LLM, per quanto la narrazione sia accattivante; ma la sua risposta mi è utile perché faccio in fretta a controllare se è vera o falsa, e quindi nella peggiore delle ipotesi ho solo perso un po’ di tempo ma non ho imparato qualcosa di errato. Non vi sembra una cosa bellissima?

PS: “amateur night” è bellissimo, ma anche “il giorno dei pivelli” non è affatto male!

Epistemia

È da alcuni mesi che Walter Quattrociocchi e il suo team ha introdotto il concetto di “epistemia”. L’articolo accademico (in inglese) è stato pubblicato su Pnas, ma trovate varie spiegazioni per esempio sul sito della Sapienza che lo riassume, su un’intervista sul sito Treccani o in un suo intervento Facebook ripreso riportato anche qui.

Le ultime sue parole che ho visto in materia sono su Facebook: “Epistemia è una condizione strutturale. Descrive ciò che accade quando, in modo sistematico e su larga scala, la plausibilità linguistica prende il posto della verifica come criterio operativo di conoscenza.” Più interessanti sono forse le frasi che seguono questa definizione:

La verifica non viene rifiutata, ma saltata. Il giudizio non viene negato, viene imitato.
Quando una risposta suona bene, il cervello abbassa naturalmente le difese. È sempre successo. La novità non è il meccanismo, ma la scala, la velocità e la normalizzazione con cui oggi questo meccanismo opera.
Per questo l’epistemia non è una questione tecnologica, ma cognitiva e sociale. […] Si affronta solo recuperando una consapevolezza elementare, ma ormai rara: sapere come una risposta è stata prodotta, quali passaggi sono stati compressi, quale tipo di giudizio è stato simulato invece di essere esercitato.

Facciamo un passo indietro. In filosofia l’epistème (notate che non è “epistemia”) è la conoscenza certa. E in effetti l’epistemologia è la parte della filosofia della scienza che studia le condizioni sotto le quali si può avere conoscenza scientifica e come si può raggiungere tale conoscenza. Se ci pensiamo un attimo, arrivare alla conoscenza non è mai stato un processo semplice, ma il risultato di una verifica fatta da più persone sulla validità di un ragionamento. Attenzione: la conoscenza non è fissata una volta per tutte, ma può mutare una volta che giungano nuove evidenze che cambiano i dati in nostro possesso (falsificano la teoria, direbbe Popper) oppure li faccia vedere sotto un’altra luce (una rivoluzione scientifica, direbbe Kuhn). Banalmente, la teoria newtoniana del moto planetario è stata sostituita da quella einsteiniana, e quindi la nostra conoscenza do quel moto è parimenti cambiata. Vabbè, poi c’è Feyerabend che dice che non si può fornire una descrizione generale della scienza, ma qui andiamo fuori strada: in ogni caso però anche per lui la verifica è fondamentale, con l’unica differenza che viene fatta indipendentemente da tutte le altre possibili teorie.

Cosa succede invece con gli LLM? La verifica non c’è più. Non tanto, o non solo, da noi che ci beviamo qualunque cosa ci risponda ChatGPT, ma dai modelli stessi, che scrivono una risposta apparentemente coerente e “che suona bene” usando semplicemente regole probabilistiche di plausibilità (e un po’ di regole retoriche che puliscono la risposta, aggiungo io). Come Quattrociocchi fa notare, il nostro cervello è abituato ad abbassare le difese quando sente qualcosa che suona bene: lo fa da almeno due millenni e mezzo. Il guaio è che con il proliferare di contenuti generati dalle IA ormai sta diventando sempre più difficile capire se quella che ci troviamo davanti è una risposta che deriva da un ragionamento oppure da una struttura statistica.

Da un certo punto di vista sono leggermente più ottimista di lui, quando afferma che il problema dell’epistemia «si affronta solo recuperando una consapevolezza elementare, ma ormai rara: sapere come una risposta è stata prodotta, quali passaggi sono stati compressi, quale tipo di giudizio è stato simulato invece di essere esercitato.». Paradossalmente, il fatto stesso che ci si è accorti che gli LLM funzionano meglio in modalità “ragionamento” (che non è un vero ragionamento, ma consiste nell’esplicitare i passaggi che fanno, che rientrano come input e quindi migliorano l’aderenza alla domanda fatta) fa sì che possiamo capire meglio se effettivamente c’è solo sbobb-IA oppure il modello ha recuperato conoscenza altrui. Guardando un altro campo in cui la statistica ormai la fa da padrona, le traduzioni automatiche funzionano a sufficienza, almeno per me che generalmente mi accorgo se c’è qualcosa che non va (la narrazione qui non è ancora per fortuna entrata nei testi tradotti, e comunque vorreste leggere una traduzione automatica di Shakespeare?)

Da un altro punto di vista sono però più pessimista: mi pare davvero che la gente abbia rinunciato alla possibilità di capire le cose, perché in realtà a loro non interessa capire (quando va bene…) o addirittura si convincono di avere fatto qualcosa di straordinario “grazie all’aiuto dell’AI e alle proprie capacità” (capacità infime, ça va sans dire). La prima possibilità non è certo nata con gli LLM: da ragazzo anch’io sono stato uno di quelli che “facevano le ricerche” copiando i testi da “Il mio libro delle ricerche”, o come si chiamava. Ma dopo un po’ si sperava che crescendo si imparasse non solo a copiare ma anche a capire: magari sbagliando, ma aumentando comunque la conoscenza che si aveva. La seconda possibilità è invece nuova, almeno nella sua diffusione (i principi e i ricchi hanno sempre avuto degli yes men che approvavano entusiasticamente tutto quello che loro facevano). Non so se riusciremo a risalire da questa china che stiamo prendendo.

Il miglior mio uso degli LLM

In questi giorni mi sono trovato per due volte di fila questa battuta: «A priest, an imam, and a rabbit walk into a blood donation center.
The nurse asks the rabbit: “What’s your blood type?” “I’m probably a type O,” says the rabbit.» Ammetto di non averla capita. Cosa avvrei fatto una volta? Avrei aperto una casella di ricerca e scritto qualcosa tipo “priest imam rabbit joke”. Purtroppo sono anni che i motori di ricerca fanno sempre più schifo, e non mi basta nemmeno scegliere una stringa di ricerca particolare, come facevo in passato. Adesso ho aperto Gemini 3 e ho chiesto “could you explain this joke?” In pratica uso l’LLM come motore di ricerca (oltre che per le immagini dei post che scrivo su MaddMaths!, visto che non so disegnare).

Uno può chiedersi “ma non hai paura che si inventi la risposta?” Beh, no. In fin dei conti ho ancora la capacità di verificare la risposta, quindi se per me non ha senso posso buttarla via. E non è che la cosa cambierebbe con una ricerca standard: almeno con lo stato attuale dei risultati forniti devo comunque verificare anche lì che quanto trovo non sia farlocco. Questo non sarebbe davvero un problema: non sono legato a una tecnologia, e se Google ha deciso di passare all’immerdificazione del suo motore di ricerca per aumentare gli utili, come racconta Paolo Attivissimo e gli altri motori sono comunque meno ricchi di risultati posso tranquillamente passare a qualcosa di diverso. Il vero problema è un altro. Guardate qui:

nuove domande su stackoverflow

Questo è il numero di domande fatte ogni mese su stackoverflow. L’ha postato sull’ex Twitter Sam Rose, insieme alla query che ha usato per ricavare il grafico. Qualche anno fa, il mio motto era “when everything else fails, ask Stackoverflow”. Evidementente è un pezzo che tutti facciano come me e usano un LLM per avere le risposte alle proprie domande. Solo che a questo punto Stackoverflow chiuderà a breve: e dove riusciranno gli LLM a trovare le informazioni necessarie per rispondere alle domande? In pratica, proprio perché sono diventati così bravi a rispondere alle domande attuali rischiamo di non avere più la possibilità di far loro “imparare” le risposte alle domande future, perché nessuno aggiungerà più informazioni nei soliti luoghi di raccolta. Mi chiedo se sono l’unico ad avere questa preoccupazione.

Ah: se nemmeno voi avete capito la battuta iniziale, è perché in realtà è una metabattuta. In genere queste storielle cominciano con “a priest, an imam and a rabbi“. Il coniglio risponde letteralmente “penso di essere di tipo zero”, ma “type O” si pronuncia come “typo”, refuso. Quindi si riferisce a sé stesso, affermando che “rabbit” è probabilmente un refuso per “rabbi”…