Leggendo l’ultimo post di Alberto Romero ho avuto una sensazione piuttosto strana. Il suo punto è che ora che gli agenti IA sono diventati così bravi ad analizzare i dati, e quindi dare una risposta alle nostre domande, noi dobbiamo cambiare completamente paradigma: non concentrarci sul come fare le cose, come abbiamo fatto per millenni, ma sul cosa fare, o come dice lui “cosa vogliamo fare?”
A basso livello, il concetto ha perfettamente senso, e del resto – come capita molto spesso – gli antichi greci l’avevano già colto. Pensate alla leggenda di re Mida: la sua richiesta di far diventare oro tutto quello che toccava era stata evidentemente troppo frettolosa. Fuori dalla metafora, e tornando agli agenti AI: se noi abbiamo a disposizione sistemi come Codex (con GPT-5.3) e Claude Code (con Opus 4.6), che riescono a prendere dal mare magnum del web pezzi di codice e metterli insieme in modo abbastanza buono, il nostro lavoro si sposta dallo scrivere il codice al dover spiegare esattamente all’agente cosa vogliamo che scriva, magari anche con qualche esempio in negativo. Non per nulla c’è chi dice che ormai il punto di partenza per scrivere codice è generare i test per verificarlo. Romero afferma che le capacità che servono oggi sono insomma gusto, sape riconoscere la qualità di un risultato; giudizio, cioè saper valutare effettivamente i risultati; agentività, decidere di voler fare qualcosa e in che direzione muoversi. Infine termina dicendo che proprio perché noi abbiamo paura di essere così astratti ci tarpiamo, usando l’IA per scopi “banali” ma che ci danno l’impressione di fare qualcosa: per esempio, farci fare i riassunti di un documento oppure migliorare la prosa delle nostre email. Quello che dovremmo fare è pensare in grande.
Che cosa mi disturba in tutto questo? L’effetto Apprendista stregone. Tutti noi abbiamo visto Fantasia, e ci ricordiamo di Topolino che sapeva perfettamente cosa fare (pulire la stanza, come gli era stato chiesto), ha usato un agente (pronunciando le formule magiche per dare vita alla scopa) e si è trovato in una situazione che non si aspettava e che non sapeva risolvere. Non sto dicendo che il problema sia che stiamo arrivando alla singolarità, o se preferite alla superintelligenza di Nick Bostrom con le IA che producono graffette così bene da far finire il mondo. Sto dicendo che un agente AI, anche quando funziona male, non è una fotocopiatrice, del cui funzionamento non dobbiamo preoccuparci più di tanto se non quando togliamo un foglio inceppato. Se qui non abbiamo nessuna idea del come non avremo nemmeno idea del cosa. Attenzione: non è affatto detto – e probabilmente non sarà mai nemmeno possibile – capire quello che succede internamente nelle IA. Ma avere un’idea di come lo faremmo noi, per quanto in modo altamente subottimale, ci permette di capire cosa chiedere. Insomma, non basta avere in mente il risultato, oltre ovviamente che saper verificare se quello che ci viene venduto è un risultato, ma dobbiamo anche capire il perché di questo risultato. In matematica ciò è da sempre il pons asinorum: chi non capisce il perché sta usando una certa formula rischierà sempre di sbagliare senza accorgersene. È questo che vogliamo da una tecnologia che sarà sempre più pervasiva?

Guido Damini si autodefinisce “storico da bar” (ma è laureato con lode in storia moderna, non bara) e dovrebbe essere noto agli amanti dei podcast: io, che podcast non ne ascolto, l’ho però scoperto dalla