Archivi categoria: informatica e AI

Fantasy Internet Simulator

Da Priscilla De Pace (via Anna) scopro l’esistenza di Fantasy Internet Simulator, un progetto di un browser che fornisce pagine web come se fossimo ancora nel 1998. La cosa divertente è che le pagine mostrate in realtà non esistono, e sono generate da ChatGPT… (e la cosa triste è che somigliano molto alle pagine del mio sito. Dovrei farmi qualche domanda?)

Ultimo aggiornamento: 2024-03-21 11:34

AlphaGeometry

una dimostrazione di AlphaGeometry (dal sito di Google DeepMind) A quanto pare, DeepMind ha colpito ancora. Il progetto di ricerca sull’intelligenza artificiale di Google ha costruito un software, AlphaGeometry, in grado di risolvere i problemi delle Olimpiadi di geometria quasi a livello delle medaglie d’oro assegnate (quindi, se non vado errato, al livello del 10% migliore dei partecipanti).

La cosa più interessante è però almeno a mio parere l’approccio scelto: AlphaGeometry non usa un linguaggio naturale ma uno altamente specializzato che da un lato è più facilmente parsificabile da un computer e dall’altro è leggibile (da un matematico, claro). Questo vuol dire che non solo ha spesso dato le risposte corrette (25 su 30 problemi del test), ma che le ha date in modo “matematico” e non tirando a indovinare come spesso pare capitare nei sistemi di AI. È vero, come si legge per esempio nell’articolo che gli sviluppatori hanno pubblicato su Nature, che il dominio della geometria piana euclidea è molto specifico e quindi è più facile trovare un modello che dia risposte corrette, ma credo che questo sia un passo avanti molto importante nel creare software davvero intelligenti.

(immagine dal sito di DeepMind)

“spesso comprati insieme”

comprati insieme: lettore contactless e millechiodi Se comprate su Amazon, sapete bene che Bezos ha fatto mettere nella pagina degli oggetti una sezione “spesso comprati insieme”. Capita però spesso che non si capisca bene la logica degli acquisti, come nel caso mostrato qui in foto. Il millechiodi serve perché nessuno rubi il lettore contactless?

La risposta è probabilmente molto più semplice, ed è legata a un algoritmo costruito in maniera tale da selezionare tutti gli acquisti del primo articolo e cercare quello o quelli comprati più spesso insieme. Il guaio è che se il numero di acquisti è ridotto, e magari chi l’ha comprato non ha aggiunto null’altro. Il risultato è che ci si trova nella famosa “coda lunga”: magari tutti gli acquisti combinati fatti sono di oggetti diversi, e quindi l’algoritmo ha preso uno qualunque degli ordini, di qualcuno che aveva semplicemente anche bisogno del millechiodi. Come si suol dire, niente intelligenza artificiale ma solo stupidità algoritmica.

Ma è davvero una stupidaggine? Dipende dal punto di vista. Il costo marginale di presentare i risultati della ricerca è virtualmente nullo. La probabilità che a qualcuno venga in mente di comprare il millechiodi già che c’è è molto bassa, ma non nulla: in effetti qui la coda lunga entra in azione. Che ci sia qualcuno che rida degli accostamenti è insomma irrilevante: non pensiamo sempre al nostro orticello!

Aggiornamento: (09:40) Ho fatto l’ordine (senza Prime) ieri alle 10.20. La data di consegna prevista (dal mio giornalaio) era sabato. Stamattina alle 8.40 è arrivato il messaggio che il pacco era stato consegnato. Insomma Prime serve a poco in realtà…

Ultimo aggiornamento: 2024-01-18 09:43

“Impossibile” creare AI generative senza copyright

il logo di OpenAI Leggo dal Guardian (ma immagino sia scritto ovunque…) che OpenAI afferma che sia impossibile addestrare i LLM generativi come ChatGPT senza usare materiale sotto copyright. Per la precisione, dicono che “supportano il giornalismo, fanno accordi con aziende del settore, e che la causa del New York Times (che li ha citati per violazione di copyright) non ha fondamento”.

Consiglio di leggere la difesa di OpenAI al link qui sopra, perché è un classico esempio di come si fa in fretta a spostare il punto del contendere. Non mi riferisco tanto al fatto che OpenAI ha implementato un sistema di opt-out per chi non vuole che il suo materiale da quel momento in poi (enfasi mia) non venga più usato, tacendo su quanto è stato fatto in precedenza. Né alla frase «We had explained to The New York Times that, like any single source, their content didn’t meaningfully contribute to the training of our existing models and also wouldn’t be sufficiently impactful for future training.» Questa frase non ha alcun senso dal punto di vista legale: pensate a una causa per furto di alcune monete antiche esibite in una mostra e alla difesa “ma la nostra mostra non sarebbe stata differente anche se non ci fossero state quelle monete. Ma anche la difesa fatta davanti al parlamento britannico è lampante: “Poiché oggi il copyright tocca praticamente ogni tipo di espressione umana – compresi post nei blog, fotografie, messaggi nei forum, frammenti di codice e documenti governativi – sarebbe impossibile addestrare i modelli più avanzati odierni di AI senza usare materiale sotto copyright”.

Il punto per me è un altro. O paghi per usare materiale sotto copyright – il termine significa proprio questo: tu che sei titolare decidi quanto vale il tuo materiale – o mostri che il concetto di copyright come è declinato oggidì è malsano. Il tutto senza contare che OpenAI mette (volutamente…) sullo stesso piano tipi diversi di copyright. I documenti governativi, per esempio, sono di solito liberamente riutilizzabili; i blog hanno spesso una licenza non commerciale (come nel mio caso: non che io pensi che qualcuno addestri un’AI anche con le mie notiziole), e lo stesso capita spesso con foto e codice. Nulla insomma a che fare con gli articoli di giornale.

Non mi sembra poi che si possa invocare così facilmente il fair use, ovviamente restando sul diritto anglosassone perché da noi non se ne parla proprio: il fair use implica che si usa una piccola parte del materiale sotto copyright, mentre per definizione l’addestramento di un LLM generativo ne usa tanto, tantissimo. (sulla singola risposta ne sfrutta poco, ma quella è un’altra storia). Capirete però che un simile approccio apre un vaso di Pandora, il che non conviene neppure a OpenAI che con i suoi modelli ci vuole fare i soldi. In definitiva consiglierei di preparare i popcorn.

dopo il Dottor Sottile…

Paolo Benanti Diciamo che lo scorso ottobre la nomina di Giuliano Amato alla presidenza della Commissione sull’Intelligenza Artificiale mi aveva fatto immaginare che la Commissione in questione fosse semplicemente un baraccone politico: l’unico dubbio era come mai Meloni avesse scelto Amato. Ieri il PresConsMin ha spiegato urbi et orbi che la nomina era stata fatta a sua insaputa: Amato avrà deciso che tanto non veniva comunque considerato dai media e ha alzato le tende, non senza dire che “ci perdono qualcosa”.
Con incredibile rapidità il governo ha nominato un nuovo presidente: un prete, padre Paolo Benanti. Non ci sono dubbi sulle sue competenze in materia, intendiamoci: tanto per dire, il segretario generale dell’ONU Guterres l’ha inserito nel New Artificial Intelligence Advisory Board. Però fa un po’ ridere che dopo chi ha come soprannome quello del sacerdote e teologo Duns Scoto si sia scelto di passare direttamente a un sacerdote…

(foto: autore Paolo Pegoraro, da Wikimedia Commons – CC-BY-SA 4.0)

Ultimo aggiornamento: 2024-01-06 22:02

Un LLM più bravo degli umani nei problemi matematici?

Il mio amico Ugo mi segnala questo articolo di Nature con il titolo piuttosto allarmistico “DeepMind AI outdoes human mathematicians on unsolved problem”. Ho letto l’articolo e direi che l’affermazione è un po’ esagerata, o meglio non è poi una novità così importante. Come mai?

Comincio a spiegare di cosa si sta parlando. Set, anzi SET, è un gioco di carte, con un mazzo di 81 carte (34) che hanno immagini con quattro caratteristiche (numero elementi, forma, colore, riempimento), ciascuna presente in tre versioni diverse. Un set è un insieme di tre carte dove ogni caratteristica è presente sempre nella stessa versione oppure in tutte e tre le versioni possibili. Nella figura abbiamo tre numeri, tre colori, tre forme e tre riempimenti e quindi c’è un set; ma se i rombi e i rettangoli arrotondati fossero stati due anziché 1 e 3 rispettivamente avremmo comunque avuto un set.

Ora, è stato dimostrato che se si prendono 21 carte si è certi di trovare almeno un set, ma con 20 carte potremmo non averne alcuno; pertanto 21 è il numero minimo di carte necessarie. Come sapete, i matematici amano generalizzare le domande, e quindi si sono chiesti qual è il numero minimo di carte necessario in un (teorico…) mazzo con n caratteristiche, e quindi 3n carte. (L’articolo scrive “3n” perché nessuno sta lì a controllare che non si perdano gli esponenti). Questa domanda in generale non ha ancora risposta per n>6, e sono solo noti limiti superiori e inferiori (in parole povere: sappiamo che per un certo n il numero minimo di carte è maggiore o uguale a un certo k e minore o uguale a un altro K, con k<K). Cosa hanno fatto quelli di Google DeepMind? Hanno addestrato un LLM, chiamato FunSearch (il “Fun” non sta per “divertimento” ma per “funzione”: insomma l’LLM lavora sullo spazio delle funzioni) e gli hanno chiesto di scrivere dei brevi programmi di computer che generano insiemi di carte per cui non è possibile costruire un set. Molti di questi programmi non possono girare perché hanno errori di sintassi, ma essi vengono eliminati da un altro programma; quelli “buoni” sono stati fatti girare e hanno trovato un insieme di carte 8-dimensionale che è più grande del limite inferiore noto fino ad ora. Insomma, l’LLM ha generato un risultato matematico nuovo.

(Per chi vuole qualche informazione in più, dal paper si legge che il compito è stato riscritto in modo equivalmente come una proprietà di grafi; direi che la scelta di avere un programma generatore è legata al fatto che in questo modo la complessità della generazione di una configurazione cresce molto più lentamente al crescere di n e quindi è trattabile algoritmicamente. Infine, è chiaro che per quanto il risultato finale sia importante non c’è nessuna garanzia che quanto trovato sia il valore esatto, e nessuno se lo sarebbe aspettato.)

Qual è il mio pensiero al riguardo? Per prima cosa sgombro il campo da un possibile equivoco: che l’LLM di suo generi programmi non eseguibili è un non-problema, fintantoché esiste un modulo automatico distinto che se ne accorge e li butta via (e moduli come questo sono a disposizione da una vita). Anch’io se dovessi scrivere un programma su carta rischio di fare errori di sintassi :-) La parte che trovo davvero interessante nell’approccio proposto è proprio quella: avere un sistema integrato che riceva un input in linguaggio naturale e controlli automaticamente la validità delle proprie risposte. Potrebbe anche essere interessante il fatto che l’LLM abbia generato tra le tante euristiche per trovare questi set qualcuna che non era mai venuta in mente agli esseri umani. Però resto sempre dubbioso sul definirlo un breakthrough e non semplicemente un miglioramento sulle tecniche che si usano da decenni, come per esempio gli algoritmi genetici che hanno anch’essi un comportamento impredicibile a priori. Certo, gli autori dell’articolo si affrettano ad aggiungere che a differenza dei soliti LLM qui abbiamo un’idea (il programma generato) di come abbia lavorato l’algoritmo, ma di nuovo mi sembra che stiamo mischiando due livelli diversi.

In definitiva, io aspetterei ancora un po’ prima di gioire o fasciarmi la testa…

(Immagine di carte SET di Miles, su Wikimedia Commons, Public Domain)

Ultimo aggiornamento: 2024-01-06 17:23

Il costo delle AI

chatgpt non accetta nuovi abbonati
Come scrive Franz Russo, il fatto che ChatGPT non accetti più per il momento nuovi abbonamenti (e quindi perda soldi) ci dovrebbe far pensare ai costi nascosti di questi programmi di intelligenza artificiale. Il costo computazionale di chiedere una cosa a ChatGPT, o a un’altra AI, è molto alto; quidi per dare risposte ci vuole tanto spazio disco e tanta CPU (la banda in questo caso è meno importante). Eppure sono in pochi a pensare al costo energetico di tutto questo…

Ultimo aggiornamento: 2023-11-15 12:37

Come non riconoscere il contesto

La scorsa settimana è stato pubblicato in UK Headscratcher, la raccolta dei giochi della rivista New Scientist. Se mi seguite, sapete che riciclo spesso quei giochi per i miei quizzini della domenica: non appena ho saputo che il libro era in preordine mi sono subito lanciato a prenotarlo. A quanto pare però la spedizione è ancora ferma, quindi in un thread su X-già-Twitter ho scritto che la spedizione non era ancora partita, e ho fatto l’ipotesi che Bezos aspettasse di poterlo stampare on-demand in UE in modo da evitare i dazi. Dopo nove minuti, “Amazon Help” ha risposto così: «Hi, when your order is shipped you will receive a shipping confirmation email. Thank you! -Nina».

Sono abbastanza grandicello da sapere che questo tipo di messaggi, nonostante il nome di persona, è generato automaticamente. Ma soprattutto è generato in modo stupido: so benissimo che mi arriverà una mail quando il libro sarà spedito, ma non avevo mica chiesto quando sarà spedito. La vera domanda che mi faccio ora è cosa ha fatto partire questa “interazione” (avevo già scritto Amazon nel tweet precedente, e mi sarebbe piaciuta una risposta a quella domanda…) e se c’è davvero dietro un software di AI oppure si usano le care vecchie euristiche che non funzionano di loro.

Aggiornamento: (h 22:00): come potete vedere, Amazon persevera (e continua a non spedire il libro). Mi è stato chiesto se non avesse trovato i dati facendo un’interpolazione con il mio ordine: la risposta è negativa, considerando che ho usato il Prime di Anna e quindi non è a nome mio, anche se sono la persona che lo ritirerà.

Ultimo aggiornamento: 2023-10-09 22:37