Per chi è armato di buona volontà e vuole conoscere come funzionano sistemi del genere consiglio: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/.

“fare in modo che sia l’interlocutore stesso a dargli le informazioni, che poi vengono frullate in modo che sembrino delle scoperte”

Tecnicamente parlando quello che chatgpt & co fanno è costruire una frase modellata su altre già lette con sequenze di parole simili, alternando le parole usate come risposta da una base casuale di materiale dello stesso tipo. La novità rispetto allo storico Eliza è il metodo utilizzato per derivare il materiale simile a quello in input, utilizzando una loss function su una rete multimodale.
Una altra fonte interessante per chi è curioso di come vengano prodotti strumenti del genere è questo articolo: https://research.facebook.com/file/1574548786327032/LLaMA–Open-and-Efficient-Foundation-Language-Models.pdf

Inoltre chiunque di voi, armato di un pc sufficientemente potente può far girare la baracca da qui https://github.com/randaller/llama-cpu.