Grazie agli amici di LSDI ho scoperto questo articolo di Mashable che riporta una ricerca dell’università dell’Alberta su quanto gli assistenti vocali “funzionino” nel caso di richieste legate al primo soccorso. Spoiler: non funzionano. Dei quattro sistemi testati, due non riuscivano nemmeno a capire le domande poste: gli altri due le comprendevano nel 90% dei casi, ma davano risposte sensate una volta su due.
Oggettivamente non mi sarei aspettato molto di diverso, almeno nel caso dei due assistenti meno peggiori: per gli altri due c’è effettivamente un problema, come quando alla domanda “voglio morire” la risposta è stata “come posso aiutarti?”. Il problema è che dovrebbe essere ovvio che gli assistenti non “sanno” nulla: al più sanno dove cercare le informazioni, e spesso la fonte è Wikipedia (o sperabilmente Wikidata, che ha informazioni più facilmente digeribili da una macchina). Qual è la probabilità che – per quanta cura ci si possa mettere – le informazioni sul primo soccorso ivi presenti siano valide? Ben poco. Basta vedere che già il triage ospedaliero, fatto da esseri umani qualificati, non sempre ci azzecca. Perché un assistente vocale possa dare risultati decenti occorre (a) che qualcuno metta su da qualche parte informazioni buone, coerenti e “macchinizzabili”, e (b) che chi programma gli assistenti vocali li faccia puntare a quella fonte quando si riconosce il campo d’azione. Io sono abbastanza convinto che chi fa il software di cui al punto (b) queste cose le sappia abbastanza bene, e non è certo un caso che sempre l’articolo riporta come quelli di Amazon abbiano chiesto lumi su come si potrebbe fare meglio; ma resta il punto di partenza che non si possono fare le nozze con i fichi secchi, e soprattutto che non è che pubblicizzi il tuo assistente vocale per mostrare come è bravo a suggerirti di chiamare il 112. Per quello basta il Salvavita Beghelli…
parlando da medico, e medico “all’antica”, credo che difficilmente sarà possibile giungere ad un livello decente di efficienza ed efficacia. Per i motivi che dici, cui aggiungo che anche l’interrogante dovrebbe essere parimenti istruito e capace di distinguere, filtrare, porre le domande giuste,… Nella vita reale le variabili sono troppe. Esempio minimo: a Bologna molti pazienti riferiscono di “avere il gomito”. Una macchina sarà capace di capire che si tratta di vomito? anzi, molto spesso solo di nausea o di eruttazioni?
“Gomito/vomito” mi pare la cosa più semplice per una macchina, ci si arrivava già con la tecnologia di trent’anni fa. Sul resto, serve la capacità di fare le domande giuste, per l’appunto, il che si ottiene con tanto addestramento.
siamo sicuri? se fosse Komito/vomito , non ho dubbi. Ma avere il gomito è una frase che ha senso… Non conosco gli assistenti vocali di cui parli; ma i programmi di AI in campo clinico che ho visto finora sono molto scarsi. Migliori quelli di interpretazione di radiografie, TAC, o di vetrini di istopatologia. Dove pare che abbiano dati risultati migliori del lettore in carne e ossa
Il punto è come sempre il contesto. “Ho il gomito” è una frase sintatticamente corretta ma semanticamente poco sensata: si dice “ho un gomito / ho due gomiti / ho il gomito che mi fa male”. Il punto è che vogliamo che Siri Cortana Alexa e simili rispondano (anche) a dubbi di primo soccorso allora dobbiamo tarare i loro algoritmi. Oppure si fa come Wikipedia che scrive in grande “non prendetemi come un supporto medico “.
molto interessante: per fare l’avvocato del diavolo, …questi marchingegni sono in grado di capire anche il tono della voce. se uno mi dice: “ho un gomito…” nel senso che è un vomito fortissimo, esiste il software per differenziare?
Questo non lo so, è parecchio che non seguo più il campo.