Grazie agli amici di LSDI ho scoperto questo articolo di Mashable che riporta una ricerca dell’università dell’Alberta su quanto gli assistenti vocali “funzionino” nel caso di richieste legate al primo soccorso. Spoiler: non funzionano. Dei quattro sistemi testati, due non riuscivano nemmeno a capire le domande poste: gli altri due le comprendevano nel 90% dei casi, ma davano risposte sensate una volta su due.
Oggettivamente non mi sarei aspettato molto di diverso, almeno nel caso dei due assistenti meno peggiori: per gli altri due c’è effettivamente un problema, come quando alla domanda “voglio morire” la risposta è stata “come posso aiutarti?”. Il problema è che dovrebbe essere ovvio che gli assistenti non “sanno” nulla: al più sanno dove cercare le informazioni, e spesso la fonte è Wikipedia (o sperabilmente Wikidata, che ha informazioni più facilmente digeribili da una macchina). Qual è la probabilità che – per quanta cura ci si possa mettere – le informazioni sul primo soccorso ivi presenti siano valide? Ben poco. Basta vedere che già il triage ospedaliero, fatto da esseri umani qualificati, non sempre ci azzecca. Perché un assistente vocale possa dare risultati decenti occorre (a) che qualcuno metta su da qualche parte informazioni buone, coerenti e “macchinizzabili”, e (b) che chi programma gli assistenti vocali li faccia puntare a quella fonte quando si riconosce il campo d’azione. Io sono abbastanza convinto che chi fa il software di cui al punto (b) queste cose le sappia abbastanza bene, e non è certo un caso che sempre l’articolo riporta come quelli di Amazon abbiano chiesto lumi su come si potrebbe fare meglio; ma resta il punto di partenza che non si possono fare le nozze con i fichi secchi, e soprattutto che non è che pubblicizzi il tuo assistente vocale per mostrare come è bravo a suggerirti di chiamare il 112. Per quello basta il Salvavita Beghelli…