Avrete sicuramente letto che in questi giorni Facebook ha cominciato a testare la funzionalità di “segnalazione bufale”, che tanto clamore aveva suscitato all’atto del suo annuncio. Per il momento a quanto pare funziona solo per gli americani: almeno a me la pagina relativa di help mi dice “ciccia”. Leggendo però quanto scritto da Gizmodo concordo con loro: Zuckerberg ha fatto il miglior compromesso possibile. In pratica l’avviso è sulla singola notizia, e non su tutto il sito, e soprattutto si limita a indicare che la notizia è “disputed”, cioè controversa, e aggiungere le fonti che la indicano come tale. Devo dire che mi ha lasciato molto perplesso il fatto che tutto questo sia fatto da esseri umani: ero convinto che si potesse automatizzare praticamente tutto, anche considerato il fatto che se non erro la lista dei siti che sono stati scelti per controllare le notizie non è poi infinita. Tutt’al più mi sarei aspettato che oltre un certo numero di segnalazioni da parte degli utenti il sistema partisse per conto suo, e tutt’al più l’omino della situazione desse l’ok finale; ma leggendo il Post direi che non è così. Se questo non è possibile, vuol dire che i sistemi intelligenti non sono ancora poi così intelligenti nemmeno in un campo relativamente ben delimitato come questo; e tra l’altro i tempi di segnalazione si allungano parecchio.
Perché compromesso? Beh, semplice. Chi sceglie le terze parti che contestano un articolo è sempre Facebook, e così siti come RT possono criticare la cosa anche a ragione. Forse aggiungere anche la lista dei siti che ritengono reale la notizia aiuterebbe, perché almeno a prima vista ci sarebbe un certo qual equilibrio, ma qui si ritorna alla casella 1. Io non voglio che ci sia qualcuno che mi dica “questo è vero e quest’altro è falso”. Ma d’altra parte non ho nemmeno il tempo di informarmi su tutto a livello tale da riuscire a capire quando una notizia falsa-ma-ben-fatta è appunto falsa. È vero che almeno il 95% delle bufale su Facebook sono fatte così male che non ci vuole molto ad accorgersene, ma non è detto che in futuro sarà sempre così. Il risultato pratico è che dopo un po’ io comincio a ritenere un sito “affidabile”, il che è una cosa pericolosissima. Tanto per fare un esempio pratico, io spero di essere abbastanza affidabile quando si parla di matematica, ma sono totalmente inaffidabile se si passa alla fisica. Lo stesso capita per i siti: basta spostarsi appena un attimo dal loro core business, e prendono cantonate tanto quanto noi. Insomma bisogna continuare ad azionare il cervello (e probabilmente studiare un po’ di retorica per accorgersi dei trucchi usati nei testi, ma quello è in effetto più complicato). Vedere solo scritto “X e Y contestano la notizia Z” rischia di far passare automaticamente il concetto “Z è falso”, il tutto sotto il benevolente cappello di Facebook. Non è proprio possibile far fare un po’ di alfabetizzazione informatica, oltre a queste segnalazioni?
P.S.: Ho chiesto a un mio amico americano di copincollarmi il testo della pagina di help: ecco il risultato.
You may see that certain news stories are marked as disputed on Facebook. News stories that are reported as fake by people on Facebook may be reviewed by independent third-party fact-checkers. These fact-checkers will be signatories of the non-partisan Poynter Code of Principles. A story may be marked as disputed if these fact-checkers find the story to be fake.
To see why a news story was marked as disputed on Facebook:
Hover and click underneath the disputed story.
Click About Disputed Stories, or go directly to the independent fact-checking website.
Bahhh, il fatto che controllino affidabilmente le news false è tutto il “dibattito” in merito mi sembra completamente falso.
E non credo che toverò mai un servizio di controllo serio che dica il contrario.
Fare un Google con “The Science News Cycle” :)