Mi è capitato solo ieri di leggere questo post di Arianna Ciccone che fa un po’ di considerazioni sull’aumento dei ban temporanei su Facebook: sempre più persone si trovano impossibilitate a postare per uno o più giorni perché un loro post è stato segnalato come non consono agli standard della piattaforma. Valigia blu ha raccontato che queste segnalazioni non vengono gestite da chissà quali algoritmi di intelligenza artificiale, ma da persone nel nostro caso italiofone – non necessariamente italiane, e sicuramente non di stanza in Italia – di aziende a cui viene subappaltato lo sporco lavoro di decidere in pochi secondi se quanto postato è effettivamente “punibile”. Le virgolette servono a ricordare che Facebook non è un servizio pubblico e può sempre fare quello che vuole. Arianna si chiede se Facebook abbia avuto il caldo consiglio di picchiare più duro sui discorsi d’odio più o meno diretti, oltre a non concordare con me sulla frase “Facebook può fare quello che vuole”, ma questo è comprensibile: come probabilmente sapete io non sono molto interessato a far conoscere il mio pensiero tanto al di là dei miei ventun lettori e quindi posso fregarmene, mentre per tanta altra gente usarlo diventa necessario. Ma questo non è poi così importante. Quello di cui invece vorrei parlare è la gestione delle segnalazioni.
Mentre per una tetta al vento è possibile immaginare che un algoritmo selezioni l’immagine e la mandi direttamente alla squadra di controllori, per i messaggi d’odio le cose funzionano ancora come una volta: quando un numero sufficiente di persone segnala un post, questo viene controllato. Il sistema funziona abbastanza bene in condizioni normali: ma non appena una persona o una pagina diventano abbastanza note è molto facile recuperare un gruppo di persone che segnali apposta un post normale che a loro non piaccia, sperando che nella fretta venga cancellato e magari il suo autore venga bloccato. Bene. Quello che mi chiedo è se non sia possibile (con i famosi mezzi algoritmici, o se preferite con i BigData di cui ci si riempie tanto la bocca) accorgersi come prima cosa delle segnalazioni di gruppo, e poi dare pesi negativi alle segnalazioni che corrispondono a post ritenuti buoni in prima o in seconda battuta. Questo sì che sarebbe un uso interessante, e probabilmente semplificherebbe anche la vita ai poveri censori a contratto…
“…a non concordare con me sulla frase “Facebook può fare quello che vuole”, ma questo è comprensibile: come probabilmente sapete io non sono molto interessato a far conoscere il mio pensiero tanto al di là dei miei ventun lettori e quindi posso fregarmene, mentre per tanta altra gente usarlo diventa necessario.”
Non sono d’accordo su questa impostazione: se lasciamo fare a FB tutto quello che vuole (od ad altri, non importa) non solo ci lasciamo infinocchiare come e quanto si vuole, che già è da scemi, ma implicitamente definiamo una autorità (morale) costituita da una mega corporation che di fatto comanda cosa vedere e cosa no (al pari della TV di una volta). Davvero Internet è un miglioramento rispetto a prima? Secondo me si profila un peggioramento: almeno nella tv berlusconiana il destinatario della propaganda era solo un italiano. Ora la propaganda è mondiale, bella roba…
“quello che mi chiedo è se non sia possibile (con i famosi mezzi algoritmici, o se preferite con i BigData di cui ci si riempie tanto la bocca) accorgersi…
Qualcosa si può fare. Tieni presente che:
1) algoritmi di questo tipo sono “lenti”, richiedono molto training. Le situazioni problematiche sono invece molto varie e spesso molto rapide. Non è facile mettere d’accordo le due cose (supportando molte lingue diverse).
2) Il costo computazionale è elevato, e non avrebbe un ritorno diretto in termini di pubblicità.
“Questo sì che sarebbe un uso interessante, e probabilmente semplificherebbe anche la vita ai poveri censori a contratto…
Se per semplificare intendi dire il licenziamento, allora sì.
Ah, adesso Facebook non fa quello che vuole? Non è certo questo il punto fondamentale sul comportamento di Facebook. Dal mio punto di vista è molto peggio non avere nessun modo per stabilire cosa ci viene propinato nella timeline, e un sistema di ricerca che dire subottimale è un complimento.
Per il resto, non penso a un sistema che sostituisca i censori a contratto, ma che piuttosto dia loro più strumenti per prendere la decisione.
Certo che fa quello che vuole, ma è proprio questo che non è giusto, implementazione a parte….
Qualunque automatismo viene fatto per aumentare la produttività che in ultima analisi significa far fuori gli umani e/o fargli fare più cose.
intervengo o meglio scrivo off topic, per segnalarti un sospetto di “reductio ad Hitlerum” (del trumpismo nella fattispecie): http://thehill.com/blogs/pundits-blog/media/348404-medias-casual-nazi-comparisons-grossly-insult-endanger-jews
E poi Elon Musk ha tanta paura dell’intelligenza artificiale! Gli algoritmi che lo fanno tanto cagare sotto sono più stupidi della polvere, altro che intelligenza.