Anche quest’anno Openpolis ha fatto il test elettorale, questa volta per le grandi città dove si vota per le amministrative. Ci sono venti domande, così ad occhio una quindicina uguali per tutte e le altre locali. Nell’immagine potete vedere dove sarei finito io.
Premesso che questi sono semplici giochini, vi siete accorti che c’è un problema metodologico di base? (ne parlo sul Post, btw)
Ultimo aggiornamento: 2016-05-26 15:43
Sul post l’articolo però non ci sta mica.
ciò non è bello. Non tanto per il post perso (avevo una copia di backup, col nuovo titolo dovrebbe essere ora visibile) quanto perché non so cosa sia successo.
permettimi di fare la mia propaganda per Sala (non siamo ancora nel weekend del silenzio). Sala 1. è a metà strada tra le estreme 2. ha sconfitto il cancro dicendo che alla fine ha imparato da quell’esperienza terribile a dare peso soltanto alle cose realmente importanti, che è un pregio umanamente e politicamente 3 ha rotto più le palle lui (a mio modesto avviso forse un po’ superficiale) ai berlusconiani, di quanto non gieli abbia rotti gente schierata proprio a sinistra da sempre 4 ha fatto l’expo, per cui oggi a Milano siamo nella 13a città più visitata al mondo e non in un dormitorio. devo aggiungere ancora qualcosa?
il problema metodologico si risolverebbe da solo applicando semplici tecniche di statistical learning e chiedendo agli intervistati (o a un sottoinsieme di essi) di indicare il candidato preferito oltre che rispondere alla domande, ma quelli di openpolis invece che studiare hanno aperto un gruppo di discussione su google groups.
Beh, no. Troveresti al più il candidato percepito più vicino, ma sarebbe un risultato di pancia.
non è detto, dipende dal campionamento del training set
no, hai ragione, si passerebbe da una pura distanza dalle posizioni dei candidati a una distanza dai sottospazi delimitati da iperpiani definiti da come i candidati sono percepiti dal training set