Posts in Category: Archivi

[WIKIPEDIA] Wikipedia metterebbe in pericolo la conoscenza?

L’edizione americana di Wired ha pubblicato in questi giorni un articolo del blogger iraniano-canadere Hossein Derakhshan dall’inquietante titolo “Wikipedia’s Fate Shows How the Web Endangers Knowledge”. A dirla tutta, Wikipedia è citata solo tangenzialmente nell’articolo, la cui tesi afferma che la nostra cultura si è spostata da una preminenza del testo a quella dell’immagine, intesa non solo come foto e video ma proprio come apparenza; la televisione prima e i social network poi hanno messo l’accento sulla gratificazione visiva immediata, e neppure l’enciclopedia libera riesce a contrastare questa spinta, sia per la riduzione del numero di contributori che per la crescita di voci dedicate ai divi televisivi. (Se avesse visto Wikipedia in lingua italiana avrebbe parlato anche dei calciatori: ma il punto non sarebbe cambiato poi di molto)

Leggendo il testo con un po’ più di attenzione, mi pare che Derakhshan si sia comportato come colui che ha in mano un martello e vede tutto intorno a lui come chiodi; oppure se preferite come chi ha una tesi e aggiusta i fatti perché corrispondano al risultato finale che lui vuole. Giusto per segnalare un paio di punti: è indubbiamente vero che le campagne di fundraising della Wikimedia Foundation hanno sempre toni apocalittici, ma i bilanci effettivi sono solidi; e l’avvento di Trump alla presidenza degli USA non ha cambiato le abitudini dei donatori. Inoltre il WWW non è nato come sistema testuale ma grafico, usando le workstation NeXT e sfruttando la capacità di banda della rete interna del CERN; il fatto che ì primi browser web fossero testuali, come del resto il fatto che gli antecedenti del Web come gopher fossero sistemi testuali, dipendeva solo dal costo delle connessioni dati di allora. Ma torniamo alla parte che più riguarda Wikipedia.

È assolutamente vero che il numero di contributori è fondamentalmente costante da anni: l’articolo citato da Derakhshan è del 2015 ma basta vedere le statistiche attuali per sincerarsene. Anzi potremmo dire che il 2015 è stato il punto più basso, e poi c’è stata una leggerissima ripresa. È anche però vero che la conoscenza di base dell’umanità non sta aumentando più di tanto; quello che aumenta – tantissimo – è la conoscenza specializzata. Ma Wikipedia non è il luogo dove si salva la conoscenza nuova! Il suo scopo è essere il punto di partenza per riunire l’informazione esistente e verificata da altri. Questo significa che rispetto ai suoi inizi diventa sempre più difficile trovare argomenti non dico su cui scrivere ex novo ma almeno da migliorare significativamente. Nel bene e nel male, essa è un prodotto della metodologia “good enough”; la si può sempre migliorare, ma spesso il gioco non vale la candela.

Quella che però ritengo più interessante è la dichiarazione della necessità di salvare Wikipedia dal triste fato di diventare il luogo dove “raccogliere e conservare conoscenza che non interessa a nessuno”. In questo caso l’incomprensione è doppia. La prima e più banale è che se qualcuno le scrive e tanti le leggono, quella conoscenza oggi interessa. Magari non interesserà più tra un mese, un anno o dieci anni; ma non è detto. La seconda incomprensione è invece legata come capita spesso alla concezione ancora “cartacea” di un’enciclopedia. Mentre lo spazio occupato da un certo numero di tomi è quel che è, e richiede un’attenta valutazione di cosa si può mettere e cosa no, lo spazio su Wikipedia è praticamente illimitato e si può mantenere tutto senza costi eccessivi di immagazzinamento. Meglio ancora: penserete mica che chi è appassionato di Suburra o delle statistiche del campionato di calcio di serie B e quindi inserisce a getto continuo materiale al riguardo si metterebbe a scrivere di scapigliatura oppure di spazi di Hilbert nel caso non potesse più migliorare i temi che gli interessano?

In definitiva, prendere Wikipedia come un monolite e calcolare la variazione nel tempo del “fattore di importanza” secondo una metrica personale non ha molto senso; è molto più opportuno guardare i risultati assoluti e non quelli relativi.

HOWTO: Cambiare il font in GeoGebra

Una delle cose più fastidiose di GeoGebra è che le etichette degli oggetti sono sempre scritte troppo in piccolo. Per ovviare a questo problema ci sono due possibilità. La prima è aumentare la dimensione di tutti i font da Options → Font Size, e poi ridurre quella del test da Options → Advanced → Font Size. La seconda è mettere come caption del simbolo la stringa

$ \scalebox{4} %n $

dove “4” è la dimensione relativa del carattere rispetto al default.

[WIKIPEDIA] Turchia e Wikipedia: nessuna nuova, cattiva nuova

[post pubblicato su Wikimedia Italia]

Il 29 aprile scorso, le autorità turche hanno bloccato l’accesso a tutte le edizioni linguistiche di Wikipedia; il motivo addotto dal regime è l’inclusione del Paese sotto le voci «Paesi stranieri coinvolti nel conflitto in Siria» e «Stati che hanno fornito sostegno al terrorismo jihadista». Il fatto che si acceda a Wikipedia usando il protocollo crittato https e non il semplice http fa sì che sia impossibile bloccare l’accesso alle singole pagine, e quindi l’Autorità Regolatrice dell’Informazione e delle Comunicazioni turca, presumibilmente seguendo una richiesta del presidente Recep Tayyip Erdoğan, ha ordinato il blocco totale per l’enciclopedia.

Cosa è successo in questo mese e mezzo? Nulla. Gli appelli per la rimozione del blocco, anche da parte della Wikimedia Foundation, sono stati respinti: la corte ha sentenziato che «la libertà di espressione non è un diritto assoluto, e può essere ristretto se le condizioni lo rendono necessario e nelle situazioni in cui è richiesta moderazione». Dal fallito colpo di stato del luglio scorso la Turchia è in effetti ancora in stato di emergenza. L’accesso diretto a Wikipedia è dunque ancora bloccato.

La situazione attuale è ben spiegata in un articolo di Patrick Kingsley sul New York Times, Turks Click Away, but Wikipedia Is Gone. Wikipedia non è affatto l’unico sito oggetto di blocco da parte delle autorità turche, e dunque i cittadini hanno cominciato ad adottare una serie di contromisure: in pratica usano le VPN (reti private virtuali, connessioni crittografate verso un sito esterno che fa da ponte) per accedere ai contenuti che sono loro preclusi. Tutto è bene quel che finisce bene, insomma? Per nulla.

I turchi possono infatti accedere a Wikipedia, seppure con un po’ di fatica, ma non possono modificarne il contenuto. La Wikimedia Foundation impedisce infatti di editare Wikipedia a chi usa una VPN. La ragione è semplice: l’accesso con rete privata rende impossibile un’attività fondamentale per la corretta gestione dell’enciclopedia libera, ossia controllare chi fornisce contenuti e individuare chi inserisce appositamente materiale falso, in modo da impedire loro di compiere ulteriori vandalismi. Proprio perché un accesso via VPN non è tracciabile, risulterebbe troppo pericoloso e pertanto è bloccato: la coperta insomma è troppo corta.

L’impossibilità di editare Wikipedia può sembrare una cosa relativamente poco importante rispetto al riuscire ad accedere in lettura: in fin dei conti tutti consultano l’enciclopedia libera ma sono relativamente pochi coloro che ci scrivono. Purtroppo le cose non funzionano così: un testo che non può venire modificato è come una pianta a cui non viene data acqua. Prima o poi avvizzisce. Anche le enciclopedie ordinarie pubblicano regolarmente degli aggiornamenti, ma Wikipedia nasce come un aggiornamento continuo: ecco perché il blocco turco è un precedente pericoloso, e dobbiamo continuare a fare il possibile perché sia tolto.

[WIKIPEDIA] Burger King e The Verge: come non usare Wikipedia

La scorsa settimana i media – non solo americani ma anche italiani, vedi per esempio Il Post, il Corriere della Sera, Il Giornale – hanno raccontato del risultato non esattamente entusiasmante di una pubblicità televisiva della catena di fast food americana Burger King. Il protagonista dello spot spiegava che in quindici secondi non si poteva spiegare come è fatto il Whopper (il loro panino principale), ma che forse si poteva fare qualcosa. A questo punto diceva “Ok Google, cos’è l’hamburger Whopper?” in modo che eventuali telefoni Android con l’assistente vocale attivato leggessero l’inizio della voce di Wikipedia che era stata opportunamente modificata in precedenza da tale utente “Fermachado123” (il nickname usato in altri siti dal responsabile marketing di Burger King Fernando Machado) per avere la lista degli ingredienti in puro formato pubblicitario.

Google, che non era stata informata della grande idea di Burger King, non ha preso bene la cosa, e dopo tre ore dalla prima apparizione dello spot ha fatto in modo che quella frase specifica finisse in una blacklist e quindi non desse alcun risultato. Quello che però non è stato pubblicizzato molto è cosa è esattamente successo su Wikipedia. Alcuni utenti hanno fatto una ricerca accurata controllando cosa fosse accaduto alla voce di Wikipedia. Otto giorni prima della messa in onda dello spot, due utenti (Burger King Corporation e Fermachado123) hanno modificato la voce, inserendo al suo inizio la lista degli ingredienti. Il primo tentativo è stato eliminato dopo meno di venti minuti; il secondo dopo un minuto e mezzo con il commento “ripristino testo enciclopedico sostituito da testo markettaro”; il terzo è stato solamente un po’ emendato ma ha resistito. Lo spot è stato trasmesso per la prima volta a mezzogiorno del 12 aprile: alle 12:12 c’è stata la prima modifica al testo, alle 12:15 la frase pubblicitaria era stata tolta, fino alle 12:38 ci sono state decine e decine di modifiche fino a che la pagina è stata temporaneamente protetta. Ma c’è di più. Il primo articolo che parla di questo spot, datato esattamente mezzogiorno del 12 aprile, è di The Verge, che nel testo aggiunge distrattamente “Relying on Wikipedia also opens up one other problem: anyone can edit it. The Verge modified the Whopper entry briefly, and Google Home began speaking the updated text only minutes later.” Sempre guardando la cronologia, scopriamo che in effetti tra l’intervento di Fermachado123 e la data dell’articolo e dello spot ci sono ancora state alcune modifiche. L’11 aprile, cioè il giorno prima della messa in onda dello spot, c’è stata una modifica della voce Whopper dove tra gli ingredienti erano aggiunti “bambini di dimensioni medie” e “cianuro”; anche in questo caso le modifiche erano state annullate un’ora dopo da un editor dell’enciclopedia che le aveva notate.

Che lezione si può trarre da questa storia? Innanzitutto qualcosa di positivo: Wikipedia possiede gli anticorpi contro le modifiche distruttive all’enciclopedia. Anche al di fuori del momento in cui la trasmissione dello spot ha dato il via a una guerra di modifiche che non poteva non essere notata, le altre modifiche sono state rapidamente corrette o eliminate. Ma ci sono anche note negative, e riguardano chi si vuol fare pubblicità su Wikipedia. Il comportamento di Burger King è indubbiamente stato deprecabile, e con ogni probabilità otterrà il risultato opposto a quanto desiderato. Ma The Verge non si è comportato tanto meglio, modificando il testo della voce Whopper per poter fare uno scoop. Il risultato di queste azioni è che i contributori di Wikipedia, anziché sfruttare il loro tempo per contribuire alla crescita della conoscenza, lo devono usare per riparare i danni altrui. Chissà, forse tutto questo è una metafora di quanto capita anche nella vita reale.

[WIKIPEDIA] La Digital Library italiana. È tutto oro quel che luccica?

È di pochi giorni fa la notizia che il ministro della cultura Dario Franceschini ha finanziato con due milioni di euro il progetto della Digital Library italiana, nato alla fine dello scorso gennaio con un decreto che dà mandato all’Istituto Centrale per il Catalogo e la Documentazione (ICCD) di coordinare i programmi di digitalizzazione del patrimonio culturale di competenza del Mibact. Racconta Franceschini: «Noi abbiamo 101 archivi e 46 biblioteche oltre alle raccolte di immagini di tutte le soprintendenze e gli istituti in cui c’è tutta la storia censita e fotografata del nostro territorio, monumento per monumento, pezzo per pezzo. Ecco, la Digital Library punta a mettere a sistema questo patrimonio sconfinato», e prosegue: «Vogliamo evitare che tale patrimonio diventi oggetto di trattativa di ogni singolo istituto con i giganti della Rete, con le grandi fondazioni, per esempio quelle americane, con cui si possono certamente avere dei rapporti di collaborazione, ma trattando da una posizione paritaria». Presumibilmente il ministro si riferisce all’accordo con Google siglato dal suo predecessore Sandro Bondi, dal quale non si direbbe siano arrivati chissà quali risultati.

Tutto bene, insomma? Non proprio. Leggendo nemmeno troppo tra le righe il discorso di Franceschini, traspare il concetto che la digitalizzazione serva a guadagnarci su: il materiale posseduto da archivi e biblioteche è infatti «un bene ineguagliabile di enorme valore culturale che nell’era della rete ha anche un valore economico considerevole». Potremmo insomma dire che i due milioni ora stanziati sono visti come un investimento per ottenere chissà quali ricavi per il futuro, il che significherà che i documenti digitalizzati non avranno con ogni probabilità una licenza libera: potremo (forse) consultarli, ma non certo usarli per costruire qualcosa di nuovo. Purtroppo il concetto di licenza libera continua a non essere nelle corde dei nostri governanti, nonostante il fatto che non è nemmeno chiaro il modello di business che si vorrebbe seguire. Anche la relazione che accompagna il decreto non entra per nulla nel dettaglio, né illustra le motivazioni culturali e tecnico-organizzative dell’iniziativa. Non è compito del ministro scendere a tale livello? A parte che anche le motivazioni politiche indicate sono minime, un progetto di questo tipo che dovrà coordinare centinaia di realtà indipedenti pur sotto il cappello del Mibact necessita sin dall’inizio di un modello di interoperabilità a prova di bomba, se si vuole sperare di avere un risultato finale che non sia la semplice somma dei compitini di ciascuna biblioteca o archivio. Questo servirebbe anche al Mibact con i suoi proclami di cooperazione alla pari con i grandi attori mondiali, ma parrebbe come se l’interoperabilità emergesse automaticamente dal lavoro futuro. Certo, se il materiale fosse rilasciato con licenza libera si potrebbe ovviare almeno in parte al problema con lo sforzo di volontari per la riorganizzazione dei metadati delle opere: ma come dicevo questo non sembra essere il caso.

Speriamo insomma che il progetto – proprio perché non ancora partito, e quindi senza troppi vincoli – possa essere migliorato e reso più libero, per diventare un modello virtuoso di condivisione della conoscenza.

nell’immagine: Manoscritto originale dei “Periodi Istorici e Topografia delle Valli di Non e Sole” (1805) di Jacopo Antonio Maffei, conservato presso l’Archivio storico comunale di Revò. Foto di StefanoC – opera propria, public domain, via Wikimedia Commons.

[WIKIPEDIA] I morti nel 2016 secondo Wikidata

[Articolo originariamente postato su wikimedia.it]

L’anno appena trascorso è stato davvero incredibile per il numero di persone famose che è morto. I media hanno continuato a parlare della maledizione del 2016, dall’inizio di gennaio con David Bowie alla fine di dicembre con Carrie Fisher e sua madre Debbie Reynolds. Ma è stato davvero così? Mike Peel ha provato a verificare sperimentalmente questa affermazione, sfruttando Wikidata: la base dati libera, collaborativa, multilingue e secondaria che raccoglie dati strutturati che vengono poi usati in Wikipedia e negli altri progetti della Wikimedia Foundation. Il vantaggio di Wikidata, oltre ad essere una fonte unica da cui i progetti nelle varie lingue possono attingere dati coerenti, è che la sua strutturazione permette di compiere ricerche automatiche molto più facilmente di quanto si potrebbe fare con Wikipedia.

Pell ha estratto i record di Wikidata corrispondenti a persone che hanno una voce nell’edizione inglese di Wikipedia e di cui sia indicata una data di morte: il risultato, mostrato in questo tweet, è che nel 2016 sono in effetti morte meno persone “enciclopediche” che nell’anno precedente. Nel tweet è anche indicata la query da eseguire: se la lanciate adesso i risultati sono leggermente diversi – i dati continuano ad accumularsi in Wikidata! – ma non di molto. Curiosamente, anche Buzzfeed ha scritto un articolo simile, partendo anch’esso da Wikidata e scegliendo parametri leggermente diversi. In effetti, pur tralasciando gli inevitabili errori che saranno presenti su Wikidata, ci sono due diverse possibilità da tenere in conto. La prima è che in futuro potrebbero essere aggiunte più persone morte nel 2016 che negli anni precedenti, perché ci potrebbero essere meno remore nell’inserire una persona enciclopedica-ma-non-troppo se non è viva: ma non è detto che questo cambi molto i risultati.

Ha molto più senso scegliere una definizione di notorietà diversa. Avere una voce su Wikipedia è sì un segno di notorietà, ma non tutte le persone sono notorie allo stesso modo. È stata così fatta una seconda ricerca, dove si sono selezionate le persone che avevano almeno 25 collegamenti interni ad altre voci, e quindi si possono definire “abbastanza famosi” da non essere solo autoreferenziali. In questo caso notiamo un leggero aumento del numero di morti famosi nel 2016 rispetto al 2015, ma restiamo comunque al di sotto del massimo ottenuto nel 2013; questi dati inoltre dovrebbero risultare più stabili rispetto ai precedenti. In definitiva, i dati parrebbero mostrare come l’annus horribilis – oltre naturalmente per chi è morto – sia stato più che altro tale per i media di tutto il mondo che si sono autoalimentati.

[MEDIUM] Il futuro del giornalismo è sul web?

[articolo apparso originariamente su Medium]
Grazie a Carlo Felice Dalla Pasqua, ho letto questo articolo di Mario Tedeschini Lalli che dà conto di una tendenza del giornalismo di marca anglosassone, che non solo non tende necessariamente alla brevità sempre maggiore delle notizie, ma anzi porta la cosiddetta long form a livelli che da noi sarebbero asolutamente incredibili. L’esempio che viene portato è un articolo del New York Times su come Google Translate abbia fatto in pochi mesi un salto quantico di qualità. L’articolo in questione è infatti lungo 86778 battute, l’equivalente di un saggio di quaranta e più pagine.

I due giornalisti guardano giustamente le cose dal loro punto di vista, e notano come il posto dove si possono approfondire le notizie non è la carta ma il web; che non esiste il concetto di cannibalizzazione, tanto che prima di essere stato pubblicato sull’edizione cartacea domenicale del NYT il testo era apparso sul sito web; che all’estero i grandi gruppi editoriali continuano a commissionare queste ricerche; e che il pubblico le legge. Sono tendenzialmente d’accordo sui primi tre punti; ma c’è qualcosa che mi disturba in quanto lettore, e che provo a spiegare nel seguito.

Ho letto l’articolo in questione. Tutto, fino in fondo. È scritto nello stile tipico del giornalismo anglosassone, partendo dalle persone per trattare il tema: fin qui nulla di strano. L’intelligenza artificiale non è il mio campo, ma un minimo di infarinatura ce l’ho, e posso dire che l’argomento viene spiegato in modo comprensibile e almeno a prima vista corretto, da quanto riesco a inferire. Sono anche lasciati i collegamenti agli articoli originali dei ricercatori, cosa che probabilmente servirà a ben poche persone ma è un chiaro indice di serietà. Insomma, Gideon Lewis-Kraus ha fatto insomma molto bene il suo lavoro di giornalista, raccogliendo informazioni e rendendole usufruibili al grande pubblico. L’unico appunto che posso fare è che mi pare essere troppo ottimista quando afferma che la ritraduzione in inglese dell’incipit del testo di Hemingway Le nevi del Kilimangiaro tradotto in giapponese da Jun Rekimoto è quasi indistinguibile dal testo originale anche per un madrelingua, se non fosse per l’articolo mancane prima di “leopard”. Diciamo che il testo passato per Google Translate è grammaticalmente corretto ma molto più piatto dell’originale, e ci mancherebbe. Ma non divaghiamo.

Il punto fondamentale è il muro di testo di quasi 87000 battute. E a questo punto presumo che la versione cartacea dell’articolo fosse un riassunto, anche perché altrimenti si sarebbe mangiato tutta la sezione del giornale. Quanta gente oggi ha il tempo di leggersi un breve saggio (breve dal punto di vista di un libro, naturalmente: ho pubblicato ebook più corti…) su un tema che non li interessa direttamente? E se i saggi cominciano a essere due, tre, cinque, dieci? È vero che il web ha spazio virtualmente illimitato, ma la variabile limitata siamo noi, o meglio il tempo a nostra disposizione per leggere. Abbiamo insomma due tendenze opposte: da un lato i quotidiani illuminati che pagano giornalisti per fare dei lavoroni (mica crederete che inchieste di questo tipo si buttano giù in un paio di pomeriggi), e quindi vogliono pubblicarli, dall’altra i ricavi possibili con questi articoli, che si riducono all’aumentare del testo e quindi al ridursi del numero dei lettori che arrivano fino in fondo. Ho visto parecchie pubblicità nell’articolo, ma non credo che le impression valgano molto. Che fare allora? Una possibilità è immaginare una collana separata: il quotidiano riporta una versione molto condensata, e ci si può abbonare agli approfondimenti. Ma la mia capacità imprenditoriale è notoriamente nulla, e non so se un simile approccio potrebbe funzionare. Voi avete idee migliori?

FUN: Equitalia


Le due colonne che vedete ai lati di questa foto sono tutto quello che rimane dell’antico cimitero dell’Isola, a Milano: erano ai lati dell’ingresso. Secondo me avere messo una sede di Equitalia in quegli uffici ha un suo bel senso.

HOWTO: recuperare tutto quello che si è fatto su Facebook

Basta digitare https://www.facebook.com/NOME_UTENTE/allactivity .

[MEDIUM] Io e il referendum

[Versione originale]

Tutti parlano del referendum confermativo sulle modifiche alla Costituzione (legge Boschi) e quindi anch’io ho deciso di mettere per scritto come voterò e perché: non certo per convincere qualcuno, ma per dare loro qualche spunto in più che non siano le campagne Facebook tra tifosi di squadre avverse. Il TL;DR è “Voto no perché sono state messe insieme troppe cose discordanti, e una Costituzione non è una semplice legge”.

Prima di tutto, però, spiego i motivi con cui NON ho preso la mia decisione. Non mi interessa di sapere chi è per il sì e chi per il no… anche perché condivido il pensiero che ho visto esprimere da alcuni: tutte le volte che vedo qualcuno per il NO, mi viene voglia di votare SÌ, e naturalmente viceversa. Ma questa non è una votazione in cui uno si mette da una parte o dall’altra, come capita in un’elezione; qui abbiamo una legge sulla quale dobbiamo decidere se ci pare buona o no, e ognuno dovrebbe avere le sue ragioni per farlo. Le ragioni degli altri non mi trovano affatto d’accordo? Chisseneimporta. Io voto la legge, non le ragioni. In secondo luogo, so benissimo che si va a votare perché Berlusconi aveva inizialmente dato il suo appoggio alla riforma e poi l’ha tolto per mere ragioni politiche, non certo sul merito della legge. Insomma, se le cose fossero andate appena diverse, la riforma sarebbe passata senza richiesta di un voto confermativo. E dunque? Siamo di nuovo al punto di cui sopra. Non avrei potuto votare, ma non è che per questo avrei apprezzato questa riforma. Però per una congiuntura astrale posso esercitare un mio diritto, e quindi lo faccio. Arriviamo finalmente al quesito vero e proprio. Già il titolo è indicativo di quanta roba ci sia dentro.

“Approvate il testo della legge costituzionale concernente disposizioni per il superamento del bicameralismo paritario, la riduzione del numero dei parlamentari, il contenimento dei costi di funzionamento delle istituzioni, la soppressione del Cnel e la revisione del Titolo V della parte II della costituzione?”

Lasciamo perdere la frase sul “contenimento dei costi di funzionamento delle istituzioni”, che è un banale specchietto per le allodole e non ha nemmeno senso in quel contesto, perché è un corollario della legge Boschi (meno senatori, e quelli rimasti non verranno pagati per fare i senatori ma riceveranno “solo” i rimborsi spese) e non un punto fondamentale anche solo rispetto ai costi di Camera e Senato, per non parlare di tutti i costi pubblici. Limitiamoci a guardare macropunto per macropunto cosa succede esattamente. Userò il testo con le differenze tra prima e (forse) dopo preparato dalla Camera. La tabella è semplice: a sinistra c’è il testo attuale e a destra quello modificato.

Che vuol dire “superamento del bicameralismo paritario”? Che adesso Camera e Senato sono funzionalmente identici per quanto riguarda le proposte di legge, che possono partire da un ramo qualunque del Parlamento ma devono comunque essere approvate con lo stesso testo da entrambe, mentre in futuro non sarà così. Ci sono tanti modi per superare il bicameralismo paritario, o “perfetto” come si sente dire: per esempio, si può dividere le leggi tra i due rami, decidere che il secondo ramo possa fare emendamenti solo con la maggioranza assoluta dell’assemblea (e non dei presenti) e la legge ritorni al primo ramo dove si può votare solo sì o no agli emendamenti con maggioranza qualificata dei presenti. In questo modo una legge ha solo tre passaggi, e c’è comunque la possibilità di correggere qualcosa che è venuto fuori male. In realtà non funzionerà così. Nella legge la Camera avrà una preminenza quasi assoluta: tanto per dire, gli unici rappresentanti della Repubblica saranno i deputati (articolo 55). Molti articoli (48, 60, 61, 75, 77–82, 85–87, 96, 121) hanno modifiche per rimarcare questa differenza. Più interessante il 64 che aggiunge il seguente testo: «I regolamenti delle Camere garantiscono i diritti delle minoranze parlamentari. Il regolamento della Camera dei deputati disciplina lo statuto delle opposizioni.», che può significare tutto o niente, e «I membri del Parlamento hanno il dovere di partecipare alle sedute dell’Assemblea e ai lavori delle Commissioni.», cosa che settant’anni fa pareva inutile rimarcare. L’articolo 94 fa sì che la fiducia sia data dalla sola Camera, cosa che avrebbe il suo senso in ogni caso.

L’articolo 70 elenca tutti i casi in cui si devono pronunciare le due Camere: oggettivamente messo in questo modo è illeggibile e sarebbe stato molto più semplice indicare punto per punto quali sono le leggi a doppio pronunciamento. Ma questa prolissità non si ha solo qua, come vedremo dopo. Nell’articolo 71 le leggi di iniziativa popolare richiedono il triplo delle firme (150.000), hanno un’importanza leggermente maggiore sui tempi, ma è lasciato tutto al regolamento; in teoria — quando verrà fatta una legge costituzionale apposta …— si potranno avere referendum propositivi e di indirizzo. Diciamo che la teoria è questa, ma la pratica non c’è; insomma parole a vuoto.

Il governo può pretendere una corsia preferenziale per i DDL (articolo 72), il che aumenta sicuramente i suoi poteri senza richiedere decreti legge; nell’articolo 73 invece c’è un interessante possibilità di chiedere il giudizio anticipato della Corte Costituzionale prima che una legge venga promulgata, il che potrebbe risparmiarci tanti casini.

La “riduzione del numero di parlamentari” si trova nell’articolo 57 (che definisce il numero dei senatori e la composizione del Senato, lasciando a una legge ordinaria la decisione di come verranno scelti tra gli aventi diritto), 58 (abrogato), 59 (senatori a tempo e non più a vita), 63. Detto tra di noi, che il Senato sia eletto direttamente o indirettamente non mi tange per nulla. Trovo piuttosto molto più pericoloso il fatto che questi senatori debbano fare un doppio lavoro, rischiando di fare male entrambi. È vero che ora il Senato conterà un tubo, ma non sarebbe stato più semplice lasciare loro le prebende ma fargli fare solo quello? Ah: per l’articolo 126 sarà il Senato a decidere l’eventuale scioglimento di una giunta regionale: similes similibus, direbbero forse i latinisti.

L’abolizione del CNEL si estrinseca nell’abrogazione dell’articolo 99. Bisognerebbe andare a leggere i resoconti della Assemblea Costituente per capire come mai si fosse pensato ad avere quell’organismo, che a vedere il testo della Costituzione sembrerebbe una concertazione ante litteram se non addirittura un residuato defascistizzato della Camera dei fasci e delle corporazioni. Credo che quasi nessuno (tranne ovviamente chi del CNEL ci faceva parte) piangerà per questa abolizione: ma non si poteva fare una legge costituzionale solo per questa, approvarla in sei mesi con ampia maggioranza, e togliercelo così dai piedi.

Per quanto riguarda la revisione del Titolo V della parte II della Costituzione, innanzitutto si cancella la parola “Provincie” (no, c’era scritto “province” senza i. Strano, pensavo che la proposta semplificatrice di Bruno Migliorini per il plurale delle parole in -cia e -gia fosse del 1949), come del resto aveva già tentato di proporre Tonino Di Pietro in una legge costituzionale. Per il resto, si complica ancora di più l’articolo 117 dove si definiscono i rapporti tra Stato e regioni. Qui mi tocca fare coming out. Io nel 2001 ho votato a favore della riforma costituzionale che per l’appunto ridefiniva quel rapporto, rendendo ipertrofico quell’articolo. Col senno di poi, avrei votato contro, proprio per il principio che la Costituzione dovrebbe dare solo le linee guida e lasciare alle leggi ordinarie il compito di metterla in pratica: più specifica, peggio fa il suo lavoro. Ad ogni modo la controriforma renziana avoca allo Stato alcuni poteri che erano stati dati alle regioni, e probabilmente la cosa ha senso, visti i problemi che si sono visti nel caso ci siano più regioni in gioco. Ma quell’elenco enorme di attività in cui lo Stato ha legislazione esclusiva mi pare davvero esagerato. Non bastava indicare le attività di legislazione da parte delle regioni e dire che tutto quello che non c’è lì è avocato allo Stato, che con legge ordinaria può delegare qualcos’altro alle regioni? Ah sì: l’articolo 117 è anche L’ARTICOLO SEGRETO che appare in questi giorni nella campagna pentastellata, perché al posto di «nonché dei vincoli derivanti dall’ordinamento comunitario e dagli obblighi internazionali» ora c’è scritto «nonché dei vincoli derivanti dall’ordinamento dell’Unione Europea e dagli obblighi internazionali». No, non cederemmo la nostra libertà votando sì: l’abbiamo già fatto da decenni, e ora si cambia semplicemente il testo, visto che la CEE è diventata da mo’ UE assumendone tutti i diritti e doveri pregressi. Abbiamo norme sui soldi (119, 120, 122), sia per gli stipendi che per gli indicatori di costo da rispettare, e già che ci siamo sono indicati i princìpi di pari rappresentanza (122), curiosamente solo a livello locale.

Ci sono poi articoli davvero illeggibili, che citano altri articoli più o meno come troviamo nelle leggi ordinarie. Ho già detto del 70, ma il 77 (decreti legge) è forse ancora peggio, pur avendo l’ottimo nuovo comma «Nel corso dell’esame di disegni di legge di conversione dei decreti non possono essere approvate disposizioni estranee all’oggetto o alle finalità del decreto» (ma questo in realtà dovrebbe accadere per ogni legge).

Abbiamo inoltre altre quisquilie, tipo la gestione dei referendum abrogativi (articolo 75) dove si poteva osare molto di più. In pratica resta il limite minimo di 500000 firme, ma se si arriva a raccoglierne 800000 scatta il bonus: il quorum non è più la metà più uno degli elettori, ma la metà più uno dei votanti alla Camera alle ultime elezioni, scoraggiando insomma la campagna per il no via astensione. Quest’ultima cosa secondo me è ottima; ma a questo punto perché non si è tolto il limite dei 500000? Se non riesci a trovare la gente che firma non la trovi nemmeno per votare, e aumenti il numero dei casi in cui si spendono soldi per i rimborsi al comitato referendario e per le votazioni. Altro che contenimento dei costi della politica. Per l’elezione del Presidente della Repubblica il quorum diverso (tre quinti dei votanti, anziché maggioranza assoluta degli aventi diritto) in realtà è forse anche più stretto, e non credo sia un caso che sia più alto della maggioranza data con l’Italicum che è sempre il convitato di pietra: vorrà dire che anziché avere impasse con gli elettori che non si presentano avremo impasse con le schede bianche. Troviamo (articolo 97 per la statale e 118 per quelle locali) che l’amministrazione pubblica deve anche essere trasparente e non solo imparziale e funzionante. Nell’articolo 134 si esplicita che la Corte Costituzionale verifica le leggi elettorali sin da subito, evitando che ci si accorga dell’incostituzionalità dopo qualche anno 🙂

Arrivati in fondo (una faticaccia per tutti, sono d’accordo) do il mio personale giudizio. Se ci fosse stato lo spacchettamento (non so se sarebbe stato possibile: così ad occhio forse la Cassazione avrebbe detto di sì se qualcuno avesse pensato di chiederlo) sarei stato d’accordo sull’abolizione del CNEL e avrei trovato indifferente la riduzione dei senatori e il riordino del titolo V. Ma sarei comunque stato contrarissimo a questa riforma del bicameralismo paritario, e questo indipendentemente dall’Italicum (il famigerato Combinato Disposto, con le maiuscole così sembra più importante). E visto che per modificare una Costituzione ci vogliono decenni, mi spiace ma io voterò NO. La mia risposta al “tutto o niente” renziano è per l’appunto “niente”. Mi prenderò catervate di insulti? Chissenefrega. La cosa più divertente è che potrei comunque votare lo stesso PD alle politiche, in mancanza di meglio… ma come dicevo, questo è un referendum, non un’elezione. Non dimenticatelo, qualunque cosa sceglierete di fare.

Post Scriptum: per completezza aggiungo le slide di Luciano Violante, che è un fautore del sì referendario e spiega dal suo punto di vista il perché. Tanto non devo convincere nessuno 🙂

(i miei cookie)