- mercoledì 18 Marzo 2026
Home Blog Pagina 11

Etichette “a impatto zero”: come riconoscere il greenwashing (anche dopo le nuove leggi UE)

0

È facile lasciarsi convincere da una confezione ben disegnata. Una grafica pulita, una fogliolina verde accanto a un claim rassicurante: “a impatto zero”. Oppure “prodotto sostenibile”, “amico del clima”. Lo leggiamo, e abbassiamo la guardia. Ma oggi, nel 2025, possiamo davvero fidarci di queste diciture?

La risposta, purtroppo, non è ancora un sì pieno. Nonostante l’entrata in vigore della Green Claims Directive e l’approvazione del Carbon Removal Certification Framework da parte dell’Unione Europea, le zone d’ombra non sono scomparse. Si sono solo fatte più sofisticate.

Oggi non basta scrivere “a impatto zero” su un prodotto per essere dalla parte giusta della storia. Serve poterlo dimostrare. Ma molte aziende, nonostante la nuova normativa, continuano a comunicare messaggi ecologici vaghi, imprecisi o del tutto infondati. E se il consumatore non è attrezzato per riconoscerli, il rischio di essere ingannati rimane altissimo.

Il caso dei biscotti “a impatto zero”

Prendiamo un esempio concreto. Una nota marca di biscotti da supermercato si presenta con un bollino verde e la scritta “a impatto zero”. In piccolo, una frase spiega che le emissioni legate alla produzione sono state compensate piantando alberi. Ma se provi a cercare ulteriori informazioni sul sito ufficiale, scopri che non è indicato quale progetto ha ricevuto il finanziamento, né quale standard sia stato usato per calcolare l’impatto ambientale. Nessuna traccia di certificazione indipendente, nessun documento consultabile, nessun registro che mostri l’effettivo annullamento dei crediti acquistati.

È greenwashing? Sì. Perché la nuova direttiva UE richiede trasparenza, verificabilità e tracciabilità. Senza questi elementi, una dichiarazione ambientale è considerata ingannevole. Eppure, quel pacco di biscotti continua a vendere sostenibilità apparente, in attesa che i controlli facciano il loro corso.

La promessa “a impatto zero” non basta

Negli anni, molte aziende hanno usato i cosiddetti crediti di carbonio per proclamare la neutralità delle loro attività o dei loro prodotti. L’idea, in teoria, è semplice: se non riesco a ridurre tutte le mie emissioni, almeno finanzio progetti che le compensano altrove. Ma nella pratica, la storia si complica. Perché non tutti i crediti sono uguali, e non tutti i progetti compensano davvero.

Dopo lo scandalo Verra — l’ente certificatore travolto dalle inchieste internazionali sui crediti “fantasma” — sono emersi migliaia di esempi di certificazioni che non corrispondevano ad alcun beneficio reale per il clima. Progetti di riforestazione in zone già protette, calcoli gonfiati, assenza di controlli sul campo. E quei crediti sono finiti esattamente lì: sui bollini dei prodotti di largo consumo, trasformando il marketing ambientale in una gigantesca illusione.

Oggi, dopo l’introduzione, nel marzo 2023, dei Core  Core Carbon Principles [mettere il link esterno: CCP-Book-V1.1-FINAL-LowRes-15May24.pdf] (CCPs; Core Carbon Principles – Assessment Framework and Procedure, Integrity Council for the Voluntary Carbon Market, luglio 2023) e della nuova normativa europea, lo standard si sta alzando. Ma restano molte etichette ambigue in circolazione. Anche nel 2025, non è affatto difficile trovare un detersivo che si dichiara “a impatto zero” senza alcun riferimento al metodo di calcolo, né al tipo di compensazione effettuata. In alcuni casi, la compensazione è avvenuta una sola volta, anni fa, e da allora nessuna verifica è stata più pubblicata.

Dove si nasconde ancora l’inganno

Le aziende più trasparenti pubblicano un report di sostenibilità completo, indicano lo standard utilizzato (come PAS 2060, CarbonNeutral® o Gold Standard), specificano il periodo di riferimento e riportano il registro in cui i crediti sono stati ritirati — cioè annullati, in modo che non possano essere rivenduti né riutilizzati da altri. Alcune permettono persino di scaricare i documenti ufficiali.

Altre, però, si affidano a linguaggi vaghi. Parlano di “progetti ambientali” senza nominarli. Affermano di essere “a impatto zero” senza indicare il numero di crediti acquistati. Si fregiano di simboli grafici che imitano i veri sigilli di certificazione ma che, in realtà, non significano nulla.

In questi casi, anche oggi, l’etichetta è più ingannevole che informativa.

Un altro esempio? Alcune compagnie aeree permettono di aggiungere pochi centesimi al prezzo del biglietto per “compensare l’impatto ambientale del volo”. Ma raramente spiegano chi verifica il progetto selezionato, se i crediti sono stati ritirati in un registro pubblico, o se sono stati usati crediti economici e a bassa qualità, spesso provenienti da progetti già esistenti.

Come orientarsi, davvero

Non servono strumenti tecnici né lauree in ingegneria ambientale per tutelarsi. Serve allenare lo sguardo. Una dicitura come “prodotto sostenibile” non ha alcun valore se non è accompagnata da dati verificabili. Una dichiarazione di “a impatto zero” deve rimandare a un ente terzo, uno standard riconosciuto, un documento pubblico.

Oggi, chi vuole informarsi può farlo. I registri di ritiro dei crediti sono consultabili. I principali standard internazionali (PAS 2060, Gold Standard) spiegano chiaramente quali sono i requisiti per ottenere una certificazione. Il punto è che dev’essere l’azienda a offrirci queste informazioni spontaneamente. Se non lo fa, se ci costringe a cercarle altrove, probabilmente ha qualcosa da nascondere.

Il consumatore non è più solo

La buona notizia è che non siamo più soli. La nuova direttiva europea obbliga chi fa affermazioni ambientali a dimostrarle. E introduce il divieto esplicito di usare espressioni generiche come “rispettoso dell’ambiente” senza prove.

Ma fino a quando il sistema dei controlli non sarà pienamente attivo, resta a noi l’ultima parola. E oggi, più che mai, fare la spesa è anche un atto politico. Non per partito preso, ma perché ogni euro speso può alimentare un modello o scardinarlo. Può premiare la coerenza, o alimentare l’ambiguità.

E la prossima volta che ci troviamo con quel pacco “a impatto zero” tra le mani, forse non lo guarderemo più allo stesso modo.

LEGGI IL DOSSIER: IL GRANDE INGANNO DEL CARBONIO

Renzi: con noi il centrosinistra vince. E’ vero?

0

“Facile. Si vince con i voti e non con i veti. Spero che questo sia chiaro a tutti. Naturalmente il merito del successo è di Silvia Salis che ha fatto una campagna perfetta e, insieme a lei, di tutte le liste. Ma il fatto è che alle regionali hanno messo il veto su di noi e hanno perso. E alle comunali hanno tolto il veto e abbiamo vinto. E questo fatto è inoppugnabile” – Matteo Renzi al Secolo XIX

Le ragioni strategiche che guidano l’alleanza tra Italia Viva e il centrosinistra

L’analisi della situazione

Per verificare se le affermazioni di Matteo Renzi siano aderenti alla realtà, abbiamo analizzato il quadro elettorale dal 2020 a oggi.

Negli ultimi cinque anni, la partecipazione di Italia Viva alle elezioni locali e regionali ha rappresentato una cartina di tornasole della capacità del centrosinistra di innovare e allargare le proprie coalizioni. Il partito guidato da Renzi ha attraversato fasi alterne, ma è rimasto presente in molte competizioni, talvolta come alleato del centrosinistra, talvolta in forma autonoma.

A partire dalle elezioni regionali del 2020, Italia Viva si è presentata in sette regioni, spesso a sostegno dei candidati progressisti, oppure con proprie liste civiche. In Toscana e Campania ha contribuito alla vittoria della coalizione di centrosinistra, pur senza risultare determinante.

In Liguria, Veneto e Marche, dove ha corso in modo autonomo o con alleanze atipiche, il centrosinistra non è riuscito a prevalere. In Puglia, l’alleanza con Azione e +Europa ha dato vita a un fronte più ampio, ma Italia Viva non ha avuto un ruolo centrale nel successo finale.

Un caso emblematico è quello dell’Emilia-Romagna nel 2024, dove il partito ha partecipato alla coalizione che ha riconfermato il presidente uscente. Tuttavia, non ha ottenuto alcun consigliere regionale, a testimonianza della difficoltà a radicarsi in territori tradizionalmente governati dal Partito Democratico e dai suoi alleati storici.

Le elezioni comunali del 2025 hanno invece evidenziato una maggiore efficacia. In città come Genova e Ravenna, Italia Viva ha fatto parte della coalizione che ha vinto al primo turno. Renzi ha spesso rivendicato il contributo del suo partito come decisivo per evitare il ballottaggio, sottolineando l’importanza di attrarre voti oltre le tradizionali basi elettorali. Anche in comuni come Giugliano, la presenza di Italia Viva ha accompagnato la vittoria del centrosinistra.

Nel complesso, la partecipazione di Italia Viva dal 2020 in avanti racconta una storia di alleanze in evoluzione. Pur non sempre decisiva, la sua presenza si è rivelata in certi contesti un tassello utile per il centrosinistra, soprattutto nelle città dove la competizione è più serrata.

Le ragioni strategiche dell’alleanza

Ricerca di rilevanza e uscita dalla marginalità politica
Dopo risultati deludenti e crescente marginalizzazione, Italia Viva ha bisogno di alleanze per restare visibile e influente. L’accordo con il centrosinistra rappresenta un’opportunità per tornare a contare, soprattutto in vista di sfide elettorali decisive.

Costruzione di un’alternativa al centrodestra
Italia Viva, come altre forze di opposizione, punta a una coalizione ampia e credibile per sfidare la destra al governo. L’alleanza con il centrosinistra è un passaggio necessario per offrire una proposta unitaria agli elettori, specie nei collegi in bilico.

Superamento dei veti e delle divisioni
I leader di Italia Viva invocano un dialogo costruttivo, oltre le barriere ideologiche e personali che frammentano l’opposizione. La loro inclusione è presentata come segnale di maturità politica, utile a riconquistare la fiducia degli elettori.

Valore aritmetico e strategico
Anche se minoritaria, Italia Viva può essere determinante in contesti dove pochi punti percentuali fanno la differenza. Renzi insiste su questo aspetto: un 2–3% può risultare decisivo in molti collegi.

Ricerca di una nuova identità riformista
Italia Viva ambisce a rifondare il centrosinistra su basi moderate e riformiste, attirando elettori lontani dai toni più radicali di altre forze. Una fase “costituente”, nelle intenzioni, per rilanciare una coalizione credibile.

Considerazioni finali

Dall’analisi dei dati emerge che la presenza di Italia Viva è stata costante, ma raramente determinante. Il suo peso elettorale resta modesto, e in molti casi non ha inciso in modo sostanziale sull’esito delle urne.

L’alleanza con il centrosinistra, in diversi casi, ha prodotto risultati più “aritmetici” che politici: sommando le forze si vince, ma non sempre si costruisce un’identità comune. L’avversione del Movimento 5 Stelle per Italia Viva ha spesso alimentato divisioni e fratture che rendono fragile la coesione della coalizione.

In alcuni contesti – come l’Emilia-Romagna – la partecipazione del partito non ha aggiunto valore reale. E proprio la recente elezione del sindaco di Genova mostra come l’ingresso di Italia Viva nella coalizione non abbia spostato in modo significativo gli equilibri rispetto alle regionali 2024, in cui il partito era stato escluso.

Forse il problema più profondo è che troppi partiti cercano di vincere, ma pochi cercano davvero di convincere.

Israele attacca l’Iran: decine di obiettivi colpiti, escalation senza precedenti

 ISCRIVITI ALLA NEWSLETTER DI EYWA DIVULGAZIONE 

Nonostante i negoziati avviati in diverse sedi diplomatiche tra Stati Uniti e Iran per limitare il programma nucleare di Teheran e scongiurare l’acquisizione dell’arma atomica da parte della Repubblica Islamica, Israele ha optato per un’azione militare preventiva, colpendo obiettivi strategici tra cui installazioni governative e siti nucleari iraniani, considerati una minaccia diretta alla propria sicurezza nazionale.

I segnali di un’azione imminente erano evidenti già da giorni. L’11 giugno, il governo americano aveva invitato il personale non essenziale delle ambasciate in Medio Oriente a rientrare in patria. Nella rappresentanza diplomatica USA in Israele era stata inoltre diffusa una comunicazione che limitava gli spostamenti degli addetti alle sole aree di Tel Aviv, Gerusalemme e Beersheba, consentendo l’accesso all’aeroporto Ben Gurion solo tramite l’autostrada A.

Poche ore prima dell’attacco, l’Agenzia Internazionale per l’Energia Atomica (AIEA), con una risoluzione senza precedenti negli ultimi vent’anni, ha denunciato la mancanza di trasparenza dell’Iran sul suo programma nucleare. Il direttore generale Rafael Grossi ha ribadito che Teheran possiede già uranio arricchito al 60%, sufficiente, se ulteriormente raffinato, per la produzione di almeno sei, ma secondo alcune stime fino a quindici testate nucleari. L’Iran, inoltre, ha impedito agli ispettori internazionali l’accesso ai siti sospetti, rendendo difficile verificare la natura esclusivamente pacifica del programma.

Il presidente americano Donald Trump, pur ventilando la possibilità di un’azione israeliana, aveva continuato a credere, almeno pubblicamente, nella soluzione diplomatica. Negli ultimi giorni, tuttavia, gli Stati Uniti hanno avvertito gli alleati e, secondo alcune fonti, lo stesso governo iraniano sarebbe stato informato da una nazione amica, probabilmente vicina anche a Washington, dell’imminenza dell’operazione.

Operazione Rising Lion: bersagli strategici e vittime illustri

La notte del 13 giugno è scattata l’operazione Rising Lion (“Leone Nascente”), il più vasto attacco diretto tra Israele e Iran nella storia recente del Medio Oriente. Più di 200 velivoli dell’aviazione israeliana, supportati da cyber-attacchi e operazioni di intelligence, hanno colpito oltre un centinaio di obiettivi, tra cui il cruciale sito di arricchimento dell’uranio di Natanz, le città di Khondab, Khorramabad, Teheran e Isfahan, nonché infrastrutture petrolifere e militari.

Gli attacchi hanno neutralizzato la contraerea iraniana, consentendo ai caccia israeliani di penetrare nello spazio aereo nemico. I danni materiali sono ingenti: il sito di Natanz è stato gravemente danneggiato, mentre a Teheran sono stati colpiti anche palazzi residenziali e stabilimenti. Ma l’impatto più rilevante riguarda la leadership militare e scientifica iraniana: tra i caduti figurano il comandante delle Guardie della Rivoluzione, Hossein Salami, il capo di Stato Maggiore Mohammad Bagheri e Fereydoon Abbasi, ex direttore dell’Organizzazione per l’Energia Atomica dell’Iran, oltre ad alcuni scienziati impegnati nel programma nucleare.

Reazioni e minacce: la crisi si allarga

La risposta iraniana non si è fatta attendere: oltre cento droni sono stati lanciati contro Israele, tutti intercettati dalle difese israeliane secondo fonti ufficiali. Il leader supremo Ali Khamenei ha promesso una risposta “senza limiti” e ha accusato gli Stati Uniti di essere coinvolti nell’azione, nonostante le ripetute smentite di Washington. Il segretario di Stato americano Marco Rubio ha infatti ribadito che gli USA non sono coinvolti negli attacchi, ma ha ammonito l’Iran di non colpire interessi o personale statunitense nella regione.

Donald Trump, intervistato dai media, ha confermato di essere stato informato in anticipo dell’operazione, ma ha negato qualsiasi coinvolgimento diretto degli Stati Uniti. Ha inoltre avvertito l’Iran che la situazione potrebbe peggiorare ulteriormente, invitando Teheran a tornare al tavolo dei negoziati prima che sia troppo tardi.

Condanne internazionali e timori di escalation

La comunità internazionale ha reagito con preoccupazione. I paesi arabi e i leader europei hanno condannato l’attacco israeliano, temendo una nuova escalation militare. La premier italiana Giorgia Meloni ha convocato una riunione con i servizi di intelligence, mentre la Cina ha espresso “forte preoccupazione”. La Giordania ha temporaneamente chiuso il proprio spazio aereo in previsione di ulteriori minacce.

Il Cremlino ha diffuso una nota ufficiale in cui condanna “l’uso della forza come soluzione a controversie strategiche” e ha chiesto un immediato cessate il fuoco. Anche la Turchia ha parlato di “grave violazione del diritto internazionale”, invitando entrambe le parti alla moderazione. Il segretario generale dell’ONU, Antonio Guterres, ha espresso “profonda inquietudine” per l’andamento del conflitto, auspicando una soluzione diplomatica attraverso un coinvolgimento multilaterale.

Da più parti si invoca una de-escalation, anche per evitare ripercussioni economiche globali, come un possibile aumento del prezzo del petrolio. I colloqui USA-Iran sul nucleare, previsti a Doha per il 15 giugno, sono ormai saltati: Teheran ha annunciato che non parteciperà. Il futuro dei negoziati è incerto, mentre il mondo si prepara a giorni di tensione e instabilità in uno scacchiere già fortemente provato da conflitti e crisi.

Quando l’intelligenza artificiale imita i nostri difetti

 ISCRIVITI ALLA NEWSLETTER DI EYWA DIVULGAZIONE 

Il lato oscuro dei dati: perché i comportamenti delle macchine dipendono da noi

«Se le macchine imparano da noi… siamo sicuri di essere buoni insegnanti?»
La domanda che chiude il nostro dossier sul machine learning sembra retorica, ma in realtà apre uno degli interrogativi più urgenti del nostro tempo. L’intelligenza artificiale, e in particolare il machine learning, non è un’intelligenza nel senso umano del termine. Non decide, non valuta, non ha coscienza. Piuttosto, apprende. E lo fa osservando ciò che noi umani facciamo ogni giorno: cosa scriviamo, cosa clicchiamo, come ci comportiamo online, quali immagini condividiamo. Le macchine imparano da noi, e lo fanno su scala globale, senza filtri etici propri.

Il mito dell’algoritmo neutrale è durato poco. Oggi è ampiamente riconosciuto che ogni sistema di intelligenza artificiale è il risultato di una serie di scelte culturali, tecniche e politiche. Ma c’è un aspetto ancora sottovalutato: la qualità dei dati usati per addestrare questi sistemi. Perché se l’IA impara da contenuti umani, è inevitabile che finisca per assorbire anche le nostre contraddizioni. Pregiudizi, disinformazione, stereotipi, aggressività verbale: tutto può entrare nel sistema e, in alcuni casi, essere amplificato.

Il caso di Tay, il chatbot lanciato da Microsoft nel 2016, è diventato emblematico. Progettata per interagire con i giovani su Twitter, Tay avrebbe dovuto apprendere in modo naturale dai dialoghi in rete. Ma nel giro di meno di 24 ore, il bot ha cominciato a ripetere affermazioni razziste, sessiste e complottiste, semplicemente ricalcando ciò che gli utenti gli avevano insegnato. Microsoft è stata costretta a spegnerlo. Non perché Tay avesse un’opinione, ma perché aveva imitato fedelmente l’ambiente tossico in cui era stato immerso.

Il problema si fa ancora più serio quando si parla di IA applicata a contesti delicati come la giustizia, la sanità o il lavoro. Negli Stati Uniti, un software predittivo utilizzato da diversi tribunali statunitensi per stimare il rischio di recidiva degli imputati, è stato analizzato nel 2016 dalla testata investigativa ProPublica. L’indagine ha mostrato che COMPAS tendeva a sovrastimare il rischio nei confronti degli afroamericani e a sottostimarlo per i bianchi, a parità di condizioni. La spiegazione? I dati storici su cui il software era stato addestrato erano già condizionati da decenni di discriminazioni sistemiche. L’algoritmo non ha fatto altro che interiorizzare quei pregiudizi e riproporli come se fossero valutazioni oggettive.

Lo stesso meccanismo si verifica in ambito sanitario, dove l’uso crescente dell’IA per supportare diagnosi e percorsi terapeutici rischia di penalizzare gruppi meno rappresentati nei dati clinici, come donne, minoranze etniche o pazienti di fasce sociali più svantaggiate. Anche in questo caso, l’IA non è “ingiusta” di per sé: semplicemente riproduce le lacune di chi ha prodotto e selezionato i dati.

C’è poi un altro tema, meno dibattuto ma fondamentale per comprendere il quadro generale: l’analfabetismo funzionale e digitale. Secondo l’OCSE, circa il 27% degli adulti nei Paesi sviluppati fatica a comprendere testi complessi, valutare criticamente le informazioni online o usare in modo consapevole gli strumenti digitali. Se questa è la base culturale di buona parte della popolazione mondiale, i contenuti che alimentano l’intelligenza artificiale rischiano di essere, in larga misura, frutto di confusione, polarizzazione, superficialità. Non si tratta solo di ignoranza individuale, ma di un ambiente cognitivo globale che diventa il terreno di apprendimento per le macchine.

Il linguaggio d’odio, le fake news, le interazioni impulsive e aggressive non sono solo un problema sociale o politico. Sono anche, concretamente, materiale di training per gli algoritmi. Le IA che usiamo ogni giorno – nei motori di ricerca, nei social, nei sistemi di raccomandazione – si sono formate anche su quel tipo di comunicazione. E, se non vengono adeguatamente controllate, finiranno per restituirla indietro, potenziata e “normalizzata”.

Di fronte a questi rischi crescenti – che non riguardano solo la tecnologia, ma la cultura stessa che la nutre – il mondo scientifico, le istituzioni e le aziende hanno iniziato a muoversi. Con quali strumenti? E con quali limiti? Il primo fronte d’azione è la qualità dei dati: diversi progetti mirano a filtrare i contenuti tossici nei dataset – ovvero le grandi raccolte ordinate di dati su cui si addestrano i modelli di IA – per evitare che pregiudizi o linguaggi d’odio vengano assimilati sin dall’inizio. Ripulire i dati significa agire sulle fondamenta del sistema, prima che l’algoritmo impari a replicare quelle distorsioni. Dopo il caso Tay del 2016, ad esempio, molti sviluppatori hanno capito l’importanza di porre limiti a ciò che un chatbot può imparare dagli utenti, per evitare derive simili.

Un altro filone cruciale è quello delle IA spiegabili (explainable AI): sistemi progettati per rendere trasparente il ragionamento che porta a una decisione. Vuol dire aprire la “scatola nera” degli algoritmi: se un software che seleziona candidati per un lavoro scarta un profilo, deve poter dimostrare su quali criteri si è basato. Questa trasparenza aiuta a individuare eventuali bias – ad esempio, se l’AI penalizza sistematicamente un genere o un gruppo etnico – così da correggerli prima di produrre vere e proprie discriminazioni.

Si fa poi strada l’idea delle verifiche indipendenti sull’operato dell’IA. La parola chiave è “auditing etico”: ispezioni esterne dei sistemi algoritmici in ambiti delicati per verificarne correttezza e imparzialità. C’è chi propone di rendere obbligatori questi controlli e nel 2022 New York è diventata la prima città a imporre per legge un audit annuale degli algoritmi usati nei processi di assunzione.

Anche le grandi aziende tech stanno cercando correttivi. Google, nel 2018, ha pubblicato principi guida con l’impegno a ‘evitare di creare o rafforzare bias ingiusti’. Ha inoltre istituito un team interno dedicato alla revisione etica dei propri sistemi. Meta (la società che controlla Facebook, Instagram e WhatsApp) ha sviluppato un toolkit chiamato Fairness Flow per individuare disparità nei suoi algoritmi sin dal 2018. OpenAI nel 2022 ha addestrato la sua AI con feedback umano per renderla “più veritiera e meno tossica”. Nell’estate 2023, su iniziativa governativa, OpenAI, Google, Meta e altri hanno sottoscritto un impegno congiunto a testare i sistemi AI prima del rilascio e a condividere pubblicamente – o con le autorità competenti – le procedure di sicurezza adottate.

Sul fronte normativo, l’Unione Europea ha anticipato tutti con l’AI Act, la prima legge al mondo sull’IA, approvata nel 2024. Il regolamento adotta un approccio per livelli di rischio: vieta gli usi più pericolosi, come la sorveglianza di massa – ovvero il monitoraggio costante e generalizzato delle persone tramite tecnologie digitali – o il social scoring, un sistema di valutazione del comportamento individuale simile a un “punteggio sociale”, già sperimentato in alcune regioni della Cina. Entrato in vigore ad agosto 2024, l’AI Act sarà pienamente applicabile nel 2026: d’ora in poi chi sviluppa o utilizza IA dovrà rispettare standard di sicurezza ed etici. Negli USA, intanto, non c’è ancora una legge analoga, ma la Casa Bianca ha definito un “AI Bill of Rights” (2022) e il NIST un AI Risk Management Framework (2023).

Un tassello fondamentale è rappresentato dagli standard tecnici. A fine 2023 l’ISO ha varato lo standard ISO/IEC 42001, il primo certificabile per la gestione responsabile dell’IA. Un’azienda può farsi certificare da terze parti l’adozione di controlli e procedure adeguati – dall’analisi dei rischi alla trasparenza degli algoritmi – ottenendo un “bollino” di conformità alle buone pratiche. Questo standard, volontario ma allineato alle normative, aiuterà a dimostrare che bias e sicurezza sono sotto controllo e a facilitare il rispetto delle regole (in sinergia con l’AI Act).

Prima di concludere, vale la pena chiarire un punto spesso frainteso. Le intelligenze artificiali generative – in particolare i modelli linguistici di grandi dimensioni, come quelli che animano chatbot e assistenti virtuali – non apprendono in tempo reale da ciò che scriviamo. Non sono sistemi autonomi che aggiornano il proprio comportamento in base a ogni singola interazione. Ogni sessione di utilizzo resta isolata dalle altre, e un utente non può “insegnare” qualcosa alla macchina che sarà poi replicato in automatico altrove. Al massimo, alcune IA possono adattare leggermente il proprio stile in base alla cronologia individuale, quando è attiva la funzione di memoria personalizzata. Ma non esiste un apprendimento collettivo sincronizzato che le renda sempre più “umane” in modo spontaneo. Le distorsioni, i bias, gli errori che osserviamo sono semmai l’eredità del passato: un riflesso delle scelte fatte nel momento in cui quelle macchine sono state addestrate.

Resta però aperta una questione cruciale: fin dove arriva la libertà dell’utente, e dove inizia il controllo di chi gestisce l’IA? Se da un lato ci preoccupiamo – giustamente – del rischio che le macchine si auto-modifichino senza supervisione, dall’altro dobbiamo chiederci chi decide oggi cosa possiamo fare, chiedere, cercare. In molte interazioni, non siamo davvero liberi: siamo liberi solo all’interno di limiti stabiliti da chi ha progettato e addestrato il sistema. Un’IA può rifiutarsi di rispondere a una domanda, evitare certi argomenti, correggere le nostre parole o accompagnare le sue risposte con messaggi precauzionali. Tutto questo può avere senso, se serve a proteggere la sicurezza collettiva. Ma pone interrogativi legittimi sull’autonomia, sulla trasparenza, e su chi – in ultima istanza – abbia davvero il potere.

Di conseguenza, iniziano a emergere anche movimenti normativi e civili per tutelare la libertà di pensiero ed espressione nel contesto dell’intelligenza artificiale. Dalla Digital Services Act europea, che impone maggiore trasparenza nella moderazione algoritmica dei contenuti, al Framework Convention on AI del Consiglio d’Europa, primo trattato internazionale che sancisce l’obbligo di rispettare i diritti fondamentali nell’uso dell’IA, la direzione è chiara: non basta rendere gli algoritmi più sicuri, occorre anche difendere uno spazio digitale libero e pluralista. Negli Stati Uniti, il dibattito è acceso: mentre alcune proposte legislative chiedono limiti più stringenti contro i deepfake e la disinformazione, le associazioni per i diritti civili – come l’ACLU – ricordano che ogni misura tecnica deve essere bilanciata nel rispetto del diritto a esprimersi. Perché l’IA non è solo una questione tecnica: è anche, e sempre più, una questione democratica.

Tutti questi sforzi dimostrano una crescente consapevolezza e offrono strumenti concreti per limitare bias e tossicità. Eppure nessuna soluzione automatica potrà sostituire la responsabilità umana. L’IA rimane uno specchio della società: rendere dati e algoritmi più puliti e trasparenti aiuta, ma a decidere cosa le macchine dovranno apprendere saremo sempre noi. Il pericolo maggiore, in realtà, non è una ribellione delle macchine, ma che esse amplifichino acriticamente i nostri difetti. Per evitarlo, dobbiamo essere noi a trasmettere ai sistemi intelligenti il meglio di ciò che siamo.

 

Per saperne di più

OECD – Skills Matter: Further Results from the Survey of Adult Skills (2016)
 Un’indagine internazionale sulle competenze cognitive e funzionali degli adulti, da cui emergono dati preoccupanti sull’analfabetismo funzionale nei paesi sviluppati.
 https://www.oecd.org/skills/piaac/skills-matter.htm

ProPublica – Machine Bias (2016)
 Un’inchiesta giornalistica che ha rivelato le distorsioni razziali del sistema di giustizia predittiva COMPAS, usato negli Stati Uniti.
 https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Microsoft – The Tay Experiment (2016)
 Breve resoconto pubblico sull'esperimento fallito del chatbot Tay, ritirato dopo meno di 24 ore per comportamenti tossici generati dagli input degli utenti.
 https://blogs.microsoft.com/blog/2016/03/25/learning-tay/

Congresso del PD dopo il referendum: a chi gioverebbe?

Dopo la disfatta del referendum, su cui notoriamente la Segretaria Schlein aveva puntato molto, l’ala riformista del Partito Democratico, che fa capo a Bonaccini, lascia trapelare sempre più insistentemente la volontà di andare a un congresso per capire che direzione far prendere alla maggiore forza politica dell’opposizione.

I dissidi mai sopiti fra le varie anime del partito sono esplosi non appena le urne si sono chiuse.
L’aria di resa dei conti era palpabile fin da subito, con l’eurodeputata Pina Picierno che parla apertamente di “autogol e regalo alla destra”, e qualcuno, come la deputata Simona Malpezzi, che accusa di aver troppo politicizzato la campagna referendaria, rendendo la consultazione un plebiscito sul governo. Anche i fondatori del partito lanciano messaggi preoccupati (e in qualche modo preoccupanti) a Elly Schlein.

Pierluigi Castagnetti, navigato politico della prima e seconda repubblica, affida ai social una dura riflessione e un monito: “Qualcuno dica a Schlein, anche solo privatamente, che così si va a sbattere. Posto che da quelle parti dove sembra prevalere l’arroganza ci sia ancora qualcuno interessato a tornare a vincere, per il bene del Paese e delle sue più giovani generazioni”.
Dall’altra parte della barricata però si tende a valorizzare i (pochi) risultati ottenuti. La Schlein conta i voti: 13 milioni di voti non sono sufficienti ma non sono pochi.
Un fedelissimo della segretaria, Igor Taruffi, risponde alla Picierno in un modo piuttosto brusco: “Parlare di regalo alla destra è sbagliato. Sul lavoro il Pd ha imboccato la strada giusta. Il regalo alla destra si è fatto negli anni passati quando si è rotto il rapporto con il nostro popolo”.
Di chi è la responsabilità vera della disfatta?

Il clima teso viene però stemperato dalla paura che al congresso si arrivi veramente; che la segretaria sia tentata di andare a una conta che non dia i risultati sperati dalla corrente riformista. Voci di corridoio dicono che ad oggi la mozione Schlein ha una solida maggioranza di delegati.
Vi è poi lo spinoso problema del campo largo, che sta dando buon risultati alle amministrative, pur se talvolta dimostra di traballare.
Saprebbe una nuova segreteria avere un rapporto con alleati molto diversi fra loro (AVS, M5S)? Avrebbero la tentazione, dai più definita suicida, di andare da soli, o di guardare ai centristi come Renzi e Calenda?
Francesco Boccia dimostra ottimismo per quanto riguarda l’unione di tutte, o quasi, le opposizioni, parlando di “un fronte che unito vale quanto il centrodestra”. Una forza dunque da non disperdere né sottovalutare.

Alla fine molta acqua viene gettata sul fuoco, mostrando la non volontà di non infliggere un colpo che potrebbe rivolgersi contro se stesso.
Stefano Bonaccini, eurodeputato, membro della segreteria e sicuramente uno dei punti di riferimento dell’opposizione interna a Schlein, smorza i toni. Si vocifera che la convocazione di una riunione urgente della sua area politica sia stata in tutta fretta annullata, proprio per non dare adito ad ulteriori tensioni.
Con i passare dei giorni le bocche sono cucite e molti membri del partito, anche di alto livello, si trincerano dietro al classico no comment.
Il referendum è fallito. Non servono giri di parole. Ma ora niente resa dei conti. Serve capire davvero il messaggio degli italiani e migliorare, anche cambiando schema”, questa la dichiarazione emblematica dell’ex Sindaco di Firenze Dario Nardella, oggi deputato al Parlamento Europeo.
La parola d’ordine è dunque “riflettere, non rompere”?
Le voci dicono esattamente questo.
Almeno per ora la pace regna sovrana nel Partito Democratico.
Ribadiamo il concetto: almeno per ora.
Il conflitto è sempre pronto a ripartire, se non si trova un modus vivendi e un punto da cui rialzarsi tutti insieme.

Giunta Salis a Genova: tra campo larghissimo e polemiche per la conferma di Viscogliosi

0

 ISCRIVITI ALLA NEWSLETTER DI EYWA DIVULGAZIONE 

Dopo la vittoria netta al primo turno, Silvia Salis ha annunciato la nuova giunta che guiderà Genova nei prossimi cinque anni. Una squadra che riflette l’ampiezza della coalizione che l’ha sostenuta, ma che già dalla sua composizione suscita dibattito. Il caso più discusso riguarda la conferma come assessora di Marta Viscogliosi, esponente dell’amministrazione Bucci, in un ruolo tecnico ma simbolicamente carico: una scelta che divide e apre interrogativi sul confine tra continuità amministrativa e compromesso politico.

Una giunta larga come la coalizione

La composizione della nuova giunta Salis racconta molto del momento politico che attraversa Genova. La sindaca, sostenuta da una coalizione eterogenea – Partito Democratico, lista civica personale, Alleanza Verdi e Sinistra, Movimento 5 Stelle e Riformiamo Genova – ha dovuto trovare un equilibrio tra rappresentanze politiche, competenze tecniche e promesse di rinnovamento. È la prima volta da molti anni che il centrosinistra riesce a costruire un “campo larghissimo” coeso già al primo turno. Una differenza netta rispetto alle frammentazioni che avevano segnato le precedenti tornate elettorali.

Allora il successo di Salis non è tanto il frutto della sua figura civica o del suo profilo non partitico, quanto il risultato di un equilibrio politico costruito con pazienza e lungimiranza. La sua affermazione al primo turno riflette un contesto che si è trasformato radicalmente negli ultimi due anni: dal passo indietro di Bucci a Genova, in seguito alla candidatura per la Regione, fino al logoramento della maggioranza di centrodestra dopo il caso Toti. In questo scenario, l’alleanza tra Partito Democratico, Movimento 5 Stelle, Verdi e Sinistra, e altre liste civiche ha retto l’urto della sfiducia generalizzata e ha saputo mobilitare il proprio elettorato, pur senza allargarlo in modo significativo rispetto alle regionali.

Il “campo larghissimo” che ha sostenuto Salis non è nato tanto da un’intesa programmatica, ma da una necessità strategica: fronteggiare un blocco di centrodestra ancora forte nei suoi bastioni e nella memoria recente del governo cittadino. Il voto, in questo senso, si è giocato più sulle appartenenze che sulle persone. La figura di Salis è stata importante per tenere unito il fronte, ma è la coesione dell’alleanza ad aver fatto la differenza. Una coesione costruita sulla consapevolezza di un’occasione irripetibile, più che su un vero cambio di paradigma.

Il caso Viscogliosi: continuità o contraddizione?

Ma proprio in nome di questa inclusività, la giunta ha fatto una scelta che ha sollevato più di una perplessità: il mantenimento in squadra di Marta Viscogliosi, già assessora nella giunta Bucci. Il suo nome era stato indicato nei giorni successivi al voto come possibile figura tecnica “di continuità”, ma la decisione definitiva ha comunque sorpreso molti osservatori e militanti.

Arianna Viscogliosi
Arianna Viscogliosi

Viscogliosi ha gestito deleghe delicate sotto Bucci – patrimonio, urbanistica e rigenerazione urbana – e non è mai stata identificata con le aree più ideologiche del centrodestra. Tuttavia, la sua permanenza nel governo cittadino guidato ora dal centrosinistra rappresenta un’anomalia politica, soprattutto agli occhi di una parte della base che ha votato per un cambio netto di rotta rispetto agli anni del “modello Bucci”. Perché, se è vero che Viscogliosi è una figura tecnica, è altrettanto vero che ha condiviso l’impianto urbanistico e infrastrutturale della giunta precedente – dalle scelte sul waterfront al controverso progetto dello Skymetro.

Salis ha difeso la nomina rivendicando la necessità di garantire continuità amministrativa in dossier complessi e già avviati, ma la questione resta politicamente sensibile. Per alcuni, è il segno di una reale volontà di superare le contrapposizioni sterili, per altri una concessione inaccettabile in nome dell’efficienza.

La scommessa di una giunta ibrida

Nel suo insieme, la squadra di governo unisce assessori espressione dei partiti – con ruoli distribuiti in modo proporzionale ai risultati elettorali – e figure provenienti dal mondo delle professioni, della cultura e del sociale. L’obiettivo dichiarato è di unire competenza ed esperienza politica, evitando tanto il tecnicismo senz’anima quanto la spartizione tra sigle. Ma la presenza di Viscogliosi, accanto a nuovi assessori espressi dal Movimento 5 Stelle o dalla sinistra ambientalista, mette alla prova questa coesistenza. Il rischio è che le differenze programmatiche riemergano nella gestione concreta di alcuni nodi cruciali per la città: mobilità, rigenerazione urbana, rapporti con i poteri economici locali.

La posta in gioco, dunque, va oltre la tenuta della giunta: riguarda la credibilità dell’idea stessa di “campo largo”. A Genova si sta sperimentando una formula in cui convivenza e compromesso sono la regola, non l’eccezione. Se funzionerà, potrebbe diventare un modello politico osservato anche a livello nazionale. Se invece produrrà paralisi o ambiguità, rischia di disilludere una parte importante dell’elettorato che ha creduto in un cambiamento reale.

Un’eredità ingombrante

Marco Bucci

L’aspetto forse più emblematico è che la nuova amministrazione eredita da Bucci non solo cantieri aperti e progetti urbanistici, ma anche alcune figure-chiave. In questo senso, la scelta di Salis suona come una forma di realismo istituzionale, che però ha il sapore amaro dell’ambiguità. Perché l’alternanza democratica non è solo una questione di colore politico, ma anche di indirizzo, di approccio alla città, di visione.

La giunta Salis dovrà dimostrare di non essere solo una continuazione tecnica con un nuovo volto civico, ma un’amministrazione capace di imprimere discontinuità dove serve e di dialogare senza assorbire acriticamente le logiche del passato. Questo, forse, sarà il suo banco di prova più difficile.

Una città laboratorio

In un’Italia dove il dibattito sul campo largo appare ancora fragile e spesso solo teorico, Genova si ritrova laboratorio politico vivente. La vittoria di Salis – netta, ma non bulgara – e la composizione della sua giunta mostrano quanto sia complesso trasformare un’alleanza elettorale in un progetto condiviso di governo.

La prossima sfida, per la sindaca e per la sua squadra, sarà rendere credibile questa formula, senza nascondere sotto il tappeto le sue tensioni interne. Perché Genova, più che di una vetrina di convergenze, ha bisogno di una guida capace di tenere insieme la città reale – quella che ha votato e quella che è rimasta a casa. E ogni scelta, ogni nomina, ogni messaggio che passa – anche attraverso il profilo degli assessori – conterà in questa delicata operazione di fiducia.

 

Elezioni comunali Genova 2025: Ha davvero vinto il centrosinistra?

 ISCRIVITI ALLA NEWSLETTER DI EYWA DIVULGAZIONE 

La notte del 26 maggio 2025 Genova ha voltato pagina: dopo otto anni di governo di centrodestra, il capoluogo ligure è tornato sotto una guida di centrosinistra con l’elezione di Silvia Salis a nuova sindaca. Salis, ex atleta dal profilo civico prestato alla politica, ha conquistato la vittoria al primo turno con poco più del 51% dei voti, distanziando di circa sette punti il principale sfidante, il candidato di centrodestra Pietro Piciocchi. Grazie a questo margine netto, un risultato che non si vedeva da anni, non è stato necessario il ballottaggio, e la nuova amministrazione si è insediata immediatamente a Palazzo Tursi. Dopo due mandati del sindaco Marco Bucci, Genova torna dunque al centrosinistra.

Però, dietro alla vittoria di Salis c’è un’alleanza eccezionalmente ampia, un “campo larghissimo” che ha riunito forze progressiste e moderate in un fronte comune fin dal primo turno. La coalizione a sostegno della nuova sindaca ha infatti incluso il Partito Democratico, la sinistra ecologista (Verdi e Sinistra), il Movimento 5 Stelle, la lista civica “Silvia Salis Sindaca” e persino una componente centrista riunita sotto la sigla Riformiamo Genova. Una compagine eterogenea che, mettendo insieme partiti tradizionali e liste civiche, è riuscita a presentarsi unita al voto come non accadeva da tempo. Questa ampiezza di schieramento ha permesso al centrosinistra genovese di ottenere subito la maggioranza assoluta dei consensi, evitando quelle divisioni interne che in passato ne avevano segnato le sconfitte.

Eppure, di fronte a un cambio di colore così netto alla guida della città, sorge spontanea la domanda: ha davvero vinto il centrosinistra? Per cogliere il significato profondo di questo risultato elettorale, occorre guardare oltre i numeri e analizzare il voto nei suoi elementi di continuità e cambiamento.

Continuità e cambiamento nel voto genovese

Marco Bucci
Marco Bucci

Per capire la portata reale della vittoria di Salis bisogna inserirla nel contesto politico locale degli ultimi anni. Nel 2022 Genova era saldamente in mano al centrodestra: il sindaco uscente Bucci fu rieletto al primo turno con oltre il 55% dei consensi, incarnando quello che molti definivano il “modello Genova” civico-moderato. Due anni dopo, però, lo scenario è cambiato in modo imprevedibile. Nell’ottobre 2024 Bucci ha lasciato anzitempo la guida del Comune per candidarsi alla presidenza della Regione (in seguito alle dimissioni del governatore Giovanni Toti, arrestato con l’accusa di corruzione), vincendo poi le elezioni regionali. Questo passo indietro di Bucci a Genova ha aperto la strada alle elezioni comunali anticipate del 2025 e ha riacceso la competizione politica in città. La prospettiva di un avvicendamento a Palazzo Tursi ha riportato alle urne molti elettori che in precedenza si erano rifugiati nell’astensione: l’affluenza, precipitata a un minimo storico del 44% nel 2022, in questa occasione è risalita oltre la soglia del 50%.

Guardando ai rapporti di forza tra i partiti, emergono importanti elementi di continuità. Il Partito Democratico, asse portante della coalizione Salis, ha consolidato il proprio consenso salendo intorno al 29% rispetto al 21% di tre anni prima, un progresso significativo che segnala però anche un tetto elettorale oltre cui il PD genovese per ora non va. Parallelamente, il centrodestra ha mantenuto in città circa il 44% dei voti, lo stesso livello raccolto da Bucci alle regionali 2024, conservando dunque il suo zoccolo duro malgrado il cambio di candidato. In questa tornata, insomma, più che le persone hanno contato le appartenenze politiche.

Il centrosinistra e il centrodestra hanno mantenuto gli stessi voti delle regionali

La competizione del 2025 si è infatti polarizzata sui due schieramenti contrapposti più che sui candidati. Nonostante i profili molto diversi (Salis esordiente civica, Piciocchi “delfino” di Bucci), gli equilibri di base sono rimasti simili a quelli di partenza. Emblematico il parallelo con le regionali: Salis ha ottenuto una percentuale di voti identica a quella di Andrea Orlando, candidato del centrosinistra pochi mesi prima, segno che a vincere è stato lo stesso blocco progressista di allora, presentatosi compatto ma non davvero ampliato a nuovi settori dell’elettorato. La nuova sindaca è riuscita a tenere unito il fronte senza perdere pezzi ma non ad allargarlo oltre i suoi confini tradizionali. Mantenere le posizioni, in politica, non basta se l’obiettivo è imprimere una svolta: serve anche saper crescere, coinvolgendo quei cittadini che finora ne erano rimasti ai margini.

Anche la tenuta del centrodestra attorno al 44% con un candidato meno popolare di Bucci indica che quello schieramento conserva radici profonde in città. La mappa del voto si è infatti tinta quasi interamente di rosso, con il centrodestra avanti solo in alcune zone residenziali benestanti del Levante genovese. La Genova del 2025 non è più quella di un decennio fa: la tendenza di fondo appare spostata verso sinistra. Già nel 2024 Bucci, pur vincendo in Liguria, era stato superato dal centrosinistra all’interno del Comune di Genova; la sconfitta di Piciocchi nel 2025 conferma questo dato negli equilibri locali. In sintesi, alle comunali genovesi hanno prevalso i partiti e le alleanze più che i singoli nomi: i cittadini hanno votato su opposte visioni di governo incarnate dai due blocchi, più che sul carisma personale dei candidati sindaco.

Il campo largo e le sue ambiguità

Campo largo
Silvia Salis

La chiave del successo di Salis sta in larga parte nella formula inedita di alleanza messa in campo. Per la prima volta da molti anni, il centrosinistra genovese si è presentato unito al primo turno in un fronte amplissimo. Questa coalizione eterogenea, dal PD al M5S, dalla sinistra ambientalista fino a un’area centrista riformista, ha mobilitato il suo elettorato tradizionale e riportato alle urne anche molti astenuti, ma ha fallito nell’obiettivo di allargarlo oltre i confini già sperimentati nelle recenti regionali. La sua origine è stata più strategica che programmatica: l’obiettivo comune era sommare tutte le forze disponibili per battere un centrodestra ancora forte nei suoi bastioni cittadini, nonostante gli scandali dell’ex governatore Toti, e reduce da un lungo governo locale. In definitiva, questa vittoria è figlia di un compromesso dettato dall’urgenza del momento più che di un genuino cambio di paradigma politico.

La figura civica di Silvia Salis ha aiutato a tenere insieme anime politiche diverse, ma ciò che davvero ha cementato il campo larghissimo è stata la consapevolezza di trovarsi di fronte a un’occasione irripetibile. L’uscita di scena di Bucci e il logoramento del centrodestra dopo l’era Toti hanno offerto al centrosinistra una finestra di opportunità difficilmente ripetibile, che tutte le componenti, dalla sinistra più radicale ai moderati di centro, hanno voluto sfruttare accettando compromessi reciproci pur di vincere. Questa unità è stata una mossa tattica vincente, che ha riconsegnato al centrosinistra la guida della città, ma ha comportato anche un’ibridazione dell’identità politica della nuova maggioranza. Mettere insieme sensibilità progressiste e centriste, istanze di cambiamento ed elementi di continuità amministrativa, significa dar vita a una maggioranza sui generis in cui il confine tra alternanza e continuità diventa più sfumato.

Emblematica, in tal senso, è la conferma in giunta di Arianna Viscogliosi, già assessora nell’amministrazione Bucci. Salis l’ha voluta nella propria squadra (affidandole la delega alla Sicurezza) per assicurare continuità gestionale su alcuni dossier complessi, valorizzandone la competenza tecnica. Questa scelta, però, ha suscitato perplessità in una parte dell’elettorato di centrosinistra: vedere una figura di spicco della passata giunta di centrodestra sedere ancora a Palazzo Tursi è parso a molti un controsenso rispetto alla promessa di discontinuità. Per alcuni includere personalità “trasversali” come Viscogliosi denota la volontà di superare divisioni ideologiche sterili; per altri rappresenta un compromesso inaccettabile, che finisce per offuscare il profilo politico della nuova amministrazione. Dal canto suo, il centrodestra non ha mancato di ironizzare: nominare un ex assessore di Bucci, hanno osservato esponenti dell’opposizione, significa in fondo riconoscere che non tutto l’operato della giunta precedente era da disprezzare.

Arianna Viscogliosi
Arianna Viscogliosi

La posta in gioco, a ben vedere, è la credibilità stessa del “campo largo” come formula di governo. Genova sta sperimentando una convivenza permanente tra anime differenti. Se questa formula dovesse funzionare, ovvero se la giunta riuscirà a decidere e agire senza impantanarsi nelle differenze interne, potrebbe diventare un modello politico osservato a livello nazionale. Se invece dovessero prevalere la paralisi o l’ambiguità nelle scelte, il risultato sarebbe una ulteriore disillusione per quei cittadini che avevano sperato in un cambiamento reale.

Rappresentanza e frattura civica: centro e periferie

Al di là delle alchimie politiche e dei numeri, le elezioni genovesi del 2025 hanno riportato l’attenzione su un nodo cruciale: il rapporto tra istituzioni e cittadini, tra centro e periferia, tra partecipazione e disillusione. La vittoria del centrosinistra, per quanto significativa, non deve far dimenticare che una larga parte dei genovesi è rimasta ai margini, distante dalla politica al punto da non recarsi alle urne. L’affluenza complessiva, pur risalita oltre il 51%, ha rivelato una frattura territoriale marcata: in alcuni quartieri periferici ha votato appena un elettore su cinque, mentre nelle zone centrali e benestanti hanno votato quasi due su tre. In aree popolari come il CEP l’affluenza si è fermata intorno al 20%, a fronte di punte vicine al 70% in quartieri centrali come Castelletto o Manin. Ciò significa che ampie fasce di popolazione, soprattutto nelle periferie, si sentono tuttora escluse dalla vita pubblica e prive di rappresentanza.

La sfida per la nuova amministrazione sarà dunque colmare questo divario civico. Non basta aver vinto nelle urne: occorre ricucire il rapporto con quei cittadini rimasti ai margini, altrimenti la svolta rischia di rivelarsi incompleta. Resta aperta una domanda: riuscirà la giunta Salis a riportare nella partecipazione attiva quei genovesi che oggi hanno perso fiducia? Saprà dimostrare, con i fatti, che il cambiamento promesso include davvero tutta la città, centro e periferie? La risposta arriverà solo col tempo, dalle scelte concrete e dalla capacità di coinvolgere i cittadini nei processi decisionali. Genova ha voltato pagina con il voto; ora dovrà dimostrare di saperla voltare anche nella pratica quotidiana del governo, facendo sentire rappresentati anche coloro che finora sono rimasti a guardare. Su questa riconnessione tra istituzioni e comunità, tra partecipazione e disillusione, si misurerà in definitiva il successo profondo, o l’insuccesso, della nuova stagione politica appena inaugurata.

 

Il Machine Learning: quando le macchine imparano

 ISCRIVITI ALLA NEWSLETTER DI EYWA DIVULGAZIONE 

Il machine learning è una di quelle rivoluzioni silenziose che, senza far troppo rumore, ha già cominciato a riscrivere il nostro rapporto con la tecnologia. Siamo abituati a pensare ai computer come strumenti che seguono istruzioni dettagliate: ma cosa accade quando iniziano a imparare da soli, osservando, sperimentando, migliorando? In queste pagine ti accompagneremo alla scoperta del cuore pulsante di questa trasformazione. Capiremo insieme cos’è davvero il machine learning, come funziona, quali logiche lo guidano e perché sta diventando sempre più centrale in ambiti che vanno dalla medicina alla finanza, dal linguaggio alle immagini. La sua forza sta proprio qui: non chiede più alla macchina di eseguire, ma di apprendere. Ed è in questo scarto che si apre un mondo nuovo.

L’espressione “machine learning” compare per la prima volta nel 1959, per mano di Arthur Samuel, pioniere dell’intelligenza artificiale ai laboratori IBM. Fu lui a definirlo come il campo di studio che offre ai computer la capacità di imparare, senza che ogni azione venga programmata a mano. All’epoca si parlava anche di “computer autodidatti”: una formula che, a ben vedere, anticipava l’orizzonte attuale con sorprendente lucidità.

Machine Learning

Il primo modello pratico di apprendimento automatico risale proprio a quegli anni, quando Samuel sviluppò un programma capace di calcolare le probabilità di vittoria nel gioco della dama, adattando le mosse in base all’esperienza. Ma le radici teoriche di questa tecnologia vanno ancora più a fondo: bisogna risalire agli studi sui meccanismi dell’intelligenza umana. Già nel 1949, lo psicologo canadese Donald Hebb proponeva una teoria affascinante nel suo libro The Organization of Behavior: le cellule nervose, interagendo tra loro, rafforzano i legami con l’uso. Un’intuizione che ha ispirato la struttura degli algoritmi moderni, basati su nodi artificiali che si scambiano informazioni in modo simile a quanto avviene nel nostro cervello.

Una definizione più formale — oggi spesso citata — è quella del ricercatore Tom Mitchell. Nel 1997 scriveva: “Un programma informatico apprende dall’esperienza E rispetto a una classe di compiti T e una misura di prestazione P, se le sue prestazioni nei compiti in T, misurate da P, migliorano con l’esperienza E”. È un modo chiaro e concreto per capire di cosa si tratta: non tanto un processo mentale, quanto una capacità di migliorare nel fare, attraverso l’esperienza. Una prospettiva in linea con quanto suggeriva Alan Turing, che preferiva porsi una domanda diversa da quella classica: “Le macchine possono pensare?”. Meglio chiedersi, piuttosto: “Le macchine possono fare ciò che facciamo noi, in quanto esseri pensanti?”.

Il machine learning è una parte specifica dell’intelligenza artificiale, e ne condivide gli obiettivi più ambiziosi. Come si dice spesso nel settore, “tutto il machine learning è intelligenza artificiale, ma non tutta l’intelligenza artificiale è machine learning”. Il cuore della questione è che, anziché scrivere ogni istruzione necessaria, si offre alla macchina l’opportunità di imparare da sola, grazie all’analisi dei dati.

È proprio qui che il machine learning si distingue dai sistemi informatici tradizionali. Invece di seguire sequenze di comandi preimpostati, questi algoritmi sono progettati per individuare pattern nei dati e sfruttarli per fare previsioni o prendere decisioni. Nessun bisogno di intervento umano diretto, né di infinite righe di codice: bastano i dati, e un sistema capace di adattarsi. Un approccio potente, soprattutto di fronte a problemi complessi o variabili, dove le regole fisse non sono più sufficienti.

Come funziona il Machine Learning

fondamentali: i dati, i software e l’hardware. È dalla loro combinazione che nascono i modelli predittivi capaci di interpretare la realtà, anticipare scenari o prendere decisioni autonome. Gli algoritmi di machine learning non si limitano a replicare formule o seguire regole preimpostate: imparano direttamente dai dati, usando strumenti matematici e computazionali per costruire una propria “conoscenza del mondo”, senza bisogno di equazioni fisse o modelli già scritti.

Un punto importante — spesso fonte di confusione — è la distinzione tra algoritmo e modello. L’algoritmo è come una ricetta: un insieme di istruzioni su come apprendere dai dati. Il modello, invece, è il piatto finito. In pratica, quando applichiamo un algoritmo a un set di dati, ciò che otteniamo alla fine del processo di apprendimento è un modello, cioè qualcosa che può essere usato per fare previsioni o prendere decisioni su nuovi dati mai visti prima. Prima dell’addestramento c’è un metodo; dopo, c’è un sapere applicabile.

Il Processo di apprendimento

Il modo in cui apprende un sistema di machine learning non è poi così distante da come apprendiamo noi esseri umani. Pensiamo, per esempio, a un bambino che sta imparando a riconoscere i cani. La prima volta che ne incontra uno — magari un cucciolo dal muso buffo e le orecchie morbide — associa quell’animale a un insieme di caratteristiche: la coda che scodinzola, il naso umido, il suono del latrato. Se quell’esperienza è piacevole, lascia un segno nella memoria. E così, la volta successiva, anche se il cane che ha davanti è diverso per razza, taglia o colore, il bambino riesce comunque a riconoscerlo come un cane, grazie a quelle somiglianze.

Machine Learning

Il machine learning funziona più o meno allo stesso modo. L’algoritmo osserva una serie di esempi — i dati di addestramento — e impara a cogliere schemi, somiglianze, relazioni. Una volta “allenato”, è in grado di affrontare dati mai visti prima, applicando ciò che ha appreso per formulare previsioni o prendere decisioni. In altre parole: impara dall’esperienza, e usa quell’esperienza per orientarsi nel nuovo.

Addestramento e test

Per costruire un buon modello di machine learning, serve un processo ben collaudato, che inizia quasi sempre con una semplice divisione: i dati a disposizione vengono separati in due gruppi. Uno servirà per l’addestramento (training set), l’altro per il test (testing set). È come insegnare qualcosa a un allievo e poi verificare se ha davvero capito. Nella prima fase, il modello analizza il training set per individuare relazioni tra le informazioni in ingresso e i risultati attesi. Nella seconda fase, si testa ciò che ha imparato, usando dati che non ha mai visto prima, per capire se riesce a generalizzare, cioè a comportarsi bene anche fuori dal “copione”.

Un esempio concreto può rendere tutto più chiaro. Supponiamo di voler creare un modello capace di prevedere il prezzo delle case in una città. Raccogliamo allora un insieme di dati reali: la superficie dell’immobile, il numero di stanze, la presenza o meno di un giardino, eventuali servizi aggiuntivi e, naturalmente, il prezzo di vendita. A questo punto dividiamo il dataset: una parte (diciamo l’80%) andrà nel training set, il resto nel testing set.

Durante l’addestramento, il modello impara a riconoscere le connessioni tra le caratteristiche delle case e il loro prezzo. Una volta terminata questa fase, lo mettiamo alla prova con il testing set. Gli forniamo solo le informazioni sulle case, senza i prezzi, e gli chiediamo di prevederli. Poi confrontiamo le sue previsioni con i prezzi reali. Se si avvicina molto, significa che ha imparato bene; se sbaglia spesso, vuol dire che c’è ancora da lavorare. È così che si misura la sua affidabilità.

Apprendimento supervisionato

L’apprendimento supervisionato funziona un po’ come in una classe di scuola. Immaginiamo un insegnante che mostra ai bambini come si scrive la lettera “A”: la disegna alla lavagna, lentamente, con cura. I bambini osservano, provano a imitarla. All’inizio commettono errori, ma con il tempo imparano. Finché, un giorno, riescono a scriverla da soli, senza più bisogno della guida dell’insegnante.

Allo stesso modo, un sistema di machine learning supervisionato viene addestrato su dati etichettati, cioè su informazioni che includono già la risposta corretta per ogni esempio. La macchina osserva questi esempi, apprende le relazioni tra i dati e costruisce un modello che, una volta addestrato, può essere applicato a nuovi casi mai visti prima.

All’interno dell’apprendimento supervisionato esistono due grandi categorie operative. La prima è la classificazione, che consiste nell’insegnare alla macchina a distinguere tra categorie diverse. È come riempire un cesto di frutta: se il sistema ha imparato a riconoscere mele, pere e fragole grazie a immagini etichettate, potrà poi classificare correttamente nuovi frutti, anche se non li ha mai visti esattamente così.

Machine Learning

La seconda categoria è la regressione, che serve a fare previsioni numeriche basate su dati noti. Torniamo all’esempio immobiliare: se forniamo al modello dati su posizione, metratura e numero di stanze, può imparare a stimare il prezzo di una casa, anche se non ne ha mai visto una identica.

Tra gli strumenti più utilizzati in questo tipo di apprendimento troviamo algoritmi come la regressione lineare e logistica, usati per stimare valori numerici o probabilità — ad esempio, quanto è probabile che una persona clicchi su un annuncio pubblicitario. Ci sono poi le macchine a vettori di supporto (SVM), che disegnano confini netti tra categorie, un po’ come se tracciassero linee immaginarie per distinguere mele da pere. Gli alberi decisionali, invece, somigliano a un gioco di domande a risposta multipla: “Ha il pelo? Fa miao? Allora è un gatto”. Le foreste casuali sono gruppi di tanti alberi decisionali che lavorano insieme, come una squadra che vota a maggioranza. E infine ci sono le reti neurali, ispirate al funzionamento del cervello umano, capaci di apprendere in modo flessibile e di adattarsi anche a dati complessi come immagini o suoni.

Ognuno di questi strumenti ha le sue particolarità, ma tutti condividono lo stesso principio: imparare dai dati già etichettati per saper riconoscere, prevedere e decidere in situazioni nuove.

Apprendimento non supervisionato

L’apprendimento non supervisionato è come esplorare una città sconosciuta senza una mappa, ma con un buon senso dell’orientamento. Gli algoritmi, in questo caso, non ricevono indicazioni su quale sia la “risposta giusta”: non ci sono etichette, né istruzioni precise. L’obiettivo è osservare i dati grezzi e scoprire da sé strutture, somiglianze, connessioni nascoste. È un tipo di apprendimento che imita l’intuito naturale con cui anche noi riconosciamo degli schemi nel mondo.

Pensiamo a un bambino che conosce solo il cane di casa. Quando ne vede un altro per la prima volta — magari il barboncino di un visitatore — sorride riconoscendo qualcosa di familiare: le orecchie, la coda, l’abbaiare. Nessuno gli ha spiegato che quello è un cane diverso dal suo, ma il bambino riesce a fare un collegamento spontaneo. È lo stesso principio su cui si basa l’apprendimento non supervisionato.

Una delle tecniche principali in questo ambito è il clustering, ovvero la capacità di raggruppare dati simili tra loro anche se non hanno un’etichetta. È quello che avviene nel marketing quando si suddividono i clienti in gruppi sulla base dei comportamenti d’acquisto: chi compra regolarmente, chi acquista solo in saldo, chi preferisce certi prodotti. Nessuno ha detto all’algoritmo quali sono i gruppi da cercare — li scopre da solo, mettendo insieme i pezzi.

Un’altra tecnica importante è la riduzione della dimensionalità, che consiste nel semplificare i dati eliminando variabili ridondanti, per cogliere l’essenza delle informazioni disponibili. È come guardare una mappa in scala: perdi qualche dettaglio, ma capisci meglio il paesaggio generale.

Questo tipo di apprendimento è particolarmente utile quando si ha a disposizione una grande quantità di dati non etichettati — e si vogliono far emergere strutture invisibili, intuizioni nuove, o nuove domande a cui non si era ancora pensato di rispondere.

Apprendimento per rinforzo

L’apprendimento per rinforzo — in inglese Reinforcement Learning, o più semplicemente RL — è forse il più “istintivo” dei metodi di machine learning. Si basa sull’idea che per imparare a prendere decisioni efficaci servano tanti tentativi, qualche errore e un sistema di premi e punizioni. È un approccio che assomiglia sorprendentemente a come apprendiamo noi esseri umani fin da piccoli: facciamo una cosa, osserviamo le conseguenze, e la ripetiamo solo se ci ha portato a qualcosa di buono.

In questa modalità, un algoritmo non riceve istruzioni dettagliate. Gli si assegna un compito e si lascia che esplori da solo le possibili azioni. Quando fa qualcosa che lo avvicina all’obiettivo, riceve una ricompensa. Quando si allontana, non ottiene nulla — o, in alcuni casi, riceve un segnale negativo. È questo meccanismo di feedback continuo a guidarlo nel tempo verso le decisioni migliori.

Una caratteristica interessante degli algoritmi di reinforcement learning è la capacità di tollerare la gratificazione ritardata. Non sempre la scelta giusta è quella che dà un premio immediato: a volte bisogna “perdere una battaglia per vincere la guerra”. L’algoritmo impara a valutare anche percorsi più lunghi e complessi, che magari includono ostacoli iniziali ma conducono al miglior risultato possibile.

Un esempio concreto? Pensiamo a un robot, o a un veicolo a guida autonoma. Non c’è un manuale che spieghi come affrontare ogni incrocio, ostacolo o deviazione. Ma il sistema, interagendo con l’ambiente, capisce che evitare un muro è meglio che andarci contro, che rallentare in curva è più utile che accelerare. Col tempo, queste decisioni si perfezionano, fino a diventare strategie sofisticate.

Reti Neurali e Deep Learning

Immagina un algoritmo che impara osservando il mondo un po’ come facciamo noi: analizza segnali, coglie schemi, fa previsioni sempre più accurate. È questo il principio alla base delle reti neurali, sistemi informatici ispirati al funzionamento del cervello umano. Quando queste reti vengono costruite in modo particolarmente profondo e stratificato, si parla di deep learning — un’area avanzata del machine learning che sfrutta l’enorme potenza di calcolo moderna per analizzare quantità di dati davvero gigantesche.

Oggi le tecniche di deep learning sono tra le più sofisticate nel riconoscere oggetti in una fotografia o parole in una registrazione audio. Ma il loro potenziale si estende ben oltre: si stanno già applicando alla traduzione automatica, alla diagnosi precoce di malattie e ad altri compiti dove la precisione è vitale.

Una tecnica chiave in questo campo, specialmente quando si lavora con immagini, è quella della convoluzione. Si tratta di un’operazione matematica che “condensa” l’immagine, estraendo le caratteristiche più significative. Nelle reti neurali convoluzionali (o CNN), ogni strato della rete applica dei filtri, come una lente che mette in risalto dettagli diversi. Gli strati iniziali individuano elementi semplici — come contorni, curve, texture — mentre quelli successivi riconoscono strutture sempre più complesse: una testa, un occhio, una coda. Alla fine, la rete costruisce una comprensione profonda dell’immagine.

Ma le reti neurali non sono l’unico strumento. Alcuni algoritmi — come le macchine a vettori di supporto (SVM), gli alberi decisionali e le foreste casuali — sono molto efficaci nel classificare dati. Pensiamo, ad esempio, ai filtri antispam: grazie a questi algoritmi, è possibile riconoscere automaticamente le email indesiderate, sulla base di fattori come mittente, parole chiave o struttura del messaggio.

Un’altra famiglia di strumenti, quelli della regressione, viene invece impiegata per prevedere valori numerici continui. La regressione lineare, per esempio, serve a identificare la relazione tra variabili: come cambia il prezzo di una casa al variare della sua metratura o della zona in cui si trova. Questi modelli vengono usati ogni giorno in ambiti come il mercato immobiliare, l’analisi delle vendite o la previsione del rischio finanziario.

Applicazioni pratiche del Machine Learning

Il machine learning è ormai ovunque. Dai laboratori di ricerca è passato silenziosamente nelle corsie d’ospedale, nei mercati finanziari, nei centri di elaborazione dati e persino tra le righe di documenti scritti a mano. Sta trasformando il modo in cui viviamo, lavoriamo e ci relazioniamo al mondo. Vediamo insieme alcune delle sue applicazioni più significative.

Sanità

Nel campo medico, il machine learning si è rivelato uno strumento potente e prezioso. I sistemi di intelligenza artificiale sono in grado di analizzare con estrema precisione immagini mediche — come risonanze magnetiche, radiografie e TAC — individuando segnali nascosti che potrebbero sfuggire anche all’occhio più esperto, o che un medico affaticato potrebbe trascurare.

Oltre all’imaging (per “imaging” si intende la produzione e l’analisi di immagini mediche, come radiografie, risonanze magnetiche o TAC, utilizzate per osservare l’interno del corpo umano senza interventi invasivi), questi modelli possono mettere insieme una mole impressionante di dati: sintomi, informazioni genetiche, fattori ambientali e stili di vita. Così facendo, suggeriscono diagnosi precoci, come nel caso di patologie complesse quali cancro, diabete o malattie cardiovascolari. Le tecniche di regressione, poi, permettono di stimare il rischio individuale di sviluppare una determinata condizione, offrendo agli operatori sanitari strumenti predittivi per un’assistenza sempre più personalizzata.

Non solo numeri e cartelle cliniche. Con l’analisi del linguaggio naturale e del sentiment, le organizzazioni sanitarie possono anche leggere tra le righe delle conversazioni con i pazienti, cogliendo emozioni, bisogni e malesseri latenti. Un piccolo aiuto tecnologico per costruire un dialogo più umano.

Riconoscimento della scrittura a mano

Un’applicazione affascinante — e per certi versi poetica — è il riconoscimento della scrittura a mano. Si tratta di addestrare i modelli a leggere testi scritti manualmente, un po’ come facciamo noi davanti a un vecchio quaderno.

Questa tecnologia è già usata per digitalizzare archivi storici, decifrare ricette mediche o modulistica compilata a penna. I vantaggi sono enormi: risparmio di tempo, migliore accessibilità, e soprattutto la possibilità di preservare documenti preziosi — lettere, registri, appunti — che altrimenti rischierebbero di perdersi nel tempo.

Previsioni finanziarie

Nel mondo della finanza, dove anche pochi secondi fanno la differenza, il machine learning è diventato uno degli alleati più affidabili. Analizzando dati storici, notizie, indicatori di mercato e comportamenti degli investitori, questi sistemi riescono a prevedere fluttuazioni nei prezzi delle azioni, variazioni nei tassi di cambio e tendenze nei consumi.

Tuttavia, non tutto è semplice come sembra. L’efficacia di questi modelli dipende dalla qualità dei dati: se i dati sono distorti, incompleti o riflettono pregiudizi preesistenti, anche le previsioni saranno inquinate. Inoltre, molti dei modelli più sofisticati — come le reti neurali profonde — sono delle vere e proprie “scatole nere”: funzionano bene, ma non sempre è chiaro perché. E questo solleva domande delicate, specialmente in un settore dove la trasparenza è cruciale.

Etica e Privacy

Ed è qui che il discorso tecnico incontra un nodo morale. L’uso crescente del machine learning ci impone di farci alcune domande fondamentali. Chi ha accesso ai nostri dati? Come vengono usati? Gli algoritmi sono davvero imparziali o rischiano di riprodurre e amplificare le disuguaglianze sociali già esistenti?

La posta in gioco è alta: sorveglianza di massa, violazioni della privacy, discriminazioni automatizzate. Per questo motivo, è essenziale che lo sviluppo e l’implementazione di queste tecnologie avvengano nel rispetto dei diritti umani e dei principi di giustizia ed equità. Il progresso non può essere cieco.

Uno sguardo al futuro

Il machine learning è una delle frontiere più dinamiche e promettenti della tecnologia contemporanea. E siamo solo all’inizio. Stanno già emergendo nuove direzioni, come l’apprendimento federato, che consente di addestrare modelli su dispositivi diversi senza mai centralizzare i dati. Oppure l’apprendimento continuo, che permette ai sistemi di aggiornarsi man mano che ricevono nuove informazioni, senza dimenticare quanto appreso in precedenza.

L’integrazione con altre tecnologie, come la blockchain o l’Internet delle Cose, sta aprendo scenari che fino a pochi anni fa sembravano fantascienza.

Ma come ogni grande potere, anche questo comporta grandi responsabilità. Il vero futuro del machine learning dipenderà da come sapremo governarlo, orientarlo, guidarlo verso usi che mettano al centro la dignità delle persone, l’ambiente, il bene collettivo. Perché i dati parlano, ma sta a noi ascoltare con coscienza.

FONTI
  1. Cloud.it, Introduzione al machine learning, Cloud.it. Disponibile su: https://www.cloud.it/tutorial/introduzione-al-machine-learning.aspx
    
  2. SAP, Che cos’è il machine learning?, SAP Italia. Disponibile su: https://www.sap.com/italy/products/artificial-intelligence/what-is-machine-learning.html
    
  3. Hewlett Packard Enterprise, Che cos’è il machine learning?, HPE. Disponibile su: https://www.hpe.com/it/it/what-is/machine-learning.html
    
  4. Mitchell, T. M. (1997), Machine Learning, Cambridge University Press. Disponibile su: https://www.cambridge.org/core_title/gb/564257
    
  5. IBM, Supervised Learning, IBM Think. Disponibile su: https://www.ibm.com/think/topics/supervised-learning
    
  6. Oracle, Apprendimento non supervisionato, Oracle Italia. Disponibile su: https://www.oracle.com/it/artificial-intelligence/machine-learning/unsupervised-learning/
    
  7. Amazon Web Services (AWS), What is Reinforcement Learning?, AWS. Disponibile su: https://aws.amazon.com/what-is/reinforcement-learning/
    
  8. Oracle, Che cos’è il machine learning?, Oracle Italia. Disponibile su: https://www.oracle.com/it/artificial-intelligence/machine-learning/what-is-machine-learning/
    
  9. Mitchell, T. M., Machine Learning, Carnegie Mellon University. Disponibile su: http://www.cs.cmu.edu/~tom/mlbook.html

Referendum 8-9 Giugno 2025: i risultati

In concomitanza con i ballottaggi per le amministrative, domenica 8 e lunedì 9 giugno si è votato anche per il referendum abrogativo su cinque quesiti, quattro dei quali in materia di lavoro e uno sulla cittadinanza. Si trattava di una consultazione molto attesa, promossa da sindacati e associazioni per contrastare le attuali norme sui licenziamenti, i contratti a termine e per ridurre da dieci a cinque gli anni richiesti agli stranieri per ottenere la cittadinanza italiana.

Nonostante l’intensificarsi della mobilitazione negli ultimi giorni, il quorum non è stato raggiunto. L’affluenza si è fermata poco sopra il 30%, rendendo il referendum giuridicamente invalido. La partecipazione è risultata molto variabile sul territorio nazionale: la Toscana ha fatto registrare la percentuale più alta, mentre il Trentino-Alto Adige è rimasto fanalino di coda. Non irrilevante il fatto che la giornata di lunedì,  lavorativa, abbia fatto registrare un picco di votanti.

Tra le persone che si sono recate alle urne, la maggioranza ha votato Sì: circa l’80% sui temi del lavoro e il 60% sulla cittadinanza. Un dato politicamente rilevante, anche se privo di effetti giuridici.

A caldo, dal fronte promotore si respira delusione. L’eurodeputata del PD Pina Picierno parla di «una sconfitta profonda, seria, evitabile. Un regalo enorme a Giorgia Meloni e alle destre». Riccardo Magi (+Europa) invita comunque a non parlare di sconfitta: «La vittoria dell’astensionismo è un dato, ma non ci cancella». Anche il segretario generale della CGIL, Maurizio Landini, ha riconosciuto il mancato obiettivo: «Oggi non è una giornata di vittoria. Ma oltre 14 milioni di persone hanno votato: un numero importante, un punto di partenza. Non abbiamo nessuna intenzione di cambiare la nostra strategia».

Sul fronte opposto, l’interpretazione prevalente è quella di una bocciatura politica. Il senatore di Fratelli d’Italia Michele Barcaiuolo commenta: «Il dato che emerge dal quesito sulla cittadinanza è politicamente impietoso e certifica il fallimento totale della proposta della sinistra». Anche Matteo Salvini rilancia: «La cittadinanza non è un regalo: servono regole più chiare e severe per essere cittadini italiani, non basta qualche anno in più di residenza». Il ministro Pichetto Fratin ribadisce il concetto, dichiarando che anche «il non voto è stata una scelta di voto».

Una lettura che non tiene conto del fatto che l’astensione può avere motivazioni molteplici: disinformazione, scetticismo, boicottaggio, difficoltà logistiche o mancanza di fiducia nel sistema. Attribuire al non voto una valenza univoca, soprattutto in un contesto in cui alcune forze politiche avevano esplicitamente invitato a non votare, rischia di trasformare un gesto di ritiro o indifferenza in un plebiscito implicito, operazione quanto meno discutibile.

Il sottosegretario Giovan Battista Fazzolari (FdI) ha affermato che «le opposizioni hanno voluto trasformare i cinque referendum in un referendum sul governo Meloni. Il responso è molto chiaro: il governo ne esce rafforzato, la sinistra indebolita». Di tutt’altro parere chi, come l’ex presidente della Camera Laura Boldrini, sottolinea come i temi portati al voto siano ancora vivi nel dibattito sociale e parlamentare.

Anche dal cosiddetto “centro” arrivano frecciate: Matteo Renzi (Italia Viva) ha definito i quesiti «ideologici e rivolti al passato», ribadendo che «per costruire un centrosinistra vincente bisogna parlare di futuro».

Intanto, sui social e in alcuni contesti civici, si è riaperto un dibattito più ampio: quello sull’utilizzo strumentale dell’astensione, sulla validità del quorum in un sistema a crescente disaffezione elettorale, e sul ruolo dell’informazione pubblica nel garantire una partecipazione consapevole.

Il referendum non ha prodotto un cambiamento normativo, ma ha riaperto questioni politiche e culturali profonde. Ed è proprio in quella fessura, tra sfiducia e bisogno di rappresentanza, che il dibattito ora si sposta, dalle urne alle istituzioni.

 

Quorum e referendum in Italia: come funziona, da dove viene, perché fa discutere

C’era una volta un Paese appena uscito da una dittatura. Era il 1947 e in Italia si discuteva su come costruire una democrazia nuova, più giusta, più partecipata. I lavori dell’Assemblea Costituente erano in pieno fermento. Una delle questioni più delicate riguardava lo strumento referendario: come permettere ai cittadini di intervenire davvero sulle leggi? Come garantire che la loro voce contasse, ma senza correre il rischio che una minoranza troppo piccola decidesse per tutti?

Fu in quel contesto che nacque il cosiddetto quorum di partecipazione: affinché un referendum abrogativo fosse valido, avrebbe dovuto votare almeno la metà più uno degli aventi diritto. Una soglia alta, ma ritenuta necessaria dai costituenti per proteggere l’equilibrio democratico da derive impulsive o da astensioni di massa.

Quorum referendum

All’epoca, va detto, l’affluenza era altissima: si raggiungeva tranquillamente l’80–90% dei votanti. Andare a votare era sentito come un dovere civico, un diritto conquistato. Nessuno avrebbe potuto immaginare che, decenni dopo, proprio quel quorum si sarebbe trasformato da garanzia a ostacolo sistemico alla partecipazione.

Il meccanismo del referendum

Il meccanismo è semplice: nei referendum abrogativi – cioè quelli in cui si chiede ai cittadini di cancellare una legge o una sua parte – serve il voto favorevole della maggioranza dei votanti, ma solo se ha votato almeno il 50% + 1 degli aventi diritto. Questo è stabilito dall’articolo 75 della Costituzione.

Anche se in teoria è una misura di tutela, nella pratica — soprattutto negli ultimi anni — si è trasformata in una leva strategica per neutralizzare il referendum stesso.

Infatti, chi vuole che una legge resti in vigore, spesso non invita a votare “No”, ma chiede agli elettori di non votare affatto, confidando nel mancato raggiungimento del quorum. L’astensione diventa così una tattica politica. Non si discute più nel merito della questione, ma si cerca di affossare preventivamente il confronto stesso.

E funziona: se l’affluenza è bassa, il referendum decade, anche se il 90% dei votanti ha espresso un Sì o un No netto. In altre parole, l’assenza pesa più della presenza, e chi resta a casa può contare più di chi si informa e partecipa.

Dalla nascita della Repubblica ad oggi, in Italia si sono svolti 72 referendum abrogativi (dal 1974 al 2022). Di questi, 39 hanno raggiunto il quorum e quindi sono stati validi, mentre 33 sono falliti per insufficiente partecipazione. Non sempre per disinteresse: in diversi casi, la mancata affluenza è stata il risultato di strategie astensionistiche deliberate, promosse da partiti o istituzioni per neutralizzare l’effetto del voto popolare.

Negli ultimi anni, questo meccanismo ha mostrato tutta la sua fragilità. Dopo il grande successo del referendum del 2011 – quello sull’acqua pubblica, sul nucleare e sul legittimo impedimento – con un’affluenza del 54,8% e oltre il 95% di “Sì”, nessun altro referendum abrogativo ha superato il quorum.

Nel 2022, ad esempio, si è votato su cinque quesiti riguardanti la giustizia: la partecipazione si è fermata attorno al 20,9%. E anche chi era già al seggio per altri motivi – ad esempio per le elezioni comunali – spesso ha rifiutato la scheda referendaria. Una scelta figlia non solo della disinformazione, ma anche di un clima culturale in cui il referendum è ormai percepito come inutile.

Il cortocircuito

Il risultato è un cortocircuito: chi si astiene per protesta, chi per disillusione, chi per distrazione… finiscono tutti nel calderone del quorum. E il sistema, di fatto, premia la non-partecipazione. Non perché lo abbia deciso chi non vota, ma perché la regola impone che il silenzio conti più della parola.

Non tutti i Paesi funzionano così. In Svizzera, ad esempio, non esiste il quorum. Se si tiene un referendum, chi vota decide. Chi si astiene, accetta implicitamente l’esito. La Svizzera vota spesso, con una media di circa 4 votazioni popolari federali all’anno, su tantissimi temi, e proprio questa frequenza ha portato a una partecipazione più selettiva ma anche più consapevole. Chi si sente preparato o coinvolto vota, chi no si fa da parte. Nessuno grida allo scandalo se va a votare solo il 40%: quella è la volontà attiva. Nessun politico fa campagna per l’astensione, perché sarebbe un controsenso. Il confronto è sempre sul merito.

Quorum Svizzera

Anche in Italia, in realtà, alcuni referendum non sono soggetti a quorum: è il caso dei referendum costituzionali, previsti dall’articolo 138 della Costituzione. In questi casi, il risultato è valido indipendentemente dall’affluenza. È un segnale importante: la nostra stessa architettura costituzionale prevede già strumenti di democrazia diretta senza soglia di partecipazione. E non per questo si è mai messa in discussione la legittimità dell’esito.

Anche i meccanismi di attivazione sono molto diversi.

I referendum costituzionali

I referendum costituzionali confermativi, previsti dall’articolo 138 della Costituzione, non sono di iniziativa popolare diretta: possono essere richiesti solo in seguito all’approvazione di una legge costituzionale da parte del Parlamento, ma senza la maggioranza qualificata dei due terzi. In quel caso, entro tre mesi, il referendum può essere promosso da un quinto dei membri di una Camera, da cinque Consigli regionali oppure da 500.000 elettori. Il popolo, dunque, ha voce in capitolo solo su iniziativa “a valle” di un iter parlamentare.

Al contrario, i referendum abrogativi, disciplinati dall’articolo 75, possono essere promossi direttamente dal basso, tramite la raccolta di almeno 500.000 firme certificate, oppure da cinque Consigli regionali.

Un processo molto più oneroso, che richiede mobilitazione, organizzazione, fondi e tempi strettissimi. Questa barriera iniziale seleziona fortemente i temi proposti e limita il rischio di derive minoritarie o demagogiche.

Ecco perché oggi, a distanza di quasi ottant’anni dalla nascita del quorum, ci si interroga: è ancora necessario mantenere una soglia così rigida, quando già l’accesso al referendum è regolato da filtri così selettivi?

Chi è a favore dell’abolizione del quorum sostiene che la vera democrazia non debba temere la partecipazione, e che chi non vota sceglie comunque: di delegare.

Alcuni propongono di superare il quorum assoluto del 50%+1 e di sostituirlo con un criterio più flessibile.

Ad esempio, si potrebbe introdurre un quorum relativo, calcolato non sugli aventi diritto al voto ma sul numero effettivo di votanti alle ultime elezioni politiche o europee, così da ancorarlo a un livello di partecipazione reale e più aggiornato.

Altri suggeriscono di collegare la validità del referendum alla qualità dell’informazione fornita ai cittadini, imponendo standard minimi di trasparenza nella campagna informativa, anche da parte delle istituzioni.

Un’altra ipotesi ancora è quella di potenziare i canali di informazione pubblica, con campagne di comunicazione istituzionale più chiare, accessibili e capillari, per aiutare le persone a capire davvero cosa stanno votando.

Quorum partecipazione

Quel che è certo è che il quorum, così com’è oggi, rischia di disincentivare proprio ciò che la Costituzione voleva promuovere: la sovranità popolare.

Il referendum dovrebbe essere una festa della democrazia, un momento di confronto maturo tra cittadini. Oggi, troppo spesso, è diventato una trappola aritmetica, dove si vince non convincendo, ma svuotando le urne.

Ripensare il quorum

Ripensare il quorum non significa disprezzare la prudenza dei costituenti, ma riconoscere che i tempi sono cambiati. E che la partecipazione – vera, libera, informata – va favorita, non ostacolata.

Siamo pronti a fidarci davvero della cittadinanza? A costruire un sistema dove a contare siano le scelte di chi partecipa, e non l’inerzia di chi si astiene?

Perché una democrazia non vive di regole astratte, ma di fiducia concreta nei cittadini.