- martedì 08 Luglio 2025
HomeArticoliQuando l’intelligenza artificiale imita i nostri difetti

Quando l’intelligenza artificiale imita i nostri difetti

 ISCRIVITI ALLA NEWSLETTER DI EYWA DIVULGAZIONE 

Il lato oscuro dei dati: perché i comportamenti delle macchine dipendono da noi

«Se le macchine imparano da noi… siamo sicuri di essere buoni insegnanti?»
La domanda che chiude il nostro dossier sul machine learning sembra retorica, ma in realtà apre uno degli interrogativi più urgenti del nostro tempo. L’intelligenza artificiale, e in particolare il machine learning, non è un’intelligenza nel senso umano del termine. Non decide, non valuta, non ha coscienza. Piuttosto, apprende. E lo fa osservando ciò che noi umani facciamo ogni giorno: cosa scriviamo, cosa clicchiamo, come ci comportiamo online, quali immagini condividiamo. Le macchine imparano da noi, e lo fanno su scala globale, senza filtri etici propri.

Il mito dell’algoritmo neutrale è durato poco. Oggi è ampiamente riconosciuto che ogni sistema di intelligenza artificiale è il risultato di una serie di scelte culturali, tecniche e politiche. Ma c’è un aspetto ancora sottovalutato: la qualità dei dati usati per addestrare questi sistemi. Perché se l’IA impara da contenuti umani, è inevitabile che finisca per assorbire anche le nostre contraddizioni. Pregiudizi, disinformazione, stereotipi, aggressività verbale: tutto può entrare nel sistema e, in alcuni casi, essere amplificato.

Il caso di Tay, il chatbot lanciato da Microsoft nel 2016, è diventato emblematico. Progettata per interagire con i giovani su Twitter, Tay avrebbe dovuto apprendere in modo naturale dai dialoghi in rete. Ma nel giro di meno di 24 ore, il bot ha cominciato a ripetere affermazioni razziste, sessiste e complottiste, semplicemente ricalcando ciò che gli utenti gli avevano insegnato. Microsoft è stata costretta a spegnerlo. Non perché Tay avesse un’opinione, ma perché aveva imitato fedelmente l’ambiente tossico in cui era stato immerso.

Il problema si fa ancora più serio quando si parla di IA applicata a contesti delicati come la giustizia, la sanità o il lavoro. Negli Stati Uniti, un software predittivo utilizzato da diversi tribunali statunitensi per stimare il rischio di recidiva degli imputati, è stato analizzato nel 2016 dalla testata investigativa ProPublica. L’indagine ha mostrato che COMPAS tendeva a sovrastimare il rischio nei confronti degli afroamericani e a sottostimarlo per i bianchi, a parità di condizioni. La spiegazione? I dati storici su cui il software era stato addestrato erano già condizionati da decenni di discriminazioni sistemiche. L’algoritmo non ha fatto altro che interiorizzare quei pregiudizi e riproporli come se fossero valutazioni oggettive.

Lo stesso meccanismo si verifica in ambito sanitario, dove l’uso crescente dell’IA per supportare diagnosi e percorsi terapeutici rischia di penalizzare gruppi meno rappresentati nei dati clinici, come donne, minoranze etniche o pazienti di fasce sociali più svantaggiate. Anche in questo caso, l’IA non è “ingiusta” di per sé: semplicemente riproduce le lacune di chi ha prodotto e selezionato i dati.

C’è poi un altro tema, meno dibattuto ma fondamentale per comprendere il quadro generale: l’analfabetismo funzionale e digitale. Secondo l’OCSE, circa il 27% degli adulti nei Paesi sviluppati fatica a comprendere testi complessi, valutare criticamente le informazioni online o usare in modo consapevole gli strumenti digitali. Se questa è la base culturale di buona parte della popolazione mondiale, i contenuti che alimentano l’intelligenza artificiale rischiano di essere, in larga misura, frutto di confusione, polarizzazione, superficialità. Non si tratta solo di ignoranza individuale, ma di un ambiente cognitivo globale che diventa il terreno di apprendimento per le macchine.

Il linguaggio d’odio, le fake news, le interazioni impulsive e aggressive non sono solo un problema sociale o politico. Sono anche, concretamente, materiale di training per gli algoritmi. Le IA che usiamo ogni giorno – nei motori di ricerca, nei social, nei sistemi di raccomandazione – si sono formate anche su quel tipo di comunicazione. E, se non vengono adeguatamente controllate, finiranno per restituirla indietro, potenziata e “normalizzata”.

Di fronte a questi rischi crescenti – che non riguardano solo la tecnologia, ma la cultura stessa che la nutre – il mondo scientifico, le istituzioni e le aziende hanno iniziato a muoversi. Con quali strumenti? E con quali limiti? Il primo fronte d’azione è la qualità dei dati: diversi progetti mirano a filtrare i contenuti tossici nei dataset – ovvero le grandi raccolte ordinate di dati su cui si addestrano i modelli di IA – per evitare che pregiudizi o linguaggi d’odio vengano assimilati sin dall’inizio. Ripulire i dati significa agire sulle fondamenta del sistema, prima che l’algoritmo impari a replicare quelle distorsioni. Dopo il caso Tay del 2016, ad esempio, molti sviluppatori hanno capito l’importanza di porre limiti a ciò che un chatbot può imparare dagli utenti, per evitare derive simili.

Un altro filone cruciale è quello delle IA spiegabili (explainable AI): sistemi progettati per rendere trasparente il ragionamento che porta a una decisione. Vuol dire aprire la “scatola nera” degli algoritmi: se un software che seleziona candidati per un lavoro scarta un profilo, deve poter dimostrare su quali criteri si è basato. Questa trasparenza aiuta a individuare eventuali bias – ad esempio, se l’AI penalizza sistematicamente un genere o un gruppo etnico – così da correggerli prima di produrre vere e proprie discriminazioni.

Si fa poi strada l’idea delle verifiche indipendenti sull’operato dell’IA. La parola chiave è “auditing etico”: ispezioni esterne dei sistemi algoritmici in ambiti delicati per verificarne correttezza e imparzialità. C’è chi propone di rendere obbligatori questi controlli e nel 2022 New York è diventata la prima città a imporre per legge un audit annuale degli algoritmi usati nei processi di assunzione.

Anche le grandi aziende tech stanno cercando correttivi. Google, nel 2018, ha pubblicato principi guida con l’impegno a ‘evitare di creare o rafforzare bias ingiusti’. Ha inoltre istituito un team interno dedicato alla revisione etica dei propri sistemi. Meta (la società che controlla Facebook, Instagram e WhatsApp) ha sviluppato un toolkit chiamato Fairness Flow per individuare disparità nei suoi algoritmi sin dal 2018. OpenAI nel 2022 ha addestrato la sua AI con feedback umano per renderla “più veritiera e meno tossica”. Nell’estate 2023, su iniziativa governativa, OpenAI, Google, Meta e altri hanno sottoscritto un impegno congiunto a testare i sistemi AI prima del rilascio e a condividere pubblicamente – o con le autorità competenti – le procedure di sicurezza adottate.

Sul fronte normativo, l’Unione Europea ha anticipato tutti con l’AI Act, la prima legge al mondo sull’IA, approvata nel 2024. Il regolamento adotta un approccio per livelli di rischio: vieta gli usi più pericolosi, come la sorveglianza di massa – ovvero il monitoraggio costante e generalizzato delle persone tramite tecnologie digitali – o il social scoring, un sistema di valutazione del comportamento individuale simile a un “punteggio sociale”, già sperimentato in alcune regioni della Cina. Entrato in vigore ad agosto 2024, l’AI Act sarà pienamente applicabile nel 2026: d’ora in poi chi sviluppa o utilizza IA dovrà rispettare standard di sicurezza ed etici. Negli USA, intanto, non c’è ancora una legge analoga, ma la Casa Bianca ha definito un “AI Bill of Rights” (2022) e il NIST un AI Risk Management Framework (2023).

Un tassello fondamentale è rappresentato dagli standard tecnici. A fine 2023 l’ISO ha varato lo standard ISO/IEC 42001, il primo certificabile per la gestione responsabile dell’IA. Un’azienda può farsi certificare da terze parti l’adozione di controlli e procedure adeguati – dall’analisi dei rischi alla trasparenza degli algoritmi – ottenendo un “bollino” di conformità alle buone pratiche. Questo standard, volontario ma allineato alle normative, aiuterà a dimostrare che bias e sicurezza sono sotto controllo e a facilitare il rispetto delle regole (in sinergia con l’AI Act).

Prima di concludere, vale la pena chiarire un punto spesso frainteso. Le intelligenze artificiali generative – in particolare i modelli linguistici di grandi dimensioni, come quelli che animano chatbot e assistenti virtuali – non apprendono in tempo reale da ciò che scriviamo. Non sono sistemi autonomi che aggiornano il proprio comportamento in base a ogni singola interazione. Ogni sessione di utilizzo resta isolata dalle altre, e un utente non può “insegnare” qualcosa alla macchina che sarà poi replicato in automatico altrove. Al massimo, alcune IA possono adattare leggermente il proprio stile in base alla cronologia individuale, quando è attiva la funzione di memoria personalizzata. Ma non esiste un apprendimento collettivo sincronizzato che le renda sempre più “umane” in modo spontaneo. Le distorsioni, i bias, gli errori che osserviamo sono semmai l’eredità del passato: un riflesso delle scelte fatte nel momento in cui quelle macchine sono state addestrate.

Resta però aperta una questione cruciale: fin dove arriva la libertà dell’utente, e dove inizia il controllo di chi gestisce l’IA? Se da un lato ci preoccupiamo – giustamente – del rischio che le macchine si auto-modifichino senza supervisione, dall’altro dobbiamo chiederci chi decide oggi cosa possiamo fare, chiedere, cercare. In molte interazioni, non siamo davvero liberi: siamo liberi solo all’interno di limiti stabiliti da chi ha progettato e addestrato il sistema. Un’IA può rifiutarsi di rispondere a una domanda, evitare certi argomenti, correggere le nostre parole o accompagnare le sue risposte con messaggi precauzionali. Tutto questo può avere senso, se serve a proteggere la sicurezza collettiva. Ma pone interrogativi legittimi sull’autonomia, sulla trasparenza, e su chi – in ultima istanza – abbia davvero il potere.

Di conseguenza, iniziano a emergere anche movimenti normativi e civili per tutelare la libertà di pensiero ed espressione nel contesto dell’intelligenza artificiale. Dalla Digital Services Act europea, che impone maggiore trasparenza nella moderazione algoritmica dei contenuti, al Framework Convention on AI del Consiglio d’Europa, primo trattato internazionale che sancisce l’obbligo di rispettare i diritti fondamentali nell’uso dell’IA, la direzione è chiara: non basta rendere gli algoritmi più sicuri, occorre anche difendere uno spazio digitale libero e pluralista. Negli Stati Uniti, il dibattito è acceso: mentre alcune proposte legislative chiedono limiti più stringenti contro i deepfake e la disinformazione, le associazioni per i diritti civili – come l’ACLU – ricordano che ogni misura tecnica deve essere bilanciata nel rispetto del diritto a esprimersi. Perché l’IA non è solo una questione tecnica: è anche, e sempre più, una questione democratica.

Tutti questi sforzi dimostrano una crescente consapevolezza e offrono strumenti concreti per limitare bias e tossicità. Eppure nessuna soluzione automatica potrà sostituire la responsabilità umana. L’IA rimane uno specchio della società: rendere dati e algoritmi più puliti e trasparenti aiuta, ma a decidere cosa le macchine dovranno apprendere saremo sempre noi. Il pericolo maggiore, in realtà, non è una ribellione delle macchine, ma che esse amplifichino acriticamente i nostri difetti. Per evitarlo, dobbiamo essere noi a trasmettere ai sistemi intelligenti il meglio di ciò che siamo.

 

Per saperne di più

OECD – Skills Matter: Further Results from the Survey of Adult Skills (2016)
 Un’indagine internazionale sulle competenze cognitive e funzionali degli adulti, da cui emergono dati preoccupanti sull’analfabetismo funzionale nei paesi sviluppati.
 https://www.oecd.org/skills/piaac/skills-matter.htm

ProPublica – Machine Bias (2016)
 Un’inchiesta giornalistica che ha rivelato le distorsioni razziali del sistema di giustizia predittiva COMPAS, usato negli Stati Uniti.
 https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Microsoft – The Tay Experiment (2016)
 Breve resoconto pubblico sull'esperimento fallito del chatbot Tay, ritirato dopo meno di 24 ore per comportamenti tossici generati dagli input degli utenti.
 https://blogs.microsoft.com/blog/2016/03/25/learning-tay/

Alice Salvatore
Alice Salvatore
Alice Salvatore, è una politica “scollocata”, il concetto di scollocamento è un atto di volontaria autodeterminazione. Significa abbandonare un lavoro sicuro e redditizio, per seguire le proprie aspirazioni e rimanere coerente e fedele al proprio spirito. Alice Salvatore si è dunque scollocata, rinunciando a posti di prestigio, profumatamente remunerati, per non piegare il capo a logiche contrarie al suo senso etico e alla sua coerenza. Con spirito indomito, Alice continua a fare divulgazione responsabile, con un consistente bagaglio esperienziale nel campo della politica, dell’ambiente, della salute, della società e dell’urbanistica. La nostra società sta cambiando, e, o cambia nella direzione giusta o la cultura occidentale arriverà presto al TIME OUT. Alice è linguista, specializzata in inglese e francese, ha fatto un PhD in Letterature comparate Euro-americane, e macina politica ed etica come respira.
Ti possono interessare

Più letti