L’8 marzo 2026, Giornata internazionale della donna, si apre con l’ennesima offesa da parte delle istituzioni italiane. Un’offesa che, per effetto del patriarcato così tanto radicato nella nostra cultura, passa persino per regalo: si ripete l’ormai stanco rituale dell’ingresso gratuito nei musei per le donne. Una mancetta cultuale paternalistica, tra panchine rosse e inviti a far figli in un Paese che non ha manco un posto al nido per ognuno di loro. E mentre i dati sulla partecipazione delle donne al lavoro restano impietosi, si tace un’ulteriore urgenza: impedire che l’intelligenza artificiale cristallizzi la disparità, trasformando il pregiudizio storico in una legge matematica apparentemente oggettiva. Se l’AI ha già segnato il presente e plasmerà il futuro, la sfida si sposta anche nella governance algoritmica.
Indice
Il simbolismo screditante: la trappola della gratuità
Nel 2026 regalare l’accesso alla cultura per un solo giorno all’anno è un atto che scredita il valore economico e intellettuale delle donne. Presuppone una fragilità finanziaria che lo Stato stesso dovrebbe combattere con politiche salariali e di welfare, non con biglietti omaggio. Una vera e propria “elemosina di Stato“, alla stregua delle politiche commerciali delle discoteche che offrono pass gratis alle donne: un premio di consolazione che non si occupa di decostruire i modelli culturali discriminanti, piuttosto di rafforzarli.
L’ontologia del pregiudizio: perché l’IA non è neutra
Dopo la favola dello smart working per ridurre la disparità economica, è arrivato quello dell’AI. Tra promesse e millantato credito, si è scoperto poi che la “neutralità della macchina” fosse un miraggio. L’intelligenza artificiale non crea una nuova realtà, la modella partendo da un passato profondamente patriarcale. Anche per l’AI il successo ha una voce maschile, un percorso di carriera lineare e zero interruzioni per carichi di cura. Eppure a nessuno sembra interessare, nonostante l’AI sia entrata a gamba a tesa in tutti i processi produttivi, nella selezione del personale, persino nei processi decisionali e nella medicina diagnostica.
L’effetto proxy: la discriminazione invisibile
Uno dei problemi tecnici più complessi è l’inferenza di genere tramite variabili proxy. Anche se un programmatore onesto rimuove l’etichetta “sesso: femminile” da un dataset per evitare discriminazioni, l’IA è in grado di ricostruire l’identità di genere incrociando dati apparentemente neutri: il codice postale, le abitudini di spesa, i termini utilizzati in una lettera di presentazione o persino gli intervalli di tempo tra una risposta e l’altra nelle app di produttività.
Il risultato? Un’azienda potrebbe scartare sistematicamente candidate donne convinta di utilizzare un processo gender-blind, mentre in realtà l’algoritmo penalizza tratti comportamentali che ha statisticamente associato al genere femminile. Questo non è solo un problema etico: è un errore sistemico di valutazione del talento che impoverisce il capitale umano dell’impresa stessa.
Quando l’IA scredita le donne: sanità di genere e bias del merito creditizio
Esistono dati certi e casi documentati che hanno segnato gli ultimi ventiquattro mesi. Intanto stiamo assistendo all’avvelenamento dei modelli. Le IA vengono addestrate su testi prodotti da altre IA. Se i modelli originali avevano un bias (come associare “ingegnere” a “uomo” nell’80% dei casi), le nuove generazioni di IA amplificano questa distorsione in modo esponenziale.
E poi, in barba alla necessità di maggiore indipendenza economica per le donne, c’è persino il bias del merito creditizio. Indagini della Banca centrale europea hanno confermato che alcuni algoritmi assegnino limiti di spesa inferiori alle donne anche a parità di patrimonio e reddito. Perché il modello pesa negativamente le criticità lavorative legate alla maternità, leggendole come instabilità finanziaria anziché come fisiologici cicli di vita.
L’AI finisce in alcuni casi persino per penalizzare le donne in ambito sanitario. Per esempio, l’IA diagnostica addestrata prevalentemente su soggetti maschi continua a sottostimare i rischi cardiovascolari femminili. Per un’assicurazione sanitaria, questo significa calcolare male i premi e affrontare rimborsi imprevisti per diagnosi tardive.
Il quadro normativo sull’intelligenza artificiale nel 2026: AI Act e legge italiana
Nel 2026, la pacchia dell’irresponsabilità algoritmica pare giunta al termine, ma solo dal punto di vista formale. L’AI Act (Regolamento UE 2024/1689) è già intervenuto in modo preciso. L’articolo 10, per esempio, stabilisce che per i sistemi “ad alto rischio” (quelli che decidono assunzioni, crediti o accesso a servizi pubblici), i set di dati devono essere rilevanti e rappresentativi e devono rispecchiare la realtà demografica, non solo gli eventi passati. E poi devono essere sottoposti all’esame dei bias, perché le aziende devono dimostrare di aver cercato attivamente pregiudizi di genere e di averli corretti.
La normativa nazionale ha impresso un’ulteriore accelerazione: la legge 132/2025 ha introdotto il principio della responsabilità oggettiva del titolare del sistema. Il legislatore è stato chiaro: se un’impresa adotta un software di terze parti che discrimina una candidata, il difetto dell’algoritmo non esime l’utilizzatore dalle proprie responsabilità civili e risarcitorie. Tuttavia, la perfezione delle norme si infrange contro la realtà dell’asimmetria informativa. Sebbene l’AI Act preveda un “diritto alla spiegazione”, manca ancora un protocollo di verifica accessibile: una candidata scartata da uno screening automatizzato difficilmente avrà gli strumenti per eccepire il bias o per scoperchiare la scatola nera ministeriale o aziendale. Senza una trasparenza sui dataset, la responsabilità del titolare rischia di rimanere un principio astratto, lasciando il cittadino nell’impossibilità di provare il danno subìto da un’intelligenza invisibile.
Il ROI della diversità: l’equità conviene a tutti
L’equità di genere nell’IA non può essere considerata una concessione nei confronti delle donne, ma un acceleratore di profitti. Una ricerca del 2025 condotta su 500 multinazionali ha dimostrato che i team di sviluppo IA con almeno il 30% di presenza femminile producono algoritmi con tassi di errore inferiori del 15% e una capacità di penetrazione in nuovi segmenti di mercato superiore del 20%. Questo perché un team omogeneo non vede i propri bias, mentre un team eterogeneo li trasforma in variabili controllate. In un’economia basata sulla precisione del dato, ignorare la prospettiva di genere significa operare con un occhio bendato, eppure le donne continuano a essere impiegate pochissimo nel settore.
La responsabilità di professionisti e imprese
La parola è lo strumento di trasmissione culturale per eccellenza. Ne siamo più o meno consapevoli, tanto che da anni si continua a sensibilizzare l’opinione pubblica sull’importanza di non utilizzare un gergo che rifletta le discriminazioni. Adesso serve un passo ulteriore: serve che le imprese e i professionisti imparino a fare un attento audit algoritmico. Questo vale soprattutto nei settori nevralgici come la giustizia, la sanità, l’HR, il credito e l’istruzione.
Occorre mappare i propri strumenti, esigere dai fornitori la documentazione sui dataset di addestramento e, in mancanza di questi dati, cambiare fornitore. Serve formarsi non soltanto sulle istruzioni per utilizzare correttamente la macchina, ma su come verificarne gli output. L’equità non è un biglietto gratuito per guardare il passato dentro un museo, ma il diritto di non essere “processate” da un codice che scriva il futuro usando gli inchiostri del secolo scorso.










Ivana Zimbone
Direttrice responsabile