Stereotipi di genere nell’intelligenza artificiale: come rilevarli?

Se pensi a un ospedale, che immagine si dipinge nella tua mente? Chi sta esercitando la professione medica e chi quella infermieristica? Chi è all’accoglienza dei pazienti e chi si occupa delle pulizie? Forse, senza rendertene conto, avrai realizzato un quadro con molti dettagli stereotipati: dottori maschi e infermiere femmine, per esempio. Questo è esattamente lo stesso meccanismo che ritroviamo quando interagiamo con i chatbot: gli stereotipi di genere nell’intelligenza artificiale generativa sono tanti, perché sono quelli popolano la nostra mente.

Ricordiamoci che tutti i modelli di IA sono allenati con i nostri dati, cioè quelli che mettiamo online: da un commento sotto a un post sui social alla pubblicazione di un articolo. In quei dati non ci sono solo fatti ma anche – e forse soprattutto – opinioni. E le opinioni contengono a loro volta pregiudizi e stereotipi.

Nel mio articolo “Gli stereotipi nell’intelligenza artificiale: rischi e soluzioni” ho affrontato l’argomento in modo ampio e generale. In questo articolo, invece, entriamo in profondità nel tema degli stereotipi di genere nell’IA generativa. Esploreremo le strategie per identificarli ma anche superarli ed evitare non solo di perpetuare vecchie disuguaglianze, ma anche di crearne di nuove.

Ma leggi fino in fondo: ti farò esempi pratici, utili anche per identificare i bias quando crei i tuoi contenuti.

Teresa Potenza

Ciao! Sono Teresa, sono una giornalista e supporto i freelance nei loro progetti editoriali. Faccio parte di JournalismAI, network di giornalisti che usano l’IA in modo etico, sostenuto dalla London School of Economics e del Constructive Network.

Se vuoi fare un salto avanti e scoprire il tuo modo unico di parlare con l’IA, puoi lavorare con me in consulenza o nei miei workshop pratici, in cui ti guido personalmente.

Cliccando QUI scarichi invece una risorsa con tante idee per usare l’IA nel tuo lavoro ed entri in Connessioni con me, la mia newsletter mensile.

Che cosa sono gli stereotipi di genere?

Gli stereotipi di genere sono idee preconcette e generalizzate su ruoli, caratteristiche e comportamenti degli individui solo in base al loro genere. Dal momento che l’IA generativa è allenata su dati che arrivano da esseri umani, i contenuti che a sua volta elabora per noi sono densi anche dei nostri stereotipi. E così facendo l’IA può contribuire a perpetuarli, generando testi, audio e video che rafforzano le narrazioni tradizionali di genere.

Perché ci sono bias nell’intelligenza artificiale?

Abbiamo appena visto come i bias di genere nell’intelligenza artificiale è fondamentale per affrontare e mitigare questi problemi. I bias spesso nascono da due principali fonti: i dataset utilizzati per l’addestramento degli algoritmi e la mancanza di diversità tra gli sviluppatori di IA. Esaminiamo più da vicino queste cause.

  • Dataset non diversificati: Molti dataset di addestramento mancano di diversità, sia in termini di genere che di etnia, portando a sistemi di IA che funzionano bene per alcuni gruppi ma non per altri.
  • Pregiudizi storici e culturali: I dataset possono anche perpetuare pregiudizi storici e culturali se i dati raccolti riflettono stereotipi di genere esistenti.
  • La mancanza di diversità tra gli sviluppatori e i team che costruiscono sistemi di IA può influenzare il modo in cui vengono progettati e implementati gli algoritmi: un team di sviluppo omogeneo può non essere consapevole dei bias nei loro progetti o della necessità di inclusività.

Tipologie di stereotipi di genere nell’intelligenza artificiale

Nonostante le intenzioni spesso neutrali dietro lo sviluppo delle tecnologie di intelligenza artificiale, la realtà mostra che gli algoritmi possono e, in molti casi, effettivamente riproducono e amplificano gli stereotipi di genere esistenti nella società. Ecco alcuni esempi significativi che dimostrano come questo fenomeno si manifesta:

1. Assistenti virtuali.

Una delle manifestazioni più evidenti degli stereotipi di genere nell’IA si trova negli assistenti virtuali e nei chatbot. Molti dei più popolari assistenti virtuali presentano voci femminili per impostazione predefinita e sono stati commercializzati con nomi che suonano femminili. Questa scelta riflette lo stereotipo che vede le donne in ruoli di servizio, perpetuando l’idea che tali compiti siano più adatti alle donne.

Pensiamo anche agli assistenti vocali e facciamo l’esempio dei due degli assistenti vocali più famosi al mondo: Siri di Apple e Alexa di Amazon. In questi casi, le impostazioni predefinite sono tutte al femminile. Qual è il punto? Anche questi riflettono il bias di genere che associa le donne a ruoli di supporto, mentre gli uomini a ruoli di comando.

Una cuoca e un uomo al pc: stereotipi nell'IA
Immagine generata da una IA

2. Algoritmi di riconoscimento facciale.

Gli algoritmi di riconoscimento facciale sono diventati uno strumento tecnologico fondamentale in molti settori, dalla sicurezza alla pubblicità. Eppure, è stato dimostrato che sono meno accurati nel riconoscere volti di persone non caucasiche né di identificare individui non conformi al genere.

La percentuale di errore sale nell’identificare i generi di persone di colore, in particolare i volti femminili. A questo proposito vanno citati, fra gli altri, gli studi della dottoressa Joy Buolamwini, fondatrice della Algorithmic Justice League: nel suo libro Unmaskin AI ha evidenziati gli innumerevoli pregiudizi nascosti negli algoritmi di riconoscimento facciale e in altri sistemi di intelligenza artificiale.

3. I sistemi di raccomandazione.

Immagina di cercare “giochi per l’infanzia” sui motori di ricerca (ani, se hai dei figli ti capita spesso…) e, come per magia, ti appare una lunga lista di giocattoli che tradizionalmente sono associati alle bambine – e hai proprio una figlia femmina. Qui i problemi sono due: il primo è che ti sono stati proposti giochi per femmine anche se tu non avevi specificato il genere. Il secondo è che quei giochi erano…”per femmine”. Ma chi decide che un gioco è per femmine e un altro per i maschi? I giochi non sono soltanto giochi?

Ecco spiegati in modo semplice i sistemi di raccomandazione, che sono usati, tra gli altri, da tutte le piattaforme di ecommerce e che possono enfatizzare gli stereotipi di genere attraverso i loro “consigli“. Dal momento che sono stati realizzati e allenati da essere umani, con tutto il loro bagaglio di pregiudizi, nel momento in cui devono raccomandare qualcosa gli algoritmi scelgono in base anche a quegli stessi pregiudizi.

Strategie per identificare e superare gli stereotipi di genere.

A monte, le strade migliori sono quelle dell’audit e dei tool di analisi, insieme alle valutazioni indipendenti, cioè effettuate da individui o aziende terze. Ma ci sono possono anche tecniche e strumenti di debiasing progettati per rilevare e correggere i bias nei dataset e negli algoritmi.

Ma davvero cruciale è incoraggiare la diversità tra gli sviluppatori di intelligenza artificiale, per costruire sistemi più equi e rappresentativi. Come? Per esempio con programmi di formazione e borse di studio in grado di attrarre talenti da gruppi sotto rappresentati tra gli sviluppatori: cercare insomma di rappresentare tutti i generi ma anche le lingue o le culture.

E poi ci sono i feedback: hai presente quando i chatbot, da Gemini a ChatGPT, ti chiedono come hai trovatola loro risposta? Quella è la nostra occasione per addestrare i modelli e migliorarli: non sottovalutiamo la differenza che ognuno di noi può fare, ogni giorno!

Best practices nell’abbattere stereotipi di genere.

L’applicazione pratica di strategie etiche sta portando, piccoli passi alla volta, a cambiare le cose. Ecco allora alcuni esempi.

  • Il progetto AI4Bharat è una iniziativa nata per creare tecnologie di IA open source e inclusive per l’India rurale e diversificata linguisticamente.
  • Gender Shades è invece un progetto di ricerca sviluppato, tra gli altri, anche da Joy Buolamwini di cui abbiamo parlato sopra. Gender Shades ha esaminato i bias di genere e di etnia negli algoritmi di riconoscimento facciale, spingendo le aziende a migliorare la precisione delle loro tecnologie per tutti gli utenti.

L’impatto degli stereotipi di genere nei contenuti generati dall’IA.

Gli stereotipi di genere nei contenuti generati dall’IA possono contribuire a influenzare l’opinione pubblica – e non è un’esagerazione. Facciamo subito un esempio pratico: i chatbot generano spesso descrizioni stereotipate delle professioni, attribuendo ruoli dominanti agli uomini e ruoli di supporto alle donne.

O ancora, nella generazione delle immagini le donne sono per lo più caucasiche, dai lineamenti perfetti e giovani, a meno che non si chieda esplicitamente di rappresentare una donna di età diversa.

Immagine generata da una IA

E poi c’è la questione del colore: un’intelligenza artificiale utilizzata per creare immagini potrebbe associare il termine “donna” a colori come il rosa e a oggetti tradizionalmente considerati femminili (pensiamo al make up), mentre il termine “uomo” al blu e a oggetti ritenuti maschili. E queste sono connessioni tutte umane, che la macchina ha imparato da noi.

Allo stesso modo, l’IA potrebbe generare descrizioni di eventi sportivi che enfatizzano le qualità fisiche degli atleti maschi, mentre alle donne potrebbe associare sport e descrizioni come leggerezza, leggiadria e bellezza.

L’impatto etico.

La forte presenza di stereotipi di genere nei contenuti generati dall’intelligenza artificiale solleva questioni etiche importanti (ho approfondito questa argomento anche nell’articolo “Generare contenuti con l’IA: le sfide etiche“). Basti pensare a quanto siano utilizzati i chatbot nel mondo: non solo da privati come me e come te, ma anche in contesti decisionali, come la selezione del personale o la determinazione delle tariffe assicurative, dove il genere è uno dei parametri che determinano il premio.

E se noi non riconosciamo i bias e mettiamo in circolazione sul web contenuti che riflettono gli stereotipi di genere, possiamo anche noi contribuire ad alimentare discriminazioni ingiuste e disuguaglianze. Ma ti dirò di più: se non si presta attenzione, i contenuti generati possono influenzare l’immagine che le persone hanno di se stesse e degli altri, contribuendo a una visione distorta della realtà.

Trovi difficile identificare gli stereotipi nell’intelligenza artificiale generativa?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.