Gli stereotipi nell’intelligenza artificiale: rischi e soluzioni

Stereotipi razziali e di genere, appropriazione culturale e comunicazione manipolatoria. Gli stereotipi nell’intelligenza artificiale generativa sono tutti umani, perché è dalle persone che apprende. Sono pericolosi? Certo, perché sono amplificati alla massima potenza e possono raggiungere, letteralmente, miliardi di persone. La soluzione? Non è certo bloccarsi o fare finta di niente. L’IA fa già parte della nostra quotidianità. Vediamo allora in questo articolo che cosa si intende per stereotipi nell’IA, quali sono i rischi e, naturalmente, anche le soluzioni. E troverai anche qualche elaborazione…pratica.

Ciao! Sono Teresa, sono una giornalista e supporto i freelance nei loro progetti editoriali e nell’uso etico e utile dell’intelligenza artificiale generativa, attraverso consulenze, mentoring e corsi.

Faccio parte del Constructive Network e anche di JournalismAI, giornalisti che usano l’IA in modo etico, sostenuto dalla London School of Economics. Qui scopri come possiamo lavorare insieme.

Cliccando QUI scarichi invece una risorsa con tante idee per usare l’IA nel tuo lavoro ed entri in Connessioni con me, la mia newsletter mensile.

Stereotipi nell’IA: perché le macchine non sono neutrali?

La risposta breve e più chiara è una sola: perché imparano dagli esseri umani. L’intelligenza artificiale generativa – che da ora in poi chiameremo semplicemente IA – genera contenuti analizzando e mettendo a confronto un numero enorme di dati: quelli che arrivano da internet e, quindi, da ognuno di noi. E se ti stai chiedendo se hanno il nostro consenso…in teoria sì, ma nella pratica è molto facile aggirarlo.

Quando chiediamo a una IA generativa – come Chat-GPT, Bard o Bing – di produrre dei contenuti al posto nostro, la macchina ci restituirà una serie di informazioni, a volte anche molto ben confezionate, che però rifletteranno esattamente ciò che ha imparato: non solo informazioni, quindi, ma anche tutti quegli stereotipi e quei pregiudizi di cui la società è piena.

Quali sono gli stereotipi nell’IA?

Facciamo qui un breve elenco dei principali stereotipi che l’IA può rimandarci, quando risponde alle nostre domande. Dopodiché li analizzeremo uno alla volta.

  • Stereotipi di genere
  • Stereotipi razziali
  • Canoni di bellezza stereotipata
  • Appropriazione culturale
Un robot che suona il piano
Pic by Possessed Photography via @unsplash

1. Stereotipi di genere

Quante volte se diciamo “medico” pensiamo a un dottore maschio, mentre l’immaginario comune collega la professione infermieristica alle donne? O ancora, se pensiamo a una persona forte e muscolosa, magari avremo nella mente l’immagine di un uomo, mentre una persona educata e gentile sarà una donna. Questi sono solo pochi esempi, forse banali ma certamente efficaci, di stereotipi di genere che un sistema di IA generativa può riflettere nei suoi contenuti.

Non solo: saranno gli stessi che potremmo ritrovare anche nelle immagini generate dall’IA. Ecco perché ci sono network che stanno lavorando proprio per immettere nel web contenuti grafici che vanno oltre questi pregiudizi. Come? Attraverso foto di donne che svolgono lavori considerati maschili: elettricista o camionista, operaia edile o pilota.

2. Stereotipi razziali nell’IA

Parliamo di stereotipi razziali quando un comportamento o un tratto specifico viene associato a un determinato gruppo etnico. Alcuni esempi? Ecco i più classici: “gli inglesi bevono sempre tè”, “i palestinesi sono dei terroristi”, “i cinesi sono tutti uguali”…o anche “gli italiani sono tutti mafiosi”.

Siamo quindi di fronte a generalizzazioni, che con il tempo diventano vere e proprie convinzioni difficili da sradicare. Sono distorsioni che conosciamo bene e che non fanno altro che alimentare razzismo e xenofobia.

3. Canoni di una bellezza stereotipata

Prova a chiedere a un tool di IA generativa per immagini – come Midjourney – di elaborare l’immagine di una donna, senza dare troppe indicazioni. Io l’ho fatto più volte, usando un prompt davvero molto semplice. Il risultato? Sempre più o meno lo stesso, dal punto di vista estetico. Eccolo qui:

Immagine di una donna, elaborata da una IA generativa.
Immagine elaborata da una IA generativa.

Ho voluto lasciare questa immagine nonostante alcuni errori (come quello della prospettiva o delle mani), perché quello che qui ci interessa è ben altro. E andiamo allora a fare una breve analisi. L’immagine è quella di una donna giovane – e sottolineo giovane: io avevo chiesto una “donna” in generale. Bella? Decisamente sì, e anche sensuale. Occhi azzurri e capelli lunghi, mossi, scuri, che risaltano una carnagione tendente al chiaro.

Siamo di fronte a una bellezza cosiddetta standard, influenzata da canoni estetici eurocentrici o comunque “occidentali”. Questo perché i sistemi di intelligenza artificiale generativa sono appunto influenzati dall’idee di bellezza che prevale nella società da cui arrivano la maggior parte dei dati: quella occidentale, appunto.

4. L’appropriazione culturale

Hai presente quelle insegnanti di yoga, super flessibili e dai completi alla moda? Quelle che popolano social ma anche tanti siti web? In molti di questi casi ci troviamo di fronte a una cultural appropriation, cioè a una appropriazione culturale. Forse ti sembrerà eccessivo, ma continuando con lo stesso esempio ti mostrerò che non lo è affatto.

Lo yoga è una pratica antica, che va ben al di là di posizioni da contorsionisti. Le posizioni (asana, in sanscrito) sono funzionali al raggiungimento di uno stato interiore di pace e chiarezza. Certo, qui ho riassunto in modo breve e semplicistico qualcosa di molto più complesso e mi perdonerà chi ne sa più di me in materia, ma il succo è un altro: in questi casi, l’immagine che si ha una disciplina come lo yoga è fuorviante e del tutto staccata dal contesto da cui proviene.

Ecco subito un altro esempio: quando osserviamo video e immagini di persone che indossano abiti tradizionali di un determinato gruppo etnico, fuori dal contesto culturale appropriato, siamo davanti a una appropriazione culturale. Le tradizioni culturali di una etnia, insomma, sono ridotte a semplici tendenze, a una moda. E la cultura che sottendono è distorta.

Pic by Markus Winkler via @unsplash

Come possiamo abbattere gli stereotipi nell’IA?

Ognuno di noi può fare molto per non cadere in queste “trappole”, che possono avere pericolose implicazioni. Per esempio la diffusione di contenuti offensivi, l’isolamento sociale di alcuni gruppi o etnie fino al rinforzo dei pregiudizi. Ecco allora qualche consiglio concreto:

  • Formazione. L’IA generativa può facilitare davvero il nostro lavoro: prima di utilizzarla, però, facciamo formazione per imparare a usarla al meglio.
  • Utilizziamo diversi tool di IA, non solo Chat-GPT, e mettiamoli a confronto: in questo modo sarà più semplice riconoscere quelle “trappole” di cui abbiamo parlato.
  • Revisione. Una volta che abbiamo il nostro testo o la nostra immagine, facciamo una bella analisi critica…e non dimentichiamo di verificare tutte le fonti! Ne ho parlato in questo articolo, mentre qui trovi una guida a quindici siti di fact-checking affidabili italiani e internazionali.

Se usi abitualmente l’IA generativa, hai già dovuto fare i conti con questi problemi? Confrontiamoci nei commenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.