Generare contenuti con l’IA: le sfide etiche

Che sia un computer a scrivere un articolo, un blog o social post, ormai non è più fantascienza. E non dovrebbe essere più neanche l’argomento di discussioni troppo polarizzate: super sostenitori da una parte, iper scettici dall’altra. Perché? Perché l’intelligenza artificiale generativa è oggi, fa parte della nostra vita quotidiana e del nostro lavoro e non possiamo girarci dall’altra parte. Il punto su cui dobbiamo invece riflettere, ogni volta che ci troviamo a generare contenuti con l’IA, sono i problemi etici che il suo uso comporta. Vediamo allora quali sono queste sfide, in modo semplice e molto pratico.

Perché l’etica è importante nel generare contenuti con l’IA

Partiamo da un concetto che d’ora in poi dovremmo sempre tenere a mente, quando ci troviamo a generare contenuti con l’IA: l’intelligenza artificiale in generale e quella generativa in particolare è uno strumento potente, che può facilitare il lavoro di chiunque e migliorarlo. Al contrario, se non viene usata nel modo corretto può fare danni enormi e addirittura farci fare un lavoro peggiore.

E no, non mi riferisco qui a scenari apocalittici dove queste macchine super intelligenti prendono vita e riducono in schiavitù – se non peggio – l’intera razza umana. Forse questo avverrà, ma oggi non ci è dato saperlo. Mi riferisco invece agli impatti negativi che può avere su larghissima scala. Perché se è una macchina a scrivere un contenuto per noi, non dobbiamo diventare macchine anche noi: quello che nessuno potrà mai toglierci è il nostro spirito critico.

Vediamo allora le principali sfide che ci pone l’IA generativa, per poi affrontarle una ad una:

  • Impatto socio-culturale
  • Responsabilità
  • Fiducia
  • Informazione e disinformazione
  • Implicazioni economiche

1. L’impatto socio-culturale dei contenuti generati dall’IA

L’intelligenza artificiale ha un potenziale enorme, quando si parla di generare contenuti: può farci risparmiare molto tempo, che avremmo perso in compiti meccanici, può sbloccare il classico blocco da “pagina bianca”, può regalarci idee a cui non avevamo pensato grazie a vere e proprie sedute di brainstorming.

E tutti i contenuti che avremo fra le mani potranno a loro volta generare un impatto altissimo, perché una volta che li avremo diffusi saranno di tutti. Di qui l’importanza di garantire che questo impatto sia positivo per la società, non il contrario.

L'enorme quantità di dati permette di generare contenuti con l'IA all'infinito, e sempre diversi
Pic by Markus Spiske via @unsplash

Facciamo un esempio concreto e prendiamo la cultura locale. Algoritmi e IA generative possono rimandare contenuti e informazioni che favoriscono luoghi già famosi a livello internazionale, a scapito di veri e propri gioielli locali, meno noti ma altrettanto fondamentali per il tessuto culturale della stessa comunità.

Al contrario, se riflettiamo sui testi che ci sono stati generati potremo ottenere un risultato ancora più completo, bilanciato e curato, risparmiando anche un po’ di tempo – ma non così tanto come a volte si pensa, perché la verifica delle informazioni e il fact-checking ci occuperà del tempo (su questo sito trovi diversi articoli sull’argomento: puoi cominciare da “Fare fact-checking: 10 strumenti per sapere se una notizia è vera“).

2. La responsabilità di diffondere contenuti creati con l’IA

Se c’è un tema complesso e che ha ancora molte sfumature al suo interno, quando si parla di IA generativa, è quello della responsabilità dei contenuti. Tracciare e poi garantire la provenienza e l’autorità dei testi generati da IA è ancora una grande sfida, perché molti strumenti (e Chat GPT è solo uno di molti) non danno alcun accenno alle fonti che hanno permesso la generazione di un testo.

Il tema è ancora una matassa da districare, cosa che rende difficile determinare la proprietà e quindi l’originalità di un testo, ma ciò non significa che possiamo semplicemente ignorare il problema.

Esistono algoritmi – e quindi numerosi strumenti – studiati proprio per rilevare situazioni di plagio. Eppure, questi stessi algoritmi possono essere aggirati da altri, in un circolo poco virtuoso dove l’IA diventa soluzione e problema al tempo stesso.

3. Il rapporto di fiducia

Il rapporto di fiducia con chi ci legge o ascolta è la cosa più preziosa per chiunque crei contenuti, che siano articoli per articoli o post sui social media, per testate o per aziende o agenzie di comunicazione. La trasparenza e l’accuratezza del lavoro saranno sempre premiate.

E poi c’è il famoso tono di voce. Se ne parla molto, e a buon diritto direi: e tanto più va ricordato quando si parla di generare contenuti con l’IA. Se chiediamo al nostro assistente virtuale di scriverci un testo con stile molto informale, ma di solito noi siamo particolarmente formali, il nostro pubblico se ne accorgerà immediatamente – a meno che il testo non abbia finalità ben precise.

L’autenticità della nostra voce è nostra responsabilità, non certo di una macchina. Ma c’è di più. La fiducia si coltiva anche con la trasparenza: ecco perché comincia a diffondersi la pratica dell’etichettatura: segnalare, cioè, quando un testo o una immagine sono generate con l’IA.

4. I rischi di disinformazione nel generare contenuti con l’IA

Ostacolo o facilitatore? Sta a noi decidere se vogliamo che i contenuti generati dall’IA siano l’uno o l’altro, se ostacolano o facilitano il diritto all’informazione. Come? In base a come li usiamo noi per primi: se verifichiamo ogni passaggio del testo generato, o se prendiamo per buono tutto ciò che abbiamo davanti. E questo vale per tutti i tipi di contenuti che possiamo generare: immagini comprese. Quella qui sotto è un mio esperimento: elaborato con soli tre prompt molto semplici.

Immagine di un robot alla scrivania, generata con IA
AI generated pic

Non si contano gli esempi di disinformazione in periodi elettorali: notizie false o fatti manipolati vengono immessi su piattaforme social o blog creati con il solo scopo di fare da cassa di risonanza. Senza dimenticare i bot progettati con il compiti di diffondere informazioni mediche errate o teorie del complotto.

Le implicazioni economiche

Multe o calo nel giro d’affari, aumento oppure perdite del vantaggio competitivo. Ebbene sì: l’a differenza tra un ‘uso etico dell’IA può avere anche implicazioni economiche. Tanto più oggi, poiché etica ed economia sono un binomio ormai inscindibile.

E già qui troviamo una prima, possibile barriera all’ingresso: introdurre l’IA per generare contenuti o automatizzare alcuni processi, può richiedere investimenti che piccole imprese o solopreneur non sono sempre in grado di sostenere. E questo potrebbe limitare la concorrenza. Allo stesso modo, aziende e professionisti che utilizzano l’IA in modo etico nel proprio lavoro quotidiano, si possono trovare in una posizione di vantaggio.

Ma attenzione: non è solo una questione economica, L’IA può supportarci, come abbiamo visto, ma il suo uso non responsabile né etico possono aumentare i rischi economici. Pensiamo per esempio ai danni enormi che la disinformazione può causare in termini di immagine.

L’IA è ormai parte della nostra vita, ma è un nostro dovere utilizzarla nel modo corretto. Tu hai già affrontato queste sfide? Quali sono i punti più difficili o oscuri, a tuo parere?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.