Shadow AI, che cos’è e che cosa possono fare le aziende

Se usi quotidianamente l’IA generativa, conosci bene i vantaggi che è in grado di offrirci a livello professionale e quanta spinta alla creatività sia in grado di darci. Eppure, lontano da queste luci della ribalta, esiste un fenomeno poco conosciuto ma altrettanto diffuso: è la shadow AI. Cioè un uso dell’intelligenza artificiale che avviene sul posto di lavoro ma senza il consenso esplicito della società di cui si è dipendenti.

Non pensare solo all’uso di ChatGPT per trovare il copy adatto o una bozza di post sui social: immagina anche un dipartimento di marketing che, per effettuare gli insights sui consumatori, implementa un algoritmo per analizzare i dati dei clienti. E, senza magari prestando troppa attenzione ai rischi, non avvisa il reparto IT e mette in pericolo la sicurezza dei dati.

Questo fenomeno è in costante crescita e alle radici ci sono due motivi principali: da una parte, l’uso dell’IA permette di risparmiare tempo e ottenere risultati più accurati, dall’altra molte società non sono consapevoli dell’importanza di un uso equilibrato ed etico dell’IA e non adottano linee guida aziendali. In questo articolo esploreremo questo mondo sommerso: ne analizzeremo la crescita, capiremo i rischi ma evidenzieremo anche le opportunità che offre.

Teresa Potenza

Ciao! Sono Teresa, sono una giornalista e supporto i freelance nei loro progetti editoriali. Faccio parte di JournalismAI, network di giornalisti che usano l’IA in modo etico, sostenuto dalla London School of Economics e del Constructive Network.

Se vuoi fare un salto avanti e scoprire il tuo modo unico di parlare con l’IA, iscriviti a “Prompt evolution“: workshop pratici in cui io ti guido personalmente.

Cliccando QUI scarichi invece una risorsa con tante idee per usare l’IA nel tuo lavoro ed entri in Connessioni con me, la mia newsletter mensile.

Perché aumentano i casi di shadow AI?

Il supporto dell’IA e dell’IA generativa è così importante che per molte persone sta diventando naturale utilizzarle anche al lavoro. Ed essendo considerata niente altro che un’ottima assistente, si dà per scontato che si possa usare in ufficio per qualsiasi task. Ma quali sono gli altri fattori che stanno spingendo la shadow AI e che evidenziano la necessità di un nuovo approccio alla gestione delle novità tecnologiche? Vediamo tre dei più cruciali:

  1. In un’epoca caratterizzata da cambiamenti rapidi e dalla pressione costante verso la produttività, i processi IT ufficiali vengono sempre più percepiti come lenti e ingombranti. La necessità di raggiungere obiettivi ambiziosi, spinge i team a cercare soluzioni immediate senza aspettare approvazioni formali.
  2. Dipartimenti come marketing e vendite possono utilizzare tool di IA per analisi predittive o personalizzazione delle offerte senza particolari competenze tecniche. E questo porta a innovazioni, ma anche a rischi di sicurezza.
  3. La crescita della shadow AI è anche legata a una visione obsoleta della macchina aziendale, come resistente al cambiamento. I processi di approvazione e gli uffici IT si trasformano in ostacoli all’innovazione.

Shadow AI: quali sono i rischi?

Partiamo proprio da qui: vediamo insieme quali sono le possibili conseguenze e i rischi di un uso non controllato dell’IA. Toccheremo questioni di sicurezza, etica e conformità legale.

1. Sicurezza dei dati.

Uno dei rischi maggiori di un uso incontrollato dell’IA sul posto di lavoro è senza dubbio la sicurezza dei dati. Utilizzare modelli creati ad hoc e magari anche efficienti, ma che non aderiscono agli standard di sicurezza aziendali, può portare a un uso superficiale ed esporre così informazioni sensibili a cyber attacchi.

E qui parliamo di dati sotto due punti di vista: quello dei clienti ma anche quello dell’azienda. E questo porta inevitabilmente a gravi ripercussioni finanziarie e di immagine.

2. Rischi legali.

La conformità alle normative sulla privacy e sulla protezione dei dati, primo fra tutti il GDPR in Europa, è un altro punto da tenere bene a mente quando si parla di shadow AI. Quando si agisce in modo superficiale e senza supervisione, in contesti aziendali, è facile trascurare requisiti legali complessi ed esporre l’impresa (e se stessi) a cause legali – oltre che a danni di immagine. E questo porta a sua volta a cause finanziarie e alla perdita di fiducia sia di clienti che di partner commerciali.

La shadow AI in ufficio va affrontata con consapevolezza ma anche flessibilità
Pic by Charles Deluvio via @unsplash

3. Incoerenza dei dati.

Qui entriamo in un argomento a cui spesso non si pensa quando si agisce da soli, cioè senza coordinarsi con altri dipartimenti aziendali: la frammentazione e l’incoerenza dei dati all’interno della società stessa. E questo può portare a decisioni basate su dati incompleti o inaccurati. Ma c’è di più.

La diffusione della shadow AI può, a lungo termine, erodere la cultura aziendale e minare la fiducia e la collaborazione tra colleghe e colleghi. Anzi, se si porta lo sguardo ancora più in là, potrebbe insinuarsi la mentalità del “possiamo fare tutto ciò che vogliamo” perché la governance non fa sentire la sua presenza.

4. Etica e trasparenza.

E infine, l’etica. La questione dei bias dell’IA generativa è cruciale e, senza supervisione, c’è il rischio che si impieghino algoritmi che diffondono discriminazioni e pregiudizi. L’etica deve ormai costituire la base di qualsiasi uso dell’IA generativa, personale e professionale. Ne ho parlato in modo approfondito anche in questi articoli: “Gli stereotipi nell’intelligenza artificiale: rischi e soluzioni” e “Generare contenuti con l’IA: le sfide etiche“.

Shadow AI: ci sono anche benefici?

In effetti sì: sono i benefici che derivano dalla spinta individuale a cercare soluzione innovative e creative. Qualche esempio concreto? Prendiamo un dipartimento di customer care. Per gestire l’aumento di richieste dei clienti fuori orario, implementa autonomamente un chatbot di IA può da una parte alleggerire di molto il lavoro dei dipendenti, dall’altra andare incontro alle esigenze dei clienti stessi. Siamo quindi nell’ambito della shadow AI, ovviamente: ma se la governance interviene in tempo, asseconda le necessità del dipartimento e interviene per uniformare il nuovo modello alle linee guida aziendali, si evitano i rischi e si ottiene un notevole miglioramento della produttività.

E poi c’è il settore delle risorse umane. Strumenti di analisi predittiva per rilevare in anticipo i segnali di potenziale insoddisfazione dei dipendenti possono essere implementati autonomamente dalle risorse umane con l’obiettivo di migliorare le condizioni di lavoro.

Immagine generata da una IA

Quali strategie di governance per gestire la shadow AI?

La chiave è promuovere un ambiente in cui la tecnologia venga utilizzata in modo etico, sicuro e conforme alle norme. Ecco anche qui esempi concreti.

  1. Linee guida etiche per assicurare che tutte le applicazioni di IA siano sviluppate con principi di equità, trasparenza e responsabilità.
  2. Workshop regolari e sessioni di formazione su strumenti AI e best practice di sicurezza.
  3. Piattaforme collaborative dove i team possono condividere idee, esperimenti AI e ricevere feedback
  4. Protocolli di sicurezza dei dati per garantire che le soluzioni AI rispettino le normative sulla privacy e la protezione dei dati.
  5. Processi di revisione e approvazione che richiedono che tutti i progetti AI siano valutati da un comitato di governance prima del lancio.
  6. Audit regolari condotti da team interni o esterni per valutare l’aderenza alle politiche aziendali e alle normative vigenti.
  7. Canali di segnalazione per consentire ai dipendenti di riportare eventuali preoccupazioni o violazioni delle politiche AI in modo anonimo.

What’s next?

Se è vero che la gestione della shadow AI richiede di perseguire l’equilibrio tra sicurezza, normative e libertà di innovare, è vero anche una presa di posizione rigida e magari addirittura autoritaria non sembra essere la strada giusta. Al contrario, in un mondo che corre al doppio della velocità della luce sono politiche più flessibili a fare la differenza.

Un ruolo fondamentale è giocato dalla formazione: dei dipendenti, della governance, di tutti coloro che ruotano intorno all’universo aziendale. Un adeguato livello di educazione digitale e una formazione continua in materia di intelligenza artificiale generativa non possono più essere un’opzione. Certo è che il futuro della shadow AI e dell’intelligenza artificiale in generale è ancora tutto da scrivere: sta a noi decidere che strada vogliamo che prendano.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.