Consigli per un uso critico dell’Intelligenza Artificiale nella formazione

Che l’Intelligenza Artificiale sia entrata a far parte a pieno titolo della nostra vita professionale è ormai un dato di fatto, ma sembra che ci troviamo solo agli inizi di una rivoluzione che porterà a cambiare drasticamente (e ci auguriamo in meglio) il nostro modo di lavorare.

La diffidenza e lo scetticismo iniziali sono stati presto sostituiti da entusiasmo e fiducia nei confronti delle potenzialità della nuova tecnologia, che però, proprio per la sua carica rivoluzionaria, porta con sé anche numerosi interrogativi. Non si tratta solo di questioni di tipo etico attorno al rapporto tra uomo e macchina, ma anche problemi di interesse legale, che riguardano la proprietà, l’integrità e la privacy dei dati utilizzati e dei nuovi contenuti generati.

In questo articolo proviamo a dare la nostra lettura del fenomeno IA e alcuni consigli di indirizzo generale per controllarla al meglio, in particolare nel campo della creazione di contenuti digitali per la formazione. Ci soffermeremo anche su alcuni aspetti critici che riguardano l’ambito della privacy e del diritto d’autore.

Come cambia il nostro lavoro con l’IA

Come accadde a fine ‘800 con la Rivoluzione Industriale, e tra la fine dello scorso e l’inizio del nuovo millennio con l’inizio dell’era dell’informazione, anche oggi stiamo entrando in una nuova era rivoluzionaria, in cui l’Intelligenza Artificiale (IA) avrà un impatto fortissimo su come lavoriamo. 

Il primo vantaggio, il più evidente, è che, secondo una relazione di McKinsey, una delle più importanti società di consulenza manageriale a livello mondiale, l’IA generativa e le tecnologie correlate all’IA hanno il potenziale per automatizzare attività lavorative che assorbono dal 60% al 70% del tempo degli impiegati. 

L’IA può svolgere compiti ripetitivi o a basso valore e garantire scalabilità, consentendo ai creatori di contenuti di impegnarsi in una creatività di alto livello. Ciò comporta una maggiore soddisfazione lavorativa e un lavoro più significativo risultante da più tempo per il lavoro collaborativo che alimenta l’innovazione.  

L’IA, quindi, da un lato libera tempo, e dall’altro, vantaggio forse ancora più significativo, fornisce ispirazione, aiuta la creatività umana, contribuisce ad alzare la qualità del lavoro non solo alleggerendo il carico, ma anche fornendo spunti e materiali su cui lavorare meglio e più velocemente.

L’esito più promettente e probabile è che umani e IA collaboreranno per produrre risultati aziendali migliori più rapidamente che mai. Si prevede che questa esplosione nella creatività e produttività guidate dall’IA avrà un impatto economico strabiliante sull’economia mondiale.

L’AI può sostituire il contributo umano?

Di fronte a potenzialità così elevate, a un impatto così dirompente, emerge la prima criticità: ci chiediamo se la macchina non possa progressivamente sostituirsi all’uomo e se presto il contributo dell’essere umano non diventerà superfluo.

In realtà, chi lavora già quotidianamente con l’IA sa bene che non è un rischio quantomeno imminente: l’IA è un amplificatore dell’ingegno umano, non può sostituirsi agli esseri umani.

Gli esseri umani sono essenziali per liberare il potenziale dell’IA, ma l’IA accende la creatività umana quando il suo potere è correttamente sfruttato. Il ruolo dell’essere umano è quindi sempre più centrale: i creatori di contenuti dovrebbero essere al controllo dell’IA, non il contrario.

Ma per usare bene uno strumento bisogna conoscerlo ed è compito delle aziende formare i propri lavoratori sul suo utilizzo. Al momento però, c’è una tale eccitazione intorno all’IA, che può spingere le organizzazioni ad adottare tecnologie intelligenti troppo rapidamente senza comprenderne tutti i rischi

I rischi legati all’utilizzo dell’IA

Contenuti imprecisi, errati o condizionati da pregiudizi

Uno dei principali rischi associati all’intelligenza artificiale è la sua limitata capacità di distinguere informazioni accurate da notizie false. Questo fenomeno è spesso attribuibile al fatto che i programmi di IA sono addestrati da dati forniti dalle persone, il che li rende suscettibili a bias e pregiudizi.

Il termine “bias” indica una forma di distorsione cognitiva derivante da pregiudizi, in grado di influenzare ideologie, opinioni e comportamenti. Ne consegue che i modelli di intelligenza artificiale possono ereditare bias basati su fattori come razza, genere, religione e altre caratteristiche presenti nei dati di addestramento.

A titolo di esempio, un’analisi delle ricerche fatta su MidJourney, un algoritmo di intelligenza artificiale text-to-image, ha evidenziato la presenza di bias umani nelle immagini generate. Ad esempio, inserendo la parola “manager“, le immagini prodotte da MidJourney ritraevano esclusivamente uomini bianchi in giacca e cravatta, riflettendo così i pregiudizi impliciti nei dati di addestramento.

Ecco un primo motivo per cui le aziende non dovrebbero mai utilizzare la formazione generata dall’IA senza l’input umano ad ogni passo. Queste tecnologie non sono attrezzate per decidere quando e se il pregiudizio è stato eliminato a sufficienza, o che il contenuto è completamente accurato e sicuro per una distribuzione ampia.

Violazione della Privacy

Un altro rischio dell’uso di modelli di lingua in contesti sensibili è quello di generare informazioni che violano la privacy delle persone o delle organizzazioni, specialmente se i dati di addestramento contengono informazioni riservate.

E’ quindi fondamentale limitare l’accesso ai dati sensibili da parte della IA, riducendolo solo al minimo necessario, e valutando attentamente quali informazioni sono essenziali per il processo di generazione dei contenuti. Un’altra strategia potrebbe essere quella di anonimizzare i dati prima di utilizzarli nell’addestramento dell’IA, eliminando informazioni personali dirette.

Anche in questo caso è chiaro quanto sia fondamentale una revisione umana dei contenuti generati dall’IA per identificare e correggere eventuali informazioni sensibili o inappropriatamente divulgate.

Problemi di copyright

In assenza di garanzie contrattuali e operative riguardo agli approcci dell’IA, il nostro consiglio è quello di evitare di inserire negli strumenti dell’IA materiale confidenziale, dati coperti da copyright o altrimenti protetti da diritti di proprietà intellettuale. 

Perché? L’inserimento di questi dati in uno strumento di IA comporta il rischio di rinunciare alle protezioni o ai diritti di proprietà intellettuale su tali informazioni. Potrebbero essere violati anche le protezioni o i diritti di proprietà intellettuale di altri.

Appare evidente che creare una Policy di utilizzo dell’IA è ormai un’attività imprescindibile per configurare le corrette pratiche operative e di governance nell’organizzazione e per monitorare l’uso dello strumento dell’IA, incluso cosa viene inserito e come viene utilizzato.

Inoltre, le organizzazioni dovrebbero presumere che qualsiasi output generato esclusivamente dall’IA non sia “possedibile”, cioè non possa essere oggetto di copyright. Al contrario, un “lavoro” che è stato generato dall’IA, ma modificato in modo sostanziale e in più punti può essere oggetto di copyright. Ancora una volta, quindi, l’intervento umano si dimostra fondamentale, anche da un punto di vista legale.

Consigli per un uso consapevole e proficuo dell’IA

Dal momento che la tecnologia basata sull’IA si sta evolvendo a un ritmo senza precedenti, c’è il rischio che le aziende rimangano indietro se non scelgono strumenti capaci di incorporare nelle loro architetture la capacità di migliorare continuamente e sfruttare gli sviluppi più recenti dell’IA.

Proviamo a immaginare lo stack tecnologico dell’IA – cioè l’insieme di software e applicazioni interconnesse che concorrono al suo funzionamento, e che devono essere necessariamente integrate nell’infrastruttura già presente in azienda – come una torta a più strati

Nella parte più bassa della torta c’è il modello di base, il cui compito è comprendere e generare. Ci sono diversi modelli di base adattati a compiti differenti, come scrivere codice, generare contenuti didattici o creare immagini. I grandi modelli di linguaggio (LLM) sono eccellenti nel comprendere il linguaggio e generare contenuti. 

È assolutamente cruciale che le organizzazioni scelgano strumenti in grado di valutare, testare e adottare nuovi modelli di base man mano che si evolvono. Gli strumenti dovrebbero essere in grado di sfruttare modelli di base nuovi e in continua evoluzione per generare contenuti, quiz, immagini, traduzioni e video in modo che migliorino sempre di più ogni mese, risparmiando tempo alle organizzazioni e offrendo risultati di alta qualità.

Il livello successivo nello stack tecnologico è il modello di dominio. Mentre la maggior parte dei modelli di base è addestrata da contenuti presenti su Internet, un modello di dominio è addestrato dal contesto, dai clienti, dalle decisioni, dai dati e da tutte le attività che compongono un’organizzazione o un’azienda. Più pertinenti sono i modelli di dominio, più valore un’organizzazione otterrà dai propri strumenti di IA. 

Lo strato più in alto della torta è il livello di governance. Questo strato consente alle organizzazioni di ottenere informazioni sui dati, garantire la supervisione e gestire la sicurezza. È in questo strato che le organizzazioni effettuano audit, convalidano e controllano dati e modelli associati, monitorando continuamente la qualità e la sicurezza.

Per garantire qualità e conformità, le organizzazioni devono scegliere strumenti di IA con livelli di governance in grado di valutare non solo la qualità del contenuto generato dall’IA, ma anche se attraverso l’addestramento questa stia migliorando o peggiorando.

La sfida per le aziende è innanzitutto quella di comprendere i diversi livelli di complessità, e poi di non fermarsi solo al primo strato di questa ipotetica torta, ma di riuscire ad integrare anche gli altri due livelli, per riuscire a trarre davvero il massimo dall’utilizzo dell’IA nella loro realtà lavorativa.