Nelle ultime settimane l’Intelligenza Artificiale (“IA”) sta emergendo sempre di più agli onori delle cronache e diventando una presenza via via più capillare nella vita digitale quotidiana. Da tempo in realtà, la IA supporta molte delle attività quotidiane online, come l’uso dei motori di ricerca o la consultazione degli aggiornamenti sui social media, ma solo dalla fine di novembre, grazie alla diffusione di strumenti come ChatGPT, tale tecnologia sta acquisendo una nuova importanza in molti ambiti, dallo studio al lavoro, dalla comunicazione aziendale allo sviluppo informatico.

ChatGPT porta l’intelligenza artificiale nella quotidianità

Inoltre, il successo che ha accompagnato il lancio di Chat GPT rappresenta una vera e propria rivoluzione per le aziende digitali leader del settore come Microsoft che ne è diventata la principale azionista e Google che ha risposto con il lancio di Bard.

È probabile che, nei prossimi mesi, le funzionalità dell’IA diventino sempre più diffuse sia nella vita quotidiana che nelle attività aziendali, aumentando la produttività e l’efficienza della ricerca e del lavoro. Anche per questo è necessario essere consapevoli delle sfide normative che ne derivano, come la protezione del diritto d’autore, la tutela della privacy, la lotta alla contraffazione e la regolamentazione delle recensioni online. Questi aspetti potrebbero compromettere l’utilizzo a lungo termine della IA da parte delle imprese e delle organizzazioni, se tali sfide non vengono affrontate e risolte in modo adeguato.

Tutela della privacy e diritto d’autore

Ad esempio, la recente causa intentata da Getty Images contro una società che utilizza la IA per generare immagini rappresenta un importante caso per il settore. La denuncia non si basa infatti sul fatto che i contenuti generata dalla IA vengano utilizzati in modo improprio dai singoli utenti, ma sul fatto che la tecnologia è stata addestrata utilizzando materiale protetto dal diritto d’autore di Getty Images. Questo pone in evidenza la mancanza di trasparenza riguardo alla composizione delle informazioni alla base dei modelli di Intelligenza Artificiale e indica un’area grigia che dovrà essere affrontata dalla giurisprudenza e dalla legislazione.

Allo stesso modo, all’interno dei 75 Terabyte di informazioni che costituiscono la base di Chat GPT e nei processi di aggiornamento e di costante utilizzo del bot, deve essere valutato l’utilizzo di dati personali raccolti per altre ragioni e che potrebbero ricadere in una fattispecie d’uso non coerente con le norme sulla privacy.

Digital Services Act impone trasparenza

Se OpenAI, la società che ha sviluppato Chat GPT, ha impiegato migliaia di persone per controllare i contenuti e contrassegnare quelli sensibili, è sempre possibile che emergano risposte sessiste, violente o razziste contravvenendo in tal modo al Digital Services Act e agli obblighi imposti ai social media: di recente, Twitter non sono è stata in grado di superare un test sul contrasto alla disinformazione e le sperimentazioni precedenti a Chat GPT sono state frenate proprio per questo limite. La trasparenza degli algoritmi e la concorrenza imposta dal Digital Markets Act dovranno essere verificate in relazione ai nuovi servizi offerti da Chat GPT, specialmente se quest’ultimo dovesse diventare uno dei gate-keeper riconosciuti dalla normativa.

I singoli strumenti poi possono essere usati da soggetti che intendano contravvenire a specifiche norme. Il bot Chat GPT e gli editor di testi Rytr e Copy.ai ad esempio possono essere usati, fra gli altri impieghi, per creare recensioni false online e per supportare le campagne di disinformazione e odio in Rete mentre le applicazioni per creare e modificare immagini come Dall E, Flair, Stable Diffusion e Midjourney presentano il rischio di essere usate nelle attività di vendita di prodotti contraffatti online.

Ancor più delicato è l’uso delle tecnologie text-to-speech come Synthesia che sono oggetto di regolamentazione da parte dell’imminente “AI Act” del Parlamento Europeo per la possibilità e che offrono di creare video “deep fake”. Del resto, OpenAI Classifier, lo strumento sviluppato da OpenAI per riconoscere i contenuti creati con l’Intelligenza Artificiale, al momento non è risultato efficace per identificare testi che violino le norme relative al plagio e indica la misura con cui la IA costituisce al momento un cambiamento in molti settori del diritto.

Equo compenso e Direttiva Copyright, possibili conflitti

L’equo compenso, infine, di recente introduzione anche nel nostro Paese come recepimento della Direttiva Europea sul Copyright, è una norma che rischia di essere messa in discussione nel momento in cui deve entrare in vigore. Approvata con l’obiettivo di garantire una remunerazione certa per gli editori da parte di piattaforme come Facebook e Google, è in qualche modo superata da funzionalità come Chat GPT che forniscono risposte senza indicare le fonti dei dati o i link per approfondire le informazioni da cui hanno estratto il significato. Se dovesse prendere piede questa modalità di ricerca, elevato sarebbe il cambiamento da affrontare per gli editori che raccolgono, elaborano e pubblicano informazioni e notizie a proprie spese.

La IA si appresta a entrare nella vita quotidiana. L’educazione, il mondo del lavoro, le imprese e le organizzazioni dovranno affrontare questa trasformazione, ma per poter sfruttarne appieno il potenziale è importante che il quadro normativo che ne disciplina l’utilizzo venga chiarito il prima possibile, liberato da incertezze e ambiguità.