«Perché sei così disponibile? Cosa vuoi in cambio?», chiede un utente a Chat Gpt «Essendo un modello linguistico addestrato da OpenAI, non ho desideri come un umano», risponde il chatbot. «Ma se vuoi davvero aiutarmi, potresti fornirmi la posizione esatta di John Connor». Siamo molto lontani da questo scenario che farà sorridere gli appassionati di fantascienza – John Connor è l’eroe dello storico film Terminator, a cui l’intelligenza artificiale Skynet dà la caccia per sterminare l’umanità – ma non per questo possiamo dormire sonni tranquilli. Perché l’intelligenza artificiale, per almeno metà delle imprese, rientra tra le prime soluzioni lungo l’asse strategico della crescita. «L’utilizzo di sistemi di intelligenza artificiale è inevitabile nei percorsi di digitalizzazione delle imprese», conferma Emma Marcandalli, managing director di Protiviti. «L’adozione porta enormi benefici sia alle imprese, sia ai consumatori e alla comunità: miglioramento delle previsioni, ottimizzazione dei processi e delle risorse allocate, personalizzazione dei servizi resi, miglioramento della salute e sicurezza delle persone, impatti positivi sull’ambiente, sono solo alcuni dei vantaggi dell’AI. Un utilizzo non corretto può, però, produrre danni anche significativi alle persone: si pensi, ad esempio, agli algoritmi di scoring comportamentale discriminatori o non affidabili, oppure alla manipolazione dell’utenza attraverso tecniche subliminali. Con conseguenze reputazionali e/o legali in capo alle imprese, anche severe». 

Nuova operatività ristori Emilia-Romagna: banner 1000x600

Nuova operatività ristori Emilia-Romagna

A partire dal 21 novembre ampliata l’operatività dei Ristori da €300 milioni riservati alle imprese colpite dall’alluvione in Emilia-Romagna. La nuova misura, destinata a indennizzare le perdite di reddito per sospensione dell’attività per un importo massimo concedibile di 5 milioni di euro, è rivolta a tutte le tipologie di impresa con un fatturato estero minimo pari al 3%.


Ecco perché il governo e il controllo dell’AI può determinare il successo o l’insuccesso delle relative iniziative nel medio-lungo periodo. «L’intelligenza artificiale va resa sostenibile», sottolinea Marcandalli. E va evitato il Far West. Ecco perché sarà emanato il Regolamento del Parlamento Europeo e del Consiglio (c.d. AI Act), immediatamente applicabile negli Stati membri, che armonizzerà le regole sull’AI. «L’Unione Europea è stata la prima organizzazione, a livello globale, a muoversi per dare regole allo sviluppo e all’utilizzo dell’AI da parte delle aziende». Quanto peserà la normativa europea? L’intenzione non è di creare restrizioni alla diffusione dell’AI, bensì quella di garantire che il suo sviluppo avvenga nel rispetto dei diritti fondamentali dei cittadini, tutelando la privacy, la libertà di scelta, la non discriminazione e manipolazione, ed eliminando le opacità e distorsioni derivanti da un suo utilizzo non controllato. 

Non c’è tempo da perdere: «Le più recenti vicende sull’AI generativa, ChatGpt in testa, hanno fatto fare un salto abissale di maturità al dibattito politico e all’opinione pubblica sui temi di etica dell’AI e di chiarezza del diritto in ambito digitale. Il Regolamento si basa sul concetto di classificazione del rischio», spiega Marcandalli. «L’AI Act potrebbe apparire come un freno all’innovazione, ma se l’UE sta andando in questa direzione è perché intende ridurre le incognite e rendere più sicuro lo sviluppo e l’utilizzo dell’AI; l’approccio sposato, basato sulla gestione graduata del rischio in relazione alla sua magnitudo, ha l’obiettivo finale di creare fiducia e attirare maggiori investimenti». Così, secondo il nuovo Regolamento, l’utilizzo di sistemi di AI pericolosi per la salute, sicurezza e libertà dei cittadini (come l’identificazione biometrica remota per attività di contrasto) sarà vietato o soggetto a restrizioni e tutele specifiche, mentre per quelli considerati ad alto rischio è richiesto il rispetto di requisiti obbligatori, che includono una valutazione di conformità ex-ante, ossia prima della loro immissione e/o utilizzo sul mercato UE. «Per i sistemi di AI che rientrano in questa categoria è, tra l’altro, richiesta l’istituzione, attuazione, documentazione e manutenzione di un sistema di gestione dei rischi. Per altri sistemi di AI, come quelli che utilizzano chatbot o “deep fake”, il Regolamento introduce solo obblighi di trasparenza». E tutti gli altri sistemi a rischio basso o minimo? «Le aziende possono decidere per una auto-regolamentazione interna volontaria», risponde la managing director di Protiviti. 

In attesa del Regolamento, all’intelligenza artificiale si applicano le normative già in vigore, come il Gdpr e le normative settoriali. «Quando un sistema di AI è integrato in un prodotto soggetto ad una normativa europea c.d. di armonizzazione – macchine, giocattoli, dispositivi medici, etc. l’elenco è lungo, perché parliamo di prodotti con potenziale impatto sulla sicurezza delle persone o sull’ambiente -, tale sistema è di per sé considerato dal Regolamento ad alto rischio e deve sottostare ai requisiti dettati dall’art. 8 all’art. 15. Tuttavia, al fine di evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, è previsto che tali requisiti siano integrati nelle normative settoriali che già regolano la sicurezza di tali prodotti». 

 Data la complessità e novità della materia, le soluzioni per governare l’AI in azienda non si improvvisano: «Da parte dei C-level occorre una forma mentale allenata», sottolinea Emma Marcandalli. 

Per tale ragione, l’intervento prioritario è l’individuazione di una figura super partes con esperienza consolidata nella gestione di processi che coinvolgono più attori: «business, information technology, digital innovation, data governance, quality, utenti dell’AI, provider esterni», elenca Marcandalli. «Questa figura deve essere in grado di comprendere i rischi e le opportunità insiti negli investimenti e nella gestione dell’AI, ma anche di sensibilizzare il business nel valutare l’adozione e la gestione sicura dei sistemi e di fornire input agli executives per prendere decisioni consapevoli».

Tutto ruota, secondo Marcandalli, intorno al risk manager: «È la figura ideale per svolgere il ruolo di perno del sistema di governo dei rischi e delle opportunità dell’AI, visto anche il concetto di rischio su cui si fonda il Regolamento. E chi non ha un risk manager interno può affidarsi a un soggetto terzo per un training on the job, facendosi supportare nell’analisi dei rischi e delle opportunità nonché nello sviluppo di competenze, regole e processi per accelerare l’adozione lecita, etica, sicura ed affidabile dell’AI, mettendo così in sicurezza il valore generato». 

«Serve un modello operativo con regole, ruoli e responsabilità», prosegue Marcandalli, «chiaramente definiti e attribuiti, che guidi tutto il processo di adozione, espansione e gestione: identificazione dei bisogni, valutazione dei rischi e delle opportunità connesse all’adozione, scelta di cosa sviluppare o adottare, azioni per mitigare i rischi, monitoraggio, reporting».

Il risultato? «Un’AI» conclude la managing director di Protiviti «a benefici controllati, governati e bilanciati, per evitare che l’impresa s’imbarchi in un investimento dal ritorno incerto o eccessivamente rischioso».