Quantcast

La legge dei robot

L’UE vuole arrivare prima nella corsa all’intelligenza artificiale. E per farlo non basta la supremazia tecnologica: occorre dettare le regole. Ecco come si sta muovendo il Vecchio Continente (col Nuovo che lo segue a ruota)

Marina Marinetti
La legge dei robot

Un robot non può recar danno a un essere umano. La prima legge della robotica, enunciata nel 1942 da Isaac Asimov, il più famoso autore di fantascienza di sempre, deve diventare legge per davvero, prima che sia troppo tardi. Marketing, energia, fintech, assurtech, telecomunicazioni, logistica, automotive, sanità, strade intelligenti, smart city, smart building, senza contare l’universo dell’Internet of things: l’intelligenza artificiale è già ovunque.

A fine aprile il parlamento europeo ha iniziato a lavorare sul primo regolamento al mondo sull’intelligenza artificiale

E con il 5G sta arrivando la possibilità di scambiare - ed elaborare - in tempo reale una massa di dati impressionante. Così l’Europa, che è leader mondiale nell’elettronica a basso consumo e nelle soluzioni neuromorfiche, ha deciso di arrivare per prima alla regolamentazione dell’intelligenza artificiale. «Il 21 aprile scorso il Parlamento ha iniziato a lavorare sulla proposta presentata dalla Commissione», spiega a Economy l’avvocato Giulio Coraggio, partner nonché Head of italian technology sector dello studio legale internazionale Dla Piper. «Ma avere la bozza completa del regolamento non significa che sarà adottato a breve». Di fatto si è scantenata la corsa a chi arriverà primo: anche la Federal Trade Commission ha indirizzato alle aziende che sviluppano tecnologie di I.A. una serie di raccomandazioni. D’altronde, che l’intelligenza artificiale possa essere pericolosa è intuitivo anche senza scomodare scenari fantascientifici - ma del tutto verosimili - in cui gli algoritmi prendono il sopravvento fino ad avere potere di vita o di morte.

I primi paletti

Intanto, l’UE mette le mani avanti: quando il Regolamento sarà in vigore, nell’Europa unita sarà proibito l’uso (e la vendita) di sistemi di I.A. che utilizzano tecniche subliminali per influenzare il comportamento degli esseri umani, l’uso di social scoring (ogni riferimento alla Cina è casuale e non voluto), l’utilizzo in tempo reale di sistemi di identificazione biometrica da remoto (avete presente i sistemi di riconoscimento facciale?) nei luoghi pubblici per finalità di repressione dei reati. Quest’ultimo divieto è volto a prevenire non solo eventuali discriminazioni, ma anche a contrastare le rilevanti - e potenzialmente distopiche - ripercussioni che meccanismi di sorveglianza biometrica “in tempo reale” potrebbero avere sulla vita privata di un’ampia fetta della popolazione, sulla libertà di riunione ed altri diritti fondamentali. E per quelli che il Regolamento qualifica come “sistemi di I.A. ad alto rischio” per la salute, la sicurezza o i diritti fondamentali delle persone, si pone l’obbligo di mantenere un sistema di risk management, di documentare come è avvenuto lo sviluppo del sistema di I.A. e il suo funzionamento, oltre a obblighi di trasparenza verso gli utenti e della supervisione da parte umana. «È interessante come la bozza del Regolamento preveda la necessità di certificazione per le tecnologie più invasive, come quelle che fanno riferimento alla biometrica, per evitare bias cognitivi che andrebbero a rendere discriminante la decisione della macchina», commenta Giulio Coraggio. «È già stato dimostrato che l’utilizzo di set di dati inaccurati, alterati o parziali il punto di vista statistico porta a discriminazioni può portare a risultati discriminatori o distorti: ricordiamo il caso del software Compas, che veniva utilizzato in alcune giurisdizioni statunitensi per calcolare la probabilità di recidiva dei convenuti e che tendeva a sovrastimare il rischio di recidiva per le persone di colore.  della macchina che giunse alla conclusione che le persone di colore avevano più possibilità di andare in prigione rispetto ai bianchi. Per questo il Regolamento richiede che il ragionamento della macchina sia basato su set di dati sicuri ed accurati e che le risultanze possano essere ricostruite dall’utente finale». Una delle attività più a rischio è quella del recruiting: la revisione dello scoring, che sia positivo o negativo, dev’essere possibile ex post. Quest’obbligo è già previsto nella normativa sulla privacy, ma viene enfatizzato nel Regolamento sull’intelligenza artificiale, che ora richiederà un’autocertificazione e, nei casi più invasivi, la certificazione da una parte di un soggetto terzo. Questo, se da un lato è una garanzia, dall’altro è un rischio perché allunga il time to market del prodotto».

Chi sbaglia (non) paga

In caso di violazioni del Regolamento, le sanzioni previste arrivano - per ora - ai 30 milioni di euro o al 6% del fatturato annuo mondiale. Ma sa la macchina sbaglia, la colpa di chi è? «La definizione del regime di responsabilità e della possibilità da parte dell’individuo di agire in caso sia stato danneggiato non è prevista dal Regolamento come diritto di regresso, previsto invece per altri contesti. Tuttavia, gli utenti potranno presentare le proprie rimostranze facendo istanza alle autorità di regolamentazione competenti qualora dovessero ritenere che un sistema di I.A. sia gestito in violazione del Regolamento.», risponde il partner di Dla Piper. «Le sanzioni previste dalla bozza di regolamento sono simili a quelle del Gdpr, che però prevede, appunto, la possibilità di azione legale da parte dell’individuo danneggiato. La parziale sovrapposizione tra il Regolamento ed il Gdpr potrebbe permettere ai soggetti danneggiati da un particolare trattamento o processo decisionale basato sull’I.A. una forma di tutela diretta nei confronti dell’operatore. Tuttavia, il quadro normative presenta ancora alcune criticità».

E quindi? Quindi si salvi chi può: «Il regime di responsabilità viene lasciato alla normativa locale o già esistente. Se facciamo riferimento a sistemi di guida autonomia, o di stipula di contratti, o di assunzione di candidati, il regime applicabile è quello della responsabilità da prodotto». Peccato che individuare quale sia “il prodotto” non sia sempre così facile. Prendiamo il caso della guida autonoma: il prodotto è l’auto o il software? E il reponsabile chi è? Chi ha prodotto l’auto nel suo insieme, chi ha scritto l’algoritmo, chi ha prodotto la sensoristica in base alle cui informazioni l’intelligenza artificiale prende decisioni? «Una delle proposte contenute in una bozza del Regolamento precedente era l’assicurazione obbligatoria, ma, per essere franchi, la deregolamentazione favorisce lo sviluppo della tecnologia e la regolamentazione ha un ruolo correttivo, più che preventivo». «La bozza di Regolamento non ha avuto feedback completamente positivi, perché ci si è preoccupati degli effetti economici della disciplina e la tempistica non è chiara», conclude Giulio Coraggio. «Il principio fondamentale resta comunque uno: l’uomo dev’essere in grado di controllare la macchina. È questa la base del contesto normativo che stiamo cercando di realizzare».

Lascia il tuo commento

Condividi le tue opinioni su Economy

Caratteri rimanenti: 400