Quantcast

Così Cefriel e Zenabyte correggono le decisioni inique dell'intelligenza artificiale

Lo strumento, finanziato dalla Commissione UE, potrà aiutare le PMI a misurare il grado di equità ed etica di una soluzione di AI e fornire la miglior soluzione disponibile sul mercato

Marco Scotti
L’Intelligenza Artificiale migliora la performance finanziaria del 32%

Gli algoritmi utilizzati per l’Intelligenza Artificiale (AI) non sempre sono “equi” o rispettosi dei diritti fondamentali della persona. Succede così che non viene concesso credito alle donne pur avendo lo stesso profilo di rischio degli uomini semplicemente perché si pensa nelle aziende informatiche lavori meno personale femminile, oppure che gli algoritmi di riconoscimento facciale utilizzati dalle forze dell’ordine statunitensi riconoscano male gli individui di pelle scura finendo per danneggiare gli afroamericani. Per evitare o limitare al massimo problemi come questi ZenaByte e CEFRIEL, centro di innovazione digitale fondato dal Politecnico di Milano, hanno sviluppato uno strumento innovativo, cofinanziato dalla Commissione Europea, che si chiama AMNESIA (‘Assessment of fairness of NGI AI-based future interactive technologies’).

AMNESIA si rivolge alle piccole e medie aziende (PMI), prive di particolari competenze di Intelligenza Artificiale, che solitamente sviluppano le proprie soluzioni basate sull’AI sfruttando le più comuni suite automatiche (insieme di software organizzati di AutoML), quali Google Cloud AutoML, Amazon SageMaker Autopilot, e Microsoft Azure AutoML. Con AMNESIA è possibile misurare, con l’aiuto di grafici interattivi, il grado di equità di una soluzione di AI fornendo, allo stesso tempo, la miglior soluzione disponibile sul mercato.

“L’Intelligenza Artificiale – spiega Enrico Frumento, senior domain di Cefriel - è ormai parte integrale della vita di tutti, dai contenuti proposti sui social network alle macchine a guida autonoma, dal monitoraggio dell’apprendimento degli studenti all’individuazione degli evasori fiscali. La mancanza di equità dei sistemi di AI, oltre a creare discriminazione e problemi etici, può sfociare in responsabilità legali e conseguenti richieste di danni a carico delle aziende che li sviluppano e li utilizzano”.

“Nella maggior parte dei casi – afferma Carlo Dambra, managing director Zenabyte - l’iniquità si annida nei dati utilizzati per addestrare i modelli di AI dovuti a una rappresentazione non adeguata di specifiche comunità di una popolazione, o a errate interpretazioni di alcune caratteristiche fisiche come nel caso del riconoscimento facciale. Studi accademici recenti hanno proposto strumenti per misurare e mitigare l’iniquità dell’AI che necessitano di competenze multidisciplinari per tradurre concetti complessi in matematica e capaci di modificare gli algoritmi di apprendimento stessi. Queste azioni richiedono profonde competenze trasversali (ad es. ingegneri del software, data scientist, legali) che sono presenti soltanto in aziende informatiche o di consulenza estremamente specializzate”.

Lascia il tuo commento

Condividi le tue opinioni su Economy

Caratteri rimanenti: 400