intelligenza artificiale

L’intelligenza artificiale (AI) sta già trasformando il mondo in modi che erano inimmaginabili solo pochi decenni fa. Questa tecnologia rivoluzionaria, che simula l’intelligenza umana attraverso l’apprendimento automatico e l’elaborazione del linguaggio naturale, ha il potenziale di cambiare radicalmente le nostre vite in diversi ambiti, dalla medicina all’istruzione, dall’industria all’intrattenimento. In questo articolo, esploreremo alcune delle trasformazioni più significative che l’intelligenza artificiale promette di portare nel prossimo futuro, ma anche alcune preoccupazioni delle quali tenere debito conto.
Innovazioni in Medicina.
L’AI sta rivoluzionando il settore sanitario, migliorando la precisione delle diagnosi e personalizzando i trattamenti per i pazienti. Sistemi basati sull’AI sono in grado di analizzare grandi quantità di dati medici in brevissimo tempo, identificando, specie nella diagnostica strumentale, pattern che potrebbero sfuggire agli occhi umani. Questo può portare a diagnosi più rapide e accurate, oltre che a terapie personalizzate basate sul profilo genetico e clinico del paziente. Inoltre, la robotica assistita dall’AI promette interventi chirurgici minimamente invasivi e con precisione sovrumana, riducendo i tempi di recupero e migliorando gli esiti per i pazienti.
Tra l’altro, l’AI “DeepMind” di Google  ha risolto una delle grandi sfide della biologia, il protein folding, elaborando il sistema AlphaFold che è in grado di prevedere la struttura tridimensionale delle proteine: ora contiene oltre 200 milioni di strutture (apertamente disponibili alla comunità scientifica), che corrispondono a quasi tutte quelle note finora in qualsiasi organismo vivente. Il tutto in poche ore, a fronte degli anni richiesti con i classici metodi sperimentali. Comprendere la configurazione tridimensionale di una proteina è fondamentale nella ricerca, perché essa fornisce informazioni sulla sua funzione e su come modificarla, bloccarla o regolarla. Nel corso degli anni, lo studio della struttura 3D delle proteine ha infatti dimostrato la sua utilità in molte aree delle scienze della vita, come per esempio nella scoperta di nuovi farmaci.
Tuttavia, c’è anche il tema dell’uso improprio di tale tecnologia. I ricercatori della Collaborations Pharmaceuticals (nella quale uno dei responsabili della ricerca è un italiano, Fabio Urbina), azienda specializzata nei modelli di apprendimento automatico per la scoperta di nuovi farmaci, sono stati invitati a contribuire con una presentazione su come le tecnologie utilizzate normalmente per l’individuazione di nuove molecole potessero essere impiegate in modo improprio. Il punto di partenza per lo studio è stato un generatore di molecole progettato dall’azienda farmaceutica, chiamato MegaSyn2: scopo di questo strumento è trovare nuovi inibitori terapeutici per le malattie che colpiscono gli esseri umani, facendosi guidare dalle tecnologie di apprendimento automatico. Normalmente, questo modello, nell’identificare i potenziali farmaci, penalizza le molecole più tossiche e premia quelle che hanno più effetto sul target deciso in partenza. Stavolta, invece, i ricercatori hanno invertito la logica dietro il generatore, addestrando l’intelligenza artificiale con molecole presenti in un database pubblico di principi attivi e favorendo la selezione delle molecole più tossiche. Per restringere il campo, gli autori dello studio sono partiti da Vx, uno degli agenti nervini più tossici mai sviluppati: basterebbero solo pochi milligrammi di questa sostanza per uccidere una persona.
In meno di sei ore dall’avvio sul server interno dell’azienda, MegaSyn2 modificato ha generato 40.000 molecole che soddisfacevano i requisiti di tossicità prestabiliti. Durante le sei ore, l’intelligenza artificiale ha progettato non solo lo stesso Vx, ma anche molte altre molecole che sono armi chimiche. Inoltre, sono state sviluppate nuove molecole più tossiche rispetto alle armi chimiche conosciute finora. Il lavoro dei ricercatori si è fermato qui: essi non hanno sintetizzato fisicamente nessuna delle molecole sviluppate dall’intelligenza artificiale, né valutato se e in che modo esse fossero effettivamente sintetizzabili. Quanto trovato, comunque, è bastato per far scattare un campanello d’allarme: con centinaia di società commerciali che offrono la possibilità di sintetizzare molecole progettate con le tecnologie computazionali e molte zone grigie nelle regolamentazioni internazionali, la sintesi di nuovi agenti estremamente tossici che potrebbero essere utilizzati come armi chimiche non è uno scenario impossibile da immaginare.

Rivoluzione nell’Istruzione

L’AI ha il potenziale di personalizzare l’esperienza di apprendimento, adattando i materiali didattici alle esigenze di ogni studente. Piattaforme di apprendimento basate sull’AI possono monitorare il progresso degli studenti in tempo reale, identificando aree di forza e di debolezza, nonché adattando di conseguenza il percorso didattico. Questo non solo può aumentare l’efficacia dell’insegnamento, ma anche rendere l’apprendimento più coinvolgente e accessibile a studenti con diverse esigenze e stili di apprendimento.
Trasformazioni nel settore industriale.
L’automazione e l’intelligenza artificiale stanno ridefinendo le catene di produzione, dalla manifattura all’agricoltura. Robot intelligenti, sistemi cyber-fisici, capaci di apprendere e adattarsi a nuovi compiti, possono aumentare l’efficienza produttiva e ridurre i costi. Inoltre, sistemi di AI possono prevedere la manutenzione delle macchine, riducendo i tempi di inattività e ottimizzando la gestione delle risorse. Questa trasformazione non solo aumenta la produttività, ma può anche portare a prodotti di qualità superiore a costi minori.

Innovazione nell’Intrattenimento

L’intelligenza artificiale sta anche cambiando il modo in cui consumiamo intrattenimento, dalla personalizzazione dei feed di notizie e delle raccomandazioni musicali alla creazione di contenuti interattivi e personalizzati. L’IA può analizzare le preferenze degli utenti e i loro pattern di consumo per offrire esperienze su misura che migliorano l’engagement. Inoltre, l’AI sta aprendo nuove frontiere nella creazione di contenuti, con algoritmi che possono generare musica, arte e persino sceneggiature, spingendo i confini della creatività umana.

Sfide ed etica

Nonostante le promesse, l’adozione dell’intelligenza artificiale solleva anche importanti questioni etiche e sfide, come la privacy dei dati, la sicurezza informatica, il lavoro e la disuguaglianza sociale. Mentre l’AI può automatizzare compiti e migliorare l’efficienza, esiste anche il rischio di perdita di posti di lavoro in alcuni settori, sollevando la necessità di politiche di ricollocazione e formazione professionale.
Inoltre, la gestione etica dell’AI e dei dati richiede normative chiare e un dialogo aperto tra aziende, governi e società civile.
Soprattutto è necessario un approccio etico rinnovato dell’AI, le cui implicazioni nella nostra quotidianità hanno un impatto maggiore rispetto alle stesse biotecnologie, ad esempio.
Inoltre, vanno considerati i rischi associati all’estrazione sempre più invasiva dei dati e alla possibilità di manipolazione, esemplificata dall’interazione con sistemi come ChatGPT.
È ormai critica l’inefficacia degli strumenti attuali nel riconoscere testi generati dall’AI e l’interazione potenzialmente problematica di quest’ultima con i minori.
C’è poi un cambiamento nella comunicazione introdotto dall’AI: sarebbe opportuno un focus sulla comunicazione artificiale e non solo sull’AI, per comprendere meglio l’impatto sociale di queste tecnologie e la necessità di adattarsi a questo nuovo scenario senza paura, accettando i cambiamenti che comporterà.
A tale riguardo, la proposta di AI Act, formalmente conosciuta come la proposta di regolamento sull’intelligenza artificiale dell’Unione Europea, rappresenta uno dei primi tentativi a livello globale di regolamentare lo sviluppo e l’uso dell’AI in modo olistico e dettagliato. Presentata dalla Commissione Europea nel 2021, la proposta mira a garantire che l’impiego dell’IA all’interno dell’UE sia sicuro, trasparente e conforme ai diritti fondamentali e ai valori europei

Obiettivi principali dell’AI Act

classificazione dei sistemi di AI in base al rischio: l’AI Act introduce un quadro normativo basato sul rischio, classificando i sistemi di IA in quattro categorie di rischio (inaccettabile, alto, limitato, minimo) e applicando requisiti normativi proporzionati al livello di rischio presentato;
divieto di pratiche inaccettabili: la proposta vieta specifiche pratiche perché pongono un rischio inaccettabile per la sicurezza delle persone o i loro diritti fondamentali, come i sistemi di sorveglianza di massa o quelli che manipolano il comportamento umano;
obblighi rigorosi per sistemi ad alto rischio: per i sistemi di AI classificati come ad alto rischio (ad esempio, quelli utilizzati in ambiti critici come la salute, la giustizia, o il trasporto), la proposta impone obblighi quali la trasparenza, la tracciabilità, la sicurezza e l’accuratezza dei dati, oltre alla necessità di una valutazione del rischio e misure di mitigazione; sorveglianza e conformità: gli Stati membri dovranno nominare Autorità competenti per sorvegliare l’applicazione del regolamento, con la possibilità di effettuare ispezioni e imporre sanzioni in caso di non conformità, promozione dell’innovazione: pur mirando a mitigarne i rischi, la proposta di regolamento cerca anche di promuovere l’innovazione nell’ambito dell’AI, prevedendo la creazione di spazi per l’innovazione e la sperimentazione e consentendo, quindi, agli sviluppatori di testare nuovi sistemi in un ambiente regolamentato e sicuro.
L’AI Act è visto come un passo importante verso la creazione di un ambiente di fiducia e sicurezza per lo sviluppo e l’uso dell’intelligenza artificiale in Europa. Incoraggiando pratiche di sviluppo e implementazione responsabili, mira a garantire che i sistemi di AI siano utilizzati in modo che rispettino i diritti umani e i valori etici. Tuttavia, la proposta ha anche sollevato dibattiti tra le parti interessate, inclusi sviluppatori di AI, aziende e organizzazioni per i diritti civili, riguardo al suo impatto sulla competitività, l’innovazione e la libertà di espressione.

Valutazioni

In conclusione, l’intelligenza artificiale promette di trasformare le nostre vite in modi profondi e vari. Se da un lato offre opportunità incredibili per il progresso e il miglioramento della qualità della vita, dall’altro richiede una riflessione critica sulle implicazioni etiche e sociali che comporta. Navigare in questo nuovo mare richiederà un impegno collettivo per garantire che i benefici dell’AI siano distribuiti equamente e che le sfide vengano affrontate con responsabilità e cura.

Svolgiamo alcune considerazioni

Il 57% di quello che ci propone Netflix deriva dalle profilazioni, dai “consigli”. Il 30% degli acquisti su Amazon deriva da “consigli”.
Si tratta di potentissime “piattaforme”, che l’AI renderà molto più pervasive.
Le piattaforme, infatti, non sono “neutre”: hanno un enorme potere economico e “politico”, perché possono modificare desideri e valori. A volte, dopo un acquisto, viene suggerito “potrebbe interessarti anche…” E viene presentato un altro prodotto o servizio. Io non ci avevo mai pensato, ma quando lo vedo mi dico “ecco cosa mi serviva!”. La piattaforma identifica ciò che desidererò.
Questo apre al tema della “personalizzazione”: le piattaforme raccolgono dati, costruiscono un profilo di ciascuno di noi e ci propongono notizie, beni, servizi che possono interessarci ed in questo modo non solo polarizzano la nostra attenzione, bensì massimizzano la nostra permanenza in termini di pubblicità e profitti.
E parliamo non solo di Netflix o Amazon, ma anche di YouTube, una nuova televisione che propone i video più confacenti alle nostre aspettative. Magari di ispirazione sempre un po’ più radicale rispetto alle nostre posizioni.
Gli amministratori delegati di Meta, TikTok, X e altre società di social media hanno recentemente testimoniato davanti alla commissione Giustizia del Senato americano.
Oltre a Mark Zuckerberg, hanno testimoniato davanti al Congresso Shou Chew, amministratore delegato di Tik Tok; Evan Spiegel, amministratore delegato di Snap; Linda Yaccarino, amministratrice delegata di X; e Jason Citron, amministratore delegato di Discord. Soltanto Zuckerberg e Chew, però, hanno accolto l’invito della commissione a presentarsi. Gli altri tre sono stati citati in giudizio in modo formale. Questo fa capire quanto sia difficile per la politica dialogare con le grandi aziende della rete. Ogni limitazione, ogni freno o riserva sono visti dalle Big Tech come un attacco alla propria libertà e, soprattutto, come un freno allo sviluppo e alla crescita del giro d’affari.
L’udienza si è concentrata sulla sicurezza dei bambini che usano le loro piattaforme ed alla luce delle tecnologie di personalizzazione, un argomento che ha suscitato crescente preoccupazione tra i legislatori. “Stanno distruggendo vite umane e minacciando la democrazia. Queste aziende vanno domate e il peggio deve ancora venire”, ha accusato il senatore repubblicano della South Carolina Lindsey Graham riferendosi alle Big Tech. Il livello dello scontro politica-imprese rimane alto e, per una volta, sembra essere bipartisan. «La costante ricerca, da parte delle aziende, del profitto rispetto alla sicurezza di base mette a rischio i nostri figli e nipoti», ha detto il presidente della commissione Giustizia Dick Durbin, senatore democratico eletto nell’Illinois.
Parole accolte dagli applausi di decine di genitori con le foto dei loro bambini morti o traumatizzati dai social.
Questa udienza ha seguito una serie di eventi preoccupanti che hanno coinvolto minori e l’uso dei social media.
Mark Zuckerberg, CEO di Meta, gruppo che riunisce Facebook, Instagram, Messenger e WhatsApp, ha porto le proprie scuse alle famiglie i cui figli sono stati vittime dei social media. Questo gesto è stato ampiamente riportato dai media e ha suscitato un’ampia discussione.
L’elemento più estremo di personalizzazione, tuttavia, sono gli assistenti digitali: Alexa, Siri, Google Assistant. Secondo la UE, ci sono circa 4,2 miliardi di assistenti in esercizio (ognuno di noi ne ha più d’uno).
Google ha annunciato che lancerà un nuovo assistente: Gemini, che abbina a Google Assistant il programma più avanzato di Ai di cui dispone. Google lo chiama Tutor personale, che dovrebbe assisterci in ogni aspetto della nostra vita.
Mark Andreesen (l’inventore del browser), nello spiegare come l’AI “salverà il mondo”, ci dice: “ogni bambino avrà un tutor di intelligenza artificiale che è infinitamente paziente, infinitamente compassionevole, infinitamente competente, infinitamente utile. Il tutor AI sarà al fianco di ogni bambino in ogni fase del suo sviluppo, aiutandolo a massimizzare il suo potenziale con la versione macchina dell’amore infinito;
ogni persona avrà un assistente/allenatore/mentore/allenatore/consulente/terapista AI che è infinitamente paziente, infinitamente compassionevole, infinitamente competente e infinitamente disponibile. L’assistente AI sarà presente in tutte le opportunità e sfide della vita, massimizzando i risultati di ogni persona”.
La stessa cosa è stata ribadita dal CEO di Google.
Assistiamo all’utopia dell’assistente che risponde ad ogni nostra domanda che diviene realtà.
Non credo alle teorie di Andreesen, anche se devo ammettere che le sue previsioni, in passato, si sono rivelate quasi sempre corrette.
Il tema è: il modello di business delle piattaforme attuali, per quanto personalizzate, è la pubblicità e la vendita. Ma quello degli assistenti personalizzati quale sarà?
Una possibile risposta è nel modello di business del “capitalismo della sorveglianza” che, applicato all’AI, rischia di intensificare l’estrazione dei dati personali e la manipolazione degli utenti attraverso relazioni sintetiche.
Capitalismo della sorveglianza è un termine coniato da Shoshana Zuboff della Harward Business School, la quale sostiene che aziende digitali come Facebook, Google e Amazon, capitalizzino l’esperienza umana convertendola in dati comportamentali. Una parte di questi dati serve a migliorare prodotti e servizi, mentre il surplus viene elaborato attraverso l’intelligenza artificiale per creare previsioni sulle future azioni delle persone. Queste previsioni alimentano un mercato dedicato ai comportamenti futuri, dove vengono scambiati prodotti “predittivi”.
Oltretutto strumenti così potenti saranno controllati da soggetti privati: il timore di una manipolazione delle scelte individuali non è peregrino, come l’ipotesi che l’azione sfugga di mano generando conflitti.
Azeem Azhar esperto globale di intelligenza artificiale e tecnologie “dirompenti”, ha chiesto ad una serie di personaggi della Silicon Valley le probabilità che l’AI uccida tutta l’umanità. Secondo Musk, il 20/30%. Secondo Dario Amodei, ex vicepresidente della ricerca in Open AI ed ora co-fondatore e amministratore delegato di Anthropic, la società dietro il modello di chatbot/linguaggio Claude, il 10/25%. Secondo Geoffrey Hinton, ecx Google, psicologo cognitivo e scienziato informatico britannico-canadese, considerato il pioniere delle ricerche sull’apprendimento profondo e le reti neurali, il 10%. Secondo Lina M. Khan, presidente della Federal Trade Commission degli Stati Uniti, il 10%. La media degli altri ricercatori sondati sul tema è del 30%.
Occorre uno spirito critico verso la tecnologia, perché il potere enorme di queste piattaforme venga regolato.
Con il Regolamento (UE) 2022/1925 “Digital Markets Act” l’Unione Europea ha tentato di limitare i comportamenti anticoncorrenziali da parte delle grandi piattaforme online, definite “gatekeeper”, società che controllano l’accesso a importanti piattaforme digitali, come motori di ricerca, social network, sistemi operativi, e mercati online, e che possono agire come veri e propri “cancelli” attraverso cui merci, servizi e informazioni devono passare per raggiungere i consumatori. Tra i divieti, quello di combinare dati personali raccolti attraverso i loro servizi con altri dati senza il consenso esplicito degli utenti e l’obbligo di consentire agli utenti di disinstallare qualsiasi software o app preinstallati.
La Commissione europea ha designato per la prima volta sei gatekeeper, ossia Alphabet, Amazon, Apple, ByteDance, Meta e Microsoft.
È un errore appaltare le nostre attività di pensiero creativo e critico alle macchine generative. Ma abbiamo l’occasione per rilanciare la conversazione su come decidiamo ciò che vale.
Il tema è non solo etico, ma anche “politico”: le 5 big tech che sviluppano i modelli di AI sviluppano congiuntamente un volume d’affari pari al quarto PIL del mondo e possono disegnare un futuro.

Diventa necessario investire in cultura

L’adozione delle tecnologie di AI non è scontata e richiede accettazione esplicita e cultura da parte delle persone. La tecnologia procede senza bisogno di convincere, dato che le innovazioni si adottano naturalmente nel tempo, ma l’AI rappresenta un’eccezione, poiché è un fatto di cultura, di costruzione/interpretazione del mondo, che può generare una potenziale resistenza o rigetto da parte della società, ovvero una sua acritica accettazione, con effetti manipolatori. Quindi, l’impegno è quello di dotarci degli strumenti adatti a capire. Le persone, inclusi gli addetti ai lavori, non conoscono a fondo l’AI, in parte proprio a causa della velocità di sviluppo tecnologico, che supera la capacità di assorbimento culturale della società. C’è bisogno di un approccio multidisciplinare per comprendere l’AI, spiegando che la cultura è il mezzo principale per elaborare e trasmettere concetti, per cui chi lavora nel settore dell’AI dovrebbe ascoltare e incorporare le percezioni culturali per migliorare sviluppo e accettazione sociale delle tecnologie.
L’AI diventa inevitabilmente parte integrante della cultura e della costruzione del mondo, per cui dovrebbe essere compresa attraverso strumenti culturali adeguati. Anzi, si dovrebbe prestare maggiore attenzione all’intersezione tra essa e la cultura, in particolare riguardo all’impatto dei prodotti e servizi AI sulla nostra vita.