intelligenza artificiale

stralci di uno scritto del professor Theodore Kim, associato di informatica all’Università di Yale

Una delle affermazioni più audaci e senza fiato che vengono fatte sugli strumenti di intelligenza artificiale è che essi hanno “proprietà emergenti” – abilità impressionanti acquisite da questi programmi che si suppone non siano mai stati addestrati a possedere. “60 Minutes”, ad esempio, ha riportato con credulità che un programma di Google ha imparato da solo a parlare il bengalese, mentre il New York Times ha definito in modo fuorviante il “comportamento emergente” nell’IA come l’acquisizione da parte dei modelli linguistici di “abilità inaspettate o non volute“, come la scrittura di codice informatico.

Questa appropriazione indebita del termine “emergente” da parte di ricercatori e sostenitori dell’IA utilizza un linguaggio da biologia e fisica per implicare che questi programmi stanno scoprendo nuovi principi scientifici adiacenti a domande fondamentali sulla coscienza – che le IA stanno mostrando segni di vita. Tuttavia, come ha sottolineato l’esperta di linguistica computazionale Emily Bender, è almeno dagli anni Sessanta che diamo troppo credito alle IA. Un nuovo studio condotto da ricercatori di Stanford suggerisce che le “scintille” di intelligenza nei sistemi presumibilmente “emergenti” sono in realtà dei miraggi.

Semmai, queste affermazioni inverosimili sembrano una manovra di marketing, in contrasto con la definizione di “emergenza” utilizzata da decenni in ambito scientifico. Il termine cattura uno dei fenomeni più entusiasmanti della natura: comportamenti complessi e imprevedibili che emergono da semplici leggi naturali. Lontano da questa definizione classica, le IA attuali mostrano comportamenti più propriamente caratterizzati come “salsiccia di conoscenza“: risultati complessi e vagamente accettabili per un computer che nascono prevedibilmente da input ancora più complessi e su scala industriale.

Il processo di addestramento dei modelli linguistici utilizzato per l’IA prende enormi quantità di dati raccolti indiscriminatamente da Internet, li spinge ripetutamente attraverso reti neurali artificiali, alcune contenenti 175 miliardi di parametri individuali, e regola le impostazioni delle reti per adattarle meglio ai dati. Il processo comporta quella che l’amministratore delegato di OpenAI ha definito una quantità di calcoli “da capogiro“. Alla fine, questa immensa impresa non porta a un’inspiegabile scintilla di coscienza, ma a una poltiglia compressa di informazioni. È la produzione industriale di una salsiccia di conoscenza, che mette insieme così tanti dati che la sua capacità di sputare un milione di risultati possibili diventa relativamente quotidiana.

Affermare che i risultati complessi derivanti da input ancora più complessi sono un “comportamento emergente” è come trovare un dito mozzato in un hot dog e sostenere che la fabbrica di hot dog ha imparato a creare dita. I moderni chatbot AI non sono artefatti magici senza precedenti nella storia umana. Non producono qualcosa dal nulla. Non rivelano intuizioni sulle leggi che governano la coscienza umana e il nostro universo fisico. Sono salsicce di conoscenza su scala industriale.