di Andrea Granelli
Al rientro dalle ferie, prima Beppe Grillo fa un intervento celebrativo sul ruolo e le capacità progressive della Cina e lo fa in cinese; a stretto giro Matteo Salvini gli fa da controcanto e si rivolge ai francesi quasi per giustificare l’invito di Marine Le Pen a Pontida. È anche curioso notare gli scherzetti dei traduttori automatici. Il leader della lega utilizza una simpatica excusatio non petita “non è un raduno” ma poi afferma “è un raduno” – la parola francese usata due volte è “un rassemblement” – in qualche modo smentendosi… o forse ricordandosi improvvisamente e inconsciamente che la sua ospite è il presidente del Rassemblement National.
Nei fatti queste comunicazioni non hanno ingannato nessuno e hanno raggiunto un’audience più ampia. Inoltre, gli autori non hanno smentito né voluto nascondere il fatto di aver utilizzato tecnologie di AI… forse anche per continuare a dare il senso di essere al passo con i tempi, di essere anticipatori dei cambiamenti.
Il punto naturalmente non è se questi programmi potranno funzionare meglio o se è scorretto usarli in politica. La questione è più fine. Se per esempio Salvini avesse diffuso un podcast – anche legato alla sua foto per firmarne i contenuti – il messaggio subliminale sarebbe stato differente.
Non si sarebbe, cioè, impressa nella mente (distratta) di chi normalmente ascolta dai social, la naturalezza e fluidità nel parlare quella lingua. La traccia subliminale che rimane è che quella persona “sa” anche parlare in quella lingua. Questo è, io credo, il punto. Come la teoria della complessità ci insegna, piccoli comportamenti (il battito d’ali di una farfalla) possono avere grandi impatti (un uragano, per continuare l’esempio usato nel film The Butterfly Effect che richiama le teorie di René Thom). La scelta di usare questa tecnologia – nel gergo tecnico chiamata Deep Fake – mira proprio a potenziare la propria immagine. In questo senso la comunicazione è fake: non perché si nega l’uso del traduttore ma perché si suggerisce in modo naturale una nuova abilità non posseduta.
In questo solco vanno le comunicazioni elettorali – dove, come noto, aumenta molto la distanza tra l’autenticità e verità e ciò che si comunica. Tra i primi utilizzi di un traduttore automatico in questo tipo di comunicazione, si ricorda quello di Manoj Tiwar, un leader indiano che nel 2020 ha parlato in Haryanvi (un dialetto hindi che ovviamente non conosceva) per accreditarsi con quegli elettori, grazie al semplice mostrare di conoscere la loro lingua e quindi di rispettare e apprezzare la loro cultura. È stato naturalmente smascherato e la cosa ha suscitato polemiche e perplessità.
Le frontiere del Deep Fake possono essere anche molto subdole. Tra i casi più “sofisticati” vi è un filmato fatto girare in Rete a maggio 2019 dai (suppongono gli osservatori politici) supporter di Donald Trump, e relativo a un intervento di Nancy Pelosi. Il video è stato “semplicemente” rallentato di un poco. L’effetto, però, è sorprendente: l’ex Speaker della Camera statunitense sembra infatti ubriaca; le sue parole risultano impastate e incerte, quasi zoppicanti. Tecnicamente è sempre il suo discorso, nessuna parola è stata infatti cambiata. Il possibile travisamento del suo messaggio si origina dunque da una semplice variazione della velocità del video, che di per sé non è un atto manipolativo (basti pensare all’importanza della moviola nel calcio). È quindi chiara la complessità del fenomeno e la difficoltà di un suo semplice inquadramento schematico. Per questo motivo, come in altri casi riconducibili ai temi dell’intelligenza artificiale, la pura valutazione basata su utilità, comodità e costo può non metterci al riparo da usi malevoli e potenzialmente dannosi di queste tecnologie.