Se vota il “Bot”: l’Ai ci manipola?

A oggi, tra l’Ai (Artificial intelligence) e l’uomo, chi comanda? Sembra una questione surreale e, invece, non lo è. Perché la verità è che oggi nessuno sa come mettere correttamente sui binari giusti la comunicazione all’interno dei social media, dove gli attori sono miliardi e i contenuti (testi, video, immagini, file multimediali) che essi producono in un anno sono molte migliaia a testa. In questo oceano gigantesco e incontrollabile di Big data chi può provvedere alla profilazione degli utenti se non “Sua maestà l’Algoritmo”? Ma che cosa accade con l’Intelligenza artificiale generativa che, una volta evolutasi oltre una certa soglia limite di complessità, crea e autocorregge i propri algoritmi a velocità così elevate che nessun controllo umano è in grado di penetrare? Ma c’è di più: che cosa accade se questa sempre più sofisticata Ai diviene di impiego “banale”, nel senso che anche un giovanissimo Pierino digitale può disporne per creare contenuti talmente ben artefatti da risultare indistinguibili da quelli autentici? E sia ben chiaro: già da oggi i piccolissimi nativi digitali ne sanno ben più dei loro nonni e dei propri genitori! Ciò significa che, tra dieci anni, quelle piattaforme che metteranno a disposizione dei prodotti di ChatGpt e di OpenAi molto più evoluti di quelli odierni non avranno, anche volendo, alcun modo di venire a capo delle deep-fake news. Anche perché in una democrazia il controllo poliziesco dei contenuti (la Cina se ne disinteressa, dato il livello molto alto della censura sui media da parte dello Stato) si rivela problematico, per l’esecuzione sempre più politicizzata dei fact-checking, ovvero dell’insieme degli strumenti e metodi che permettono di raggiungere una certezza ragionevole sulla veridicità di un determinato evento comunicativo.

Per tenersi fuori dalle polemiche della destra repubblicana Usa, che accusa il Governo di colludere con gli accademici per censurare il punto di vista dei conservatori, università, agenzie governative e piattaforme rinunciano ad adottare iniziative che potrebbero inficiare l’integrità e il buon andamento dei processi elettorali. Tanto è vero che i dirigenti di Meta hanno avuto da ridire sul fatto che l’Amministrazione Usa non abbia più condiviso i suoi contenuti governativi sulla piattaforma, malgrado la compagnia avesse ottenuto in precedenza ottimi risultati nell’identificare, a beneficio del Governo stesso, sofisticati e destabilizzanti agenti di influenza. Pertanto, dalla combinazione perversa di deep-fake sempre più sofisticati prodotti dall’Ai, e dall’allentamento contestuale delle misure di prevenzione, potrebbe scaturire il Cigno Nero di un fake non individuabile, in grado di avere un impatto catastrofico sul processo democratico, la cui vittima illustre potrebbe essere la democrazia stessa. Per capire la portata del problema relativo all’Ai generativa, è bene sapere che esistono nel mondo delle start-up di video-generator, come la HeyGen di Los Angeles e la Synthesia londinese, specializzate nei settori della cinematografia e della pubblicità, che consentono ai loro clienti, per un canone inferiore ai 20 dollari al mese, di creare videoclip generati da Ai avatar. Ora, qualora questo tipo di disinformazione divenisse un fenomeno di massa potrebbe spingere l’elettore medio a non avere alcuna fiducia nei personaggi della politica, identificandoli senza distinzione come “mentitori”.

Questo perché anche aziende come TikTok e Meta, che hanno fatto imponenti investimenti per il potenziamento degli strumenti anti-deep fake, denunciano crescenti difficoltà a garantire la rimozione di materiale mediatico manipolato, dannoso per persone private e pubbliche. Tanto più che la reazione in difesa deve essere veloce e attuata in tempo reale, poiché i loro autori fraudolenti possono trarre enorme vantaggio dal periodo di vacatio, che intercorre tra la pubblicazione del fake e la sua rimozione da parte del gestore della piattaforma. Alcune aziende della Silicon Valley, come Meta e Google, stanno studiando strategie a monte anche per i contenuti generati dai loro strumenti di Ai, in cui si fa ricorso alla filigranatura digitale invisibile, per assegnare un marchio di autenticità alle immagini prima che vengano pubblicate. In generale, il modo migliore per combattere la disinformazione è quella di diffondere il più possibile l’informazione autenticata. Ultimamente, gli autori dei fake stanno privilegiando nelle loro attività fraudolente le piattaforme di Telegram e X, che hanno regole di policy meno stringenti delle loro concorrenti, anche se i loro responsabili hanno assicurato un ampio ricorso al partenariato con le agenzie di fact-cecking per assegnare label di affidabilità ai contenuti mediatici in corso di pubblicazione, in modo da prevenire l’informazione ingannevole e deviante. Ma anche qui: si tratta di una gara senza fine a rincorrersi tra guardie e ladri e ciascuno apprende dagli errori dell’altro. L’unica via di salvezza, a quanto pare, è affidarsi di nuovo all’informazione della carta stampata e dei grandi quotidiani, che rispondono in proprio dei contenuti da loro stessi pubblicati.

Aggiornato il 30 gennaio 2024 alle ore 11:37