Automi e democrazia: l’Ai è intelligente?

Democrazia “da morire”? Può accadere, in effetti, allo stesso modo in cui una moneta falsa scaccia quella buona. Prendendo a riferimento gli anni Ottanta, anche se è vero che da allora il rapporto tra democrazie e autocrazie è nettamente migliorato, tuttavia un calcolo approssimativo della così detta regressione democratica ci porta all’indietro ai valori del 2002. Più realisticamente, però, si può dire che, se fosse un incontro di boxe, le democrazie starebbero solo perdendo un round dopo averne vinti sei in precedenza! Tuttavia, non c’è da stare tranquilli, dato che le democrazie oggi rischiano seriamente come le balene di spiaggiarsi e morire, naufragando sugli scogli appena sommersi dell’Intelligenza artificiale (Ai, nella sigla inglese). Per questo motivo, occorre con urgenza mettere ordine all’incontrollabile caos anarchico dei social, imponendo regole più severe alle piattaforme che ne consentono la diffusione dei contenuti. L’Unione europea si è già mossa con il suo Digital Service Act (Dsa) che impone ai gestori di agire con maggiore incisività contro la disinformazione. Ovviamente, a queste buone intenzioni scritte sulla carta (e, forse, sull’acqua) occorre far seguire sanzioni efficaci e mezzi idonei a far rispettare la legge. Non c’è, infatti, da attendersi un comportamento virtuoso automatico da parte delle piattaforme interessate, alle quali tuttavia non si chiede di saper distinguere il vero dal falso, ma semplicemente di discriminare e promuovere positivamente le fonti che applicano le norme etiche e professionali del giornalismo, distinguendole da quelle che, invece, non lo fanno.

In questo senso, il vero crash-test della regolamentazione internazionale sui prodotti multimediali generati dall’Ai saranno proprio le elezioni americane del prossimo 5 novembre. Con buona approssimazione, nel gennaio 2025 l’ordine mondiale attuale post-1945 potrebbe uscirne letteralmente sconvolto perché, oggi più che mai, per tutto lo svolgimento delle tornate elettorali del 2024, sono le democrazie a essere esposte al rischio di un altissimo tasso di intossicazione e manipolazione degli elettorati. La causa ben nota a tutti è dovuta alla diffusione delle fake-news tramite i social network e all’influenza generata dall’Ai attraverso decine di milioni di falsi profili, che oggi anche un bambino è in grado di simulare, manipolando immagini, video e audio ultra-realisti. E tutto ciò grazie a strumenti quali ChatGpt e OpenAi, che dominano un mondo in cui è sempre più arduo venire a capo delle manipolazioni digitali ultra-sofisticate, i così detti “deepfake”, che inquinano i contenuti mediatici. E sono proprio questi ultimi a tenere banco nei due conflitti aperti, ucraino e palestinese, essendo destinati a influenzare in profondità i processi elettorali che si terranno negli Usa e in Europa nel corso del 2024. Oggi, infatti, si è avverata (a velocità fino a poco tempo fa impensabile) quella micidiale tripletta tecnologica che coniuga realismo, efficienza e accessibilità ed è in grado di provocare forti torsioni nei processi democratici, grazie alla capacità dell’Ai di creare bot (falsi profili personali digitali) iperrealistici.

E tutto ciò provoca un terremoto nelle mega piattaforme digitali, come Meta, Google, YouTube, TikTok e X, chiamate a trovare rapidamente gli strumenti più adatti per limitare le deepfake e le connesse attività dei malintenzionati, continuando a svolgere una moderazione corretta e rimanere super-partes. Ad esempio, nel passato recente, in Bangladesh, dove si è votato il 7 gennaio, sono circolati video artefatti, visualizzati per milioni di volte, che facevano trapelare proposte altamente impopolari da parte dei candidati di opposizione. Lo scopo evidente è di instillare negli elettori più sprovveduti il veleno del dubbio, nuovo oppio digitale di massa ben più destabilizzante per le democrazie mature di quello religioso. Precedentemente, in Slovacchia, dove si è votato lo scorso settembre, è divenuto virale un falso video in cui il candidato dell’opposizione liberale, Michal Šimečka, discuteva con un giornalista su come comprare i voti e alterare il risultato elettorale, facendolo in modo che nessuno potesse accusarlo di corruzione. Il sedicente giornalista suggeriva poi a Šimečka di evitare le “B-word” (o parole ritenute offensive dal mainstream mediatico), per non allontanare gli elettori. Il falso è stato scoperto grazie a un’accurata analisi della dizione e delle pause atipiche. Ma non in tempo per impedire che il video fosse scaricato da migliaia di persone a poche ore dell’apertura delle urne, quando la propaganda elettorale era già stata interdetta, rendendo così praticamente impossibile una sua smentita ufficiale da parte del candidato interessato.

Va da sé che Šimečka è stato sconfitto dal suo rivale pro-Vladimir Putin, Robert Fico. Rimane il fatto sconcertante che i responsabili del fake non sono stati individuati e che non è stato possibile valutare quantitativamente il suo impatto reale sul voto slovacco. E questo è solo un esempio marginale di ciò che attende le piattaforme della Silicon Valley, chiamate ad arginare efficacemente questo fenomeno di massa, quando quest’anno si recheranno alle urne circa 2 miliardi di persone adulte nel mondo, inclusi Usa, Ue, India (che ha già votato) e Regno Unito. E qui sorgono ben altri problemi, in quanto le mega-piattaforme sono società quotate in borsa che risentono delle oscillazioni dei titoli high-tech e della riduzione degli investimenti (con particolare riferimento ai tagli dei moderatori), in caso di perdite dei profitti. In altri contesti, come per X, la strategia aziendale punta a una sorta di assolutismo alla “liberi tutti”, a favore dell’incondizionata libertà di espressione. Ma prima o poi si dovrà decidere se l’Ai è un mostro da tenere in gabbia, o una medicina che ci fa guarire.

Aggiornato il 30 aprile 2024 alle ore 14:55