Clonare la voce: la nuova frontiera del cybercrime

L’allarme è stato lanciato dagli esperti dell’azienda di sicurezza Trend Micro. Parlano di ascesa del cosiddetto “rapimento virtuale”. Le nuove tecnologie, come l’Intelligenza artificiale e il machine learning, possono essere utilizzate dai criminali informatici per compiere truffe ed estorsioni. In particolare, un nuovo tipo di crimine sfrutta le potenzialità delle tecnologie più avanzate per clonare la voce delle persone. Un esempio è quanto successo ad aprile in Arizona: una donna ha ricevuta una chiamata nella quale un anonimo diceva di aver rapito la figlia. Grazie a strumenti di Intelligenza artificiale, il criminale era riuscito a replicare la voce e il pianto della bambina da far ascoltare alla madre. Per fortuna, prima del pagamento richiesto, la vittima ha potuto verificare che sua figlia fosse al sicuro e che non fosse stata rapita. La polizia ha poi identificato la telefonata come una comune truffa.

La Federal Trade Commission degli Stati Uniti ha stimato che nel 2022 le perdite derivanti da queste attività illecite hanno raggiunto i 2,6 miliardi di dollari. Lo schema evidenziato da Trend Micro è il seguente: i criminali raccolgono informazioni dai social riguardo alle vittime e ai loro cari, incluse foto e filmati. Successivamente, con strumenti tecnologici riescono a replicare la voce delle persone e a riprodurla in maniera più accurata possibile. Questo processo, definito “clonazione vocale” si attua quando la biometria vocale è utilizzata per compiere estorsioni o frodi. Gran parte del lavoro in questo schema di attacco può essere ulteriormente automatizzato con strumenti di intelligenza artificiale. Utilizzando un chatbot, un cybercriminale può fondere grandi set di dati di potenziali vittime con altri elementi come la geolocalizzazione. Secondo gli esperti, “questo può anche servire per avere a disposizione un sistema di punteggio basato sul rischio per la selezione delle vittime, rendendo il tipo di attacco ancora più redditizio e scalabile”.

Aggiornato il 05 settembre 2023 alle ore 20:36