Intelligenza artificiale e sicurezza: l’allarme di Musk

mercoledì 29 marzo 2023


Elon Musk, un gruppo di esperti di intelligenza artificiale e diversi dirigenti del settore hanno firmato una lettera dove chiedono una pausa di sei mesi nello sviluppo di sistemi più potenti di Gpt-4 di OpenAi (appena lanciato). Le motivazioni addotte sono tanto semplici quanto lapalissiane: i potenziali rischi per la società e per l’umanità.

La missiva è stata rilasciata dal non-profit Future of Life Institute e firmata da più di 1.000 persone tra cui figurano, oltre Elon Musk, il Ceo di Stability Ai Emad Mostaque, i pesi massimi dell’Ia Yoshua Bengio e Stuart Russell e i ricercatori di Alphabet proprietari di DeepMind (DeepMind è stato acquisito da Google nel 2015 e lavora per sviluppare algoritmi di apprendimento automatico per una vasta gamma di applicazioni, tra cui la ricerca sulla salute, la sicurezza informatica, la riduzione dei costi energetici, senza la necessità di istruzioni specifiche da parte dell’uomo).

Nella lettera viene chiesta a gran voce una pausa sullo sviluppo dell’intelligenza artificiale, fino a quando i protocolli di sicurezza condivisi per tali disegni siano stati sviluppati, implementati e controllati da esperti indipendenti: “I potenti sistemi di Ia dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”.

Lunedì scorso, anche l’Europol ha aderito al coro di preoccupazioni etiche e legali, avvertendo che potrebbe potenzialmente verificarsi un abuso del sistema tramite tentativi di phishing, disinformazione e criminalità informatica.

Elon Musk già un mese fa, durante un discorso al World Government Summit di Dubai, aveva dichiarato che l’intelligenza artificiale è la principale minaccia per l’umanità, ma ha anche un grandissimo potenziale: “Ha lati sia positivi che negativi. Sebbene le prospettive per l’uso dell’Ia siano enormi, rappresenta anche un enorme pericolo”. Ed ha aggiunto: “L’intelligenza artificiale è stata fuori controllo per un po’ di tempo. Semplicemente non aveva un’interfaccia utente accessibile alla maggior parte delle persone”. Secondo Musk, le persone devono regolamentare la sicurezza dell’Ia, poiché rappresenta un rischio maggiore per la società rispetto a automobili, aerei o medicine.  


di Claudia Diaconale