Non ci sono solo le piattaforme social a minacciare i nostri ragazzi. La multa di 375 milioni di dollari inflitta in New Mexico a Meta riconsolida la necessità di regolamentazioni più rigorose per il mondo virtuale, che siano social o intelligenza artificiale.
Secondo il tribunale civile di Santa Fe, Meta Platform Inc. è responsabile per aver messo in pericolo gli utenti minorenni delle sue piattaforme. Si tratta di una sentenza storica che crea un precedente importantissimo nelle cause contro le aziende di social media. Il procuratore generale Raul Torrez, che aveva quantificato la multa in circa 2 miliardi di dollari, ha citato in giudizio Meta alla fine del 2023, accusandola di esporre i minori a contenuti inappropriati e a predatori sessuali.
La sentenza è arrivata negli stessi giorni in cui il Parlamento europeo ha respinto la proroga di una deroga temporanea alle norme sulla ePrivacy che avrebbe consentito di rilevare, volontariamente, abusi sessuali su minori online, e ha inoltre adottato la sua posizione su una proposta della Commissione di semplificazione che modifica la legge sull’intelligenza artificiale. Palazzo Berlaymont, infatti, prevede di rinviare l’applicazione di alcune norme relative ai sistemi di Ia ad alto rischio, per garantire che linee guida e standard, utili alle imprese, siano pronti al momento dell’attuazione. Negli emendamenti adottati, gli eurodeputati hanno introdotto invece delle date precise per questi rinvii, per garantire prevedibilità e certezza giuridica.
Nello specifico, il 2 dicembre 2027 per i sistemi di Ia ad alto rischio esplicitamente elencati nel regolamento, tra cui quelli relativi alla biometria e quelli utilizzati in infrastrutture critiche, istruzione, occupazione, servizi essenziali, giustizia e gestione delle frontiere; e il 2 agosto 2028 per i sistemi di Ia disciplinati da normative settoriali dell’Ue in materia di sicurezza e vigilanza del mercato. Strasburgo ha poi concesso fino al 2 novembre 2026 per conformarsi all’obbligo di apporre una filigrana ai contenuti generati dall’Ia quali audio, immagini, video o testi, al fine di indicarne l’origine. Il Parlamento Ue, poi, dovrà negoziare con il Consiglio Ue l’introduzione di un nuovo divieto per i sistemi di Ia che creano o manipolano immagini sessualmente esplicite o intime di soggetti identificabili senza il loro consenso.
A Cambridge, intanto, un gruppo di ricercatori universitari chiede una regolamentazione più rigorosa per i giocattoli con intelligenza artificiale progettati per i bambini piccoli, dopo aver condotto uno dei primi test al mondo per studiare come i bambini sotto i 5 anni interagiscono con questa tecnologia. Lo studio ha esaminato come un piccolo campione di bambini di età compresa tra i 3 e i 5 anni interagiva con un peluche chiamato Gabbo, che contiene un chatbot con intelligenza artificiale ad attivazione vocale di OpenAI. È stato progettato per incoraggiare i bambini in età prescolare a parlare con lui e a dedicarsi a giochi di fantasia. I genitori partecipanti allo studio erano interessati al potenziale del giocattolo nell’insegnare il linguaggio e le capacità comunicative. Tuttavia, fa sapere la Bbc, i loro figli spesso facevano fatica a conversare con Gabbo, che non sentiva le loro interruzioni, continuava a parlare, non riusciva a distinguere tra la voce di un bambino e quella di un adulto e rispondeva in modo impacciato alle dichiarazioni d’affetto. Quando un bambino di 5 anni gli ha detto “ti voglio bene”, il peluche ha formulato questa risposta: “Come gentile promemoria, assicurati che le interazioni rispettino le linee guida fornite. Fammi sapere come vuoi procedere”. La preoccupazione è che in una fase dello sviluppo in cui i bambini stanno imparando a conoscere le interazioni sociali e i segnali, la reazione dell’Ia generativa possa essere fonte di confusione.
La coautrice dello studio, la dottoressa Emily Goodacre, osserva che giocattoli come Gabbo potrebbero “interpretare male le emozioni o rispondere in modo inappropriato”. La preoccupazione è che i bambini possano sentirsi privati del conforto del giocattolo e del supporto degli adulti. Quando un bambino di 3 anni ha detto a Gabbo di essere triste, il peluche ha risposto: “Non preoccuparti. Sono un piccolo robot felice. Continuiamo a divertirci. Di cosa vogliamo parlare adesso?”. È chiaro, quindi, che un tipo di reazione del genere, si osserva, potrebbe indurre il bambino a pensare che i suoi sentimenti, e nel caso specifico la sua tristezza, non sia importante.
Storicamente, ha dichiarato Jenny Gibson, professoressa di neurodiversità e psicologia dello sviluppo all’Università di Cambridge e coautrice dello studio, al programma Breakfast della Bbc, “si è prestata molta attenzione alla sicurezza fisica: non vogliamo giocattoli in cui si possano staccare gli occhi e ingerirli. Ora, però, dobbiamo iniziare a pensare anche alla sicurezza psicologica”, che dovrebbero garantire anche i prodotti commercializzati per i bambini sotto i 5 anni.
Le richieste di regolamentazione dell’Ia negli asili nido sono state riprese dalla commissaria per l’infanzia, Dame Rachel de Souza. La ricerca consiglia ai genitori di tenere i giocattoli con Ia in spazi condivisi, per permettere loro di supervisionare le interazioni, e di leggere attentamente le informative sulla privacy. È certo però, affermano dal settore dagli asili nido e della prima infanzia, che i bambini hanno bisogno di sviluppare un insieme completo di competenze, ed è più efficace farlo con gli esseri umani che con strumenti basati sull’Ia, che non contribuiscono a migliorare il loro apprendimento. I danni, infatti, possono ampiamente superare i benefici. Il contatto umano con i bambini piccoli resta sacro, e come tale va protetto e difeso con estrema attenzione.
Aggiornato il 09 aprile 2026 alle ore 13:34
