Il futuro inimmaginabile in arrivo

Le interfacce cervello-computer permetteranno a un tetraplegico di usare i propri pensieri come un telecomando atto a muovere gli arti bionici. Si tratta della stessa tecnologia che permetterà a chiunque di usare i propri pensieri come un telecomando, per spostare le cose. La nostra automobile – o qualunque altra cosa si userà per il trasporto nel prossimo futuro – si fermerà a casa e la nostra mente aprirà la portiera della macchina. Allo stesso modo apriremo la porta d’ingresso – tutte le porte saranno costruite con sensori per ricevere i comandi della corteccia motoria–. Quando vorremo il caffè, la caffettiera, azionata dal nostro pensiero, lo farà per noi. Avvicinandoci al frigorifero, la porta si aprirà e, dopo avere preso ciò che ci serve, si chiuderà mentre ce ne andremo. Quando sarà ora di andare a dormire, decideremo di volere abbassare il riscaldamento o di spegnere le luci, e quei sistemi sentiranno che stiamo prendendo quella decisione e si adatteranno da soli. Nessuna di queste cose richiederà sforzo. Sarà naturale perché diventeremo tutti molto bravi e ci sembrerà automatico e normale farlo muovendo gli occhi allo stesso modo di come lo è oggi, in questo momento, leggere questa frase. Le persone suoneranno il pianoforte con il pensiero. E costruiremo le case, guideremo i veicoli, allo stesso modo. Oggi i neuroscienziati sanno che, di fronte all’imprevisto, il nostro cervello inizia a reagire molto prima che la nostra coscienza sappia bene cosa stia succedendo. Ad esempio prima che le nostre mani si muovano per schivare qualcosa sulla strada.

Quando sarà il nostro cervello a guidare la macchina, eviteremo l’ostacolo prima ancora di realizzare cosa sia successo. Le parole che usiamo attualmente sono approssimazioni compresse di pensieri non compressi. Quando guardiamo un film, la nostra testa brulica di pensieri, ma non c’è, mentre pensiamo, un dialogo compresso di parole pronunciate nella nostra testa. Pensiamo e basta. Le conversazioni di pensiero avverranno esattamente alla stessa maniera. La conversazione sarà una interazione concettuale, cosa che oggi è molto difficile da capire, financo da immaginare. È cioè difficile capire come sarà pensare insieme a qualcun’altro. Innanzitutto perché non siamo mai stati in grado di provare. Poi perché oggi comunichiamo con noi stessi attraverso il pensiero, ma con tutti gli altri attraverso rappresentazioni simboliche del pensiero – cioè con il linguaggio e le parole – e questo è tutto ciò che riusciamo ad immaginare. Per pensare insieme, non avremo ovviamente nessun bisogno di essere nello stesso luogo. La comunicazione di pensiero – ad esempio di un gruppo – potrà esplicarsi con persone fisicamente situate in Paesi diversi, senza dispositivi visivi, cioè senza vedersi fisicamente o con altri mezzi digitali. Si pensi anche all’enorme impatto che lo scambio di pensieri di gruppo sortirà sulla evoluzione dell’innovazione: scienziati e ingegneri potranno lavorare insieme in modo naturale. Ciò avrà un effetto rivoluzionario, nello stesso modo in cui oggi email, blog e Twitter stanno cambiando ed hanno già cambiato il dibattito pubblico mondiale. Se si sospetta che tutti potranno sapere cosa stiamo pensando, no, non è così, perché le persone, gli altri, non saranno in grado di leggere i nostri pensieri, né noi i loro, se non lo vorremo. È come oggi: se non vogliamo, la nostra bocca, non parla.

Lo stesso avverrà per il nostro pensiero. Potremo anche pensare insieme con un computer, utilizzandolo come un nostro collaboratore, dell’immaginazione. Potremo immaginare qualcosa, e il computer potrà meglio anticipare ed analizzarlo. Va sotto il nome di “comunicazione multimediale” questa comunicazione del pensiero. Per intenderci, si immagini quanto sarebbe più facile descrivere un sogno che abbiamo fatto o un brano musicale che abbiamo bloccato nella nostra testa o un ricordo a cui stiamo pensando se potessimo semplicemente trasmettere la cosa nella testa di qualcuno, come oggi li mostriamo sullo schermo del computer. O quanto più velocemente un team di ingegneri, architetti o stilisti potrà progettare un nuovo ponte o un nuovo edificio o un nuovo vestito se potranno trasmettere la visione che è nella loro testa, e altri potessero adattarla con le loro menti invece di disegnare ed abbozzare le cose, che non solo richiede molto più tempo, ma è inevitabilmente “a detrazione” ed impreciso. Quante sinfonie avrebbe potuto scrivere Wolfgang Amadeus Mozart se avesse potuto pensare la musica che era nella sua testa sulla pagina? Le emozioni sono l’esempio per eccellenza del fatto che le parole sono scarsamente attrezzate a descrivere con precisione. Dire: “Sono triste” significa mille cose diverse.

Con le interfacce computer-cervello impareremo non solo ad avere chiaro che le emozioni di ciascuno sono uniche ad ogni persona tanto quanto il loro aspetto o ad esempio, il loro senso dell’umorismo, ma anche che, quando una persona comunicherà ciò che sente, l’altra persona sarà in grado di accedere alla sensazione di quella stessa sensazione nei propri centri emotivi. Evidenti le implicazioni per futuro dell’intera umanità grazie alla accresciuta e totale empatia. Un film proietterà al pubblico – direttamente nel suo sistema limbico – le sensazioni che vuole che il pubblico provi mentre lo si guarda. In parte è già ciò che fa la colonna sonora del film, ma adesso potrà essere fatto direttamente. In questo momento, gli unici due “microfoni” che possono fungere da ingressi per l’altoparlante nelle nostre teste – la nostra corteccia uditiva – sono le nostre due orecchie. Le uniche due “telecamere” che possono essere collegate al “proiettore” nella nostra testa – la nostra corteccia visiva – sono i nostri due occhi. L’unica superficie sensoriale che possiamo sentire è la nostra pelle. L’unica cosa che ci fa provare il gusto è la nostra lingua. Ma nello stesso modo in cui già adesso possiamo collegare un impianto, ad esempio alla coclea di una persona, che collega un “microfono” diverso alla corteccia uditiva, via via saremo in grado di fare sì che le informazioni degli input sensoriali fluiscano nel nostro cervello in modalità wireless, da ovunque ed incanalate direttamente nelle nostre cortecce sensoriali, come fanno oggi già i nostri organi sensoriali corporei.

In futuro gli organi sensoriali saranno solo un insieme di input dentro i nostri sensi. Oggi l’unico “altoparlante” da cui possono risuonare i nostri input auricolari è la nostra corteccia uditiva. Solo noi possiamo vedere cosa catturano le nostre “telecamere” e noi possiamo sentire ciò che tocca la nostra pelle, perché solo noi abbiamo accesso a quelle particolari cortecce a cui sono collegati quegli ingressi. Con una interfaccia cervello–computer sarà facilissimo per il nostro cervello trasmettere quei segnali di input dalla nostra testa. Quindi avremo capacità di input sensoriale e capacità di output sensoriale, ed entrambi allo stesso tempo se lo vorremo. Pensate e provate ad immaginare le infinite e sorprendenti possibilità che si dischiudono davanti a noi tutti. Facciamo un esempio. Si sta facendo una bellissima escursione e la si vuole mostrare a nostro marito, ad esempio la vista dello splendido posto in cui ci si trova. Non dovremo fare altro che pensare a lui per richiedere la sua connessione cerebrale con noi. Quando accetterà, tuo marito collegherà il feed della retina alla sua corteccia visiva e la sua vista-visuale sarà piena di ciò che in quel momento vedono i tuoi occhi, come se lui fosse lì con noi. Potrà chiedere agli altri sensi di ottenere il quadro completo, collegherà anche quelli e potrà sentire la cascata in lontananza, la brezza, potrà odorare il profumo degli alberi e saltare sui piedi quando un insetto punzecchierà un nostro braccio.

Potremo condividere l’equivalente di un racconto tra noi, una storia condivisa in un tempo massimo di non più di una decina di secondi, forse meno. Se a un certo momento vostro marito dovrà tornare a ciò su cui stava lavorando, interromperà le connessioni sensoriali ad eccezione della vista-visuale, che ridurrà a una piccola finestra/film sul lato del suo campo visivo in modo da potere vedere la nostra escursione di tanto in tanto e quando vorrà. Un altro esempio. Un chirurgo potrà controllare un bisturi meccanico con la corteccia motoria, invece di tenerne uno in mano. Un chirurgo inesperto che esegue un’operazione difficile potrà portare un paio dei suoi insegnanti medici mentre opera perché lo osservino lavorare attraverso i suoi occhi e lo istruiscano e consiglino. Se qualcosa andrà storto, uno di loro potrà “prendere la guida” e collegare la corteccia motoria per prendere il controllo delle sue mani. La capacità di registrare input sensoriali significa che potremo anche registrare i nostri ricordi o condividerli, posto che un ricordo è solo una riproduzione poco definita ed accurata di input sensoriali precedenti. Oppure potremo riprodurli come esperienze dal vivo. Il futuro si prospetta inimmaginabile. È importante comprendere che l’evoluzione della tecnologia non sta facendo altro che migliorare di gran lunga la vita di noi tutti.

Aggiornato il 30 settembre 2020 alle ore 12:54