Perché le macchine non domineranno mai il mondo

Questa settimana, in partnership con la Fondazione Crt, l’Istituto Bruno Leoni ha invitato, a Torino e in Italia, Barry Smith. Smith si occupa da anni di ontologia applicata: nel 2002 ha ricevuto un Premio molto importante, il Wolfgang Paul Award della fondazione Alexander von Humboldt, che gli ha consentito di creare un centro per l’ontologia applicata all’informatica biomedica. Smith, un paio di anni fa, ha scritto assieme a Jobst Landgrebe un libro sul Perché le macchine non domineranno mai il mondo. Landgrebe è una specie di uomo rinascimentale, con interessi vastissimi, che vanno dalla politica alla biomedicina, ma per alcuni anni è stato un imprenditore nel campo dell’Intelligenza artificiale. Si è presentato dal suo amico Smith con un problema: a differenza di molti osservatori e dei suoi stessi clienti, si era convinto che l’Intelligenza artificiale non potesse fare tutta una serie di cose, ma non riusciva ad articolare compiutamente il perché. Il saggio su cui hanno lavorato assieme spiega perché è improbabile (impossibile?) che vedremo mai una “Intelligenza artificiale forte”, cioè una macchina in grado di imparare a fare tutto ciò che può fare un umano. Gli argomenti di Barry Smith sono diversi e illuminanti. Li ha illustrati anche in un’intervista con il Corriere della Sera di Torino e in un articolo su Affari & Finanza. Presto metteremo on-line i video dei suoi interventi. 

Credo che quella dello scorso lunedì sia stata una delle conferenze più interessanti che abbiamo mai organizzato, e ne sono molto grato a Barry. Le sue argomentazioni ci fanno riflettere su come l’Intelligenza artificiale sia già oggi una bolla (pensate all’andamento vertiginoso delle azioni Nvidia). Non c’è nulla di sorprendente: le bolle si formano perché gli esseri umani si entusiasmano per tutto ciò che è nuovo, ogni volta profetizziamo che “il mondo non sarà mai come prima”, intravvediamo “cambiamenti radicali” e ci mettiamo dei soldi. A bolla scoppiata (pensate alle Dot-Com), quel che resta sono molte innovazioni utili, magari straordinarie, al prezzo di tante altre che sono abortite. L’Intelligenza artificiale, anche per la giustapposizione di sostantivo e aggettivo, in più mette paura. Barry Smith non è un luddista: pensa, a differenza di chi la vede come una minaccia, che l’Intelligenza artificiale “debole” o “stretta” (per intenderci quella che usiamo già) sia utilissima e possa avere un impatto assai positivo nelle nostre vite. Ma ci ricorda anche di non sopravvalutare, come in molti ottimi romanzi di fantascienza, cosa possono fare la matematica e i computer. Per intenderci, moltissime cose importanti ma non replicare il modo in cui funziona il cervello umano.

Per chi ha voglia di approfondire, consiglio, oltre ai lavori di Smith, un testo classico di Hayek, che sembra lontanissimo da questi dibattiti e invece è centrale, come La teoria dei fenomeni complessi (1964), incluso negli Studi di filosofia, politica ed economia. Un’ultima nota. Le osservazioni di Barry Smith fanno venire qualche dubbio sul sangue freddo degli investitori. Finché giocano col loro, c’interessa poco. Ma per finanziare Intelligenza artificiale e supercomputer si prende spesso e volentieri dalle tasche del contribuente. Comincia a vedersi (anche se pensiamo alle cronache e ai “rapporti” di questi giorni) a che cosa è servito il fiume di pseudo-studi degli scorsi anni sullo “Stato imprenditore”: a rimpinguare il bilancio delle imprese militari (lo Stato imprenditore, in primis, è l’esercito imprenditore) e a cercare nuove pietre filosofali, sulle quali riversare spesa pubblica senza limiti né sensi di colpa.

(*) Direttore generale dell’Istituto Bruno Leoni

Aggiornato il 23 aprile 2024 alle ore 13:26