Intelligenza artificiale – Intervista alla divulgatrice scientifica Barbara Gallavotti: “Non assomigliamo all’IA, noi siamo imprevedibili”

Autori:
Elisa dialoga con Barbara Gallavotti su Intelligenza Artificiale, consumi energetici, impatto sul lavoro, cittadinanza scientifica e futuro sostenibile, tra etica e opportunità.
Barbara Gallavotti, (Torino, 21 dicembre 1967) divulgatrice scientifica, autrice e conduttrice televisiva. È co-ideatrice, autrice e conduttrice di Quinta Dimensione, un programma di approfondimento scientifico di prima serata in onda, dal 2022, su Rai 3. Autrice di alcuni saggi come Il futuro è già qui. Cosa può fare davvero l’intelligenza artificiale per Mondadori (2024).
Barbara Gallavotti, (Torino, 21 dicembre 1967) divulgatrice scientifica, autrice e conduttrice televisiva. È co-ideatrice, autrice e conduttrice di Quinta Dimensione, un programma di approfondimento scientifico di prima serata in onda, dal 2022, su Rai 3. Autrice di alcuni saggi come Il futuro è già qui. Cosa può fare davvero l’intelligenza artificiale per Mondadori (2024).

Barbara Gallavotti: Intelligenza Artificiale, cittadinanza scientifica e futuro sostenibile

Barbara Gallavotti è divulgatrice scientifica, autrice e conduttrice televisiva italiana. È co-ideatrice, autrice e conduttrice di Quinta Dimensione, un programma di approfondimento scientifico di prima serata in onda, dal 2022, su Rai 3. Per oltre vent’anni è stata autrice di note trasmissioni televisive quali Superquark e Ulisse. I suoi racconti si focalizzano su ciò che avviene nella ricerca avanzata, in campi che vanno dalla fisica, alla medicina, all’ambiente, e sulla storia della scienza. È stata responsabile della comunicazione dell’Istituto Nazionale di Fisica Nucleare, facendo parte di vari comitati internazionali per la divulgazione della fisica delle particelle.

Nel suo ultimo libro, Il futuro è già qui (che oggi è anche un podcast) Barbara Gallavotti ripercorre la storia dei visionari che nei secoli hanno sognato di creare macchine intelligenti quanto esseri umani e messo le basi dell’IA di oggi. Ma soprattutto mette in luce le profonde differenze fra il modo di funzionare del nostro cervello e quello degli strumenti che abbiamo inventato.

Nel suo libro Il futuro è già qui, lei spiega l’origine dell’Intelligenza Artificiale partendo da tre «fiumi»: il desiderio di creare macchine che imitino i viventi; comprendere il cervello umano; costruire macchine che compiano azioni tipiche della mente. Oggi stiamo cercando di far assomigliare le macchine agli uomini, o gli uomini alle macchine?

«La premessa è che quei tre fiumi non sono solo sviluppi tecnologici, ma anche cambiamenti di attitudine degli esseri umani, che a un certo punto decidono di poter fare cose prima considerate impossibili, o appannaggio di un creatore. Questo è importante: spesso facciamo le cose quando iniziamo a pensare di poterle fare. Un esempio che racconto nel libro è quello della generazione spontanea: per molto tempo si pensava che certi invertebrati nascessero dalla carne in putrefazione, finché qualcuno provò a mettere la carne in un barattolo coperto da una retina, così che non potesse essere raggiunta dagli insetti. Da lì si capì che non nascevano spontaneamente: mancava l’idea, non la retina.

Venendo alla domanda: stiamo facendo macchine che assomigliano all’uomo, o uomini che assomigliano alle macchine? Non credo che stiamo creando macchine simili all’uomo. Le intelligenze artificiali sono programmi per computer, sono ispirati al cervello umano, ma non funzionano come il cervello umano. Un esempio tipico risiede nella forza bruta di cui l’Intelligenza Artificiale ha bisogno per funzionare, un programma per dialogare deve esaminare migliaia di miliardi di parole per imparare a dialogare, mentre un bambino, dopo qualche decina di milioni di parole, ha appreso il linguaggio.

Un cervello consuma quanto una lampadina, un modello linguistico richiede enormi quantità di energia. Non stiamo quindi costruendo macchine “simili” a noi, ma macchine che fanno cose che pensavamo non avrebbero mai potuto fare. Noi invece non assomigliamo per nulla alle macchine: restiamo imprevedibili, nel bene e nel male».

Si stima che entro il 2027 l’IA potrebbe consumare fino a 6,6 miliardi di metri cubi d’acqua e circa l’1-2% dell’energia globale. Questo avanzamento tecnologico ci sta facendo perdere di vista le necessità del pianeta?

«È un problema enorme. Le grandi compagnie sono molto riservate sui consumi reali di acqua ed elettricità dei data center, e il consumo varia in base a cosa si chiede al modello: generare una risposta breve o un’immagine dettagliata fa differenza. Molto dipende anche da dove sono situati i centri dati e di calcolo. Se, per esempio, sono nella zona nord del mondo, dove la temperatura è più bassa, hanno bisogno di meno raffreddamento. Di certo c’è un accordo per fare un grande centro dati negli Emirati Arabi, che non sembra un posto particolarmente adatto, diciamo. Si parla di ridurre la richiesta energetica, o di centrali nucleari dedicate, ma non è chiaro se e quando verranno realizzate. È un problema enorme, forse il principale limite all’espansione illimitata dell’IA, a meno di cambiare completamente il modo in cui funzionano i programmi, rendendoli più simili al cervello umano, molto più efficiente. Negli Stati Uniti c’è un forte dibattito: alcuni cittadini vedono diminuire la disponibilità d’acqua o aumentare le bollette, e questo dovrebbe avere un peso».

Elon Musk ha recentemente dichiarato: «Il lavoro sarà facoltativo tra 10 o 20 anni. C’è un solo modo per rendere tutti ricchi: l’Intelligenza Artificiale». Che cosa ne pensa?

«Ne penso tutto il male possibile. Questa tecnologia renderà molto ricchi alcuni, lo sta già facendo. D’altra parte, sta già determinando licenziamenti. Nell’ultimo episodio del mio podcast, Il futuro è già qui, parlo proprio del lavoro: si assumono meno persone giovani perché alcuni compiti di base possono essere svolti dall’IA. Ma se smettiamo di formare giovani, poi non avremo più i professionisti maturi di cui c’è bisogno: alla fine ci perdono tutti, anche le aziende. L’idea che lavoreremo meno mi convince poco. È già capitato con Internet: una volta andando in biblioteca leggevo due articoli al giorno, ora ne leggo dieci in un’ora, ma non ho più tempo libero. Quindi, in realtà, è vero che la tecnologia può ottimizzare il lavoro, ma non è assolutamente detto che questo si traduca in più tempo libero, nel bene e nel male. Non vogliamo diventare un esercito di persone che vegetano comprando i beni che ci vendono i magnati di turno».

Come vorrebbe vedere applicata l’Intelligenza Artificiale nei prossimi dieci anni? E come invece non vorrebbe?

«Più che applicazioni specifiche, parlerei di metodo. Nel 2016 AlphaGo (un software per il gioco del go sviluppato da Google DeepMind) sfidò il campione Lee Se-dol a questo complesso gioco orientale e lo sconfisse in 4 partite su 5, ma Se-dol vinse una partita usando strategie ispirate dal modo originale in cui giocava il programma. Ecco il modo giusto di usare l’IA: porle un quesito, osservare la risposta e usare la nostra intelligenza per fare un passo avanti. C’è stato un dibattito su un esperimento del MIT di Boston: quando si usa l’IA per generare testi, il cervello si attiva poco. Questo ha preoccupato molti, ma io lo trovo positivo: la tecnologia serve a toglierci dei compiti. Se mi libero della fatica, l’importante è cosa faccio con il tempo e il cervello liberati. Come non vorrei vederla usata? Come accade già ora nelle guerre. L’uso bellico dell’Intelligenza Artificiale è un problema drammatico».

Lei ha parlato spesso dell’importanza della «cittadinanza scientifica». Di cosa si tratta e che ruolo hanno le nuove generazioni?

«È un concetto sviluppato dai britannici e portato avanti in Italia da divulgatori come Pietro Greco e, indirettamente, anche Piero Angela. Significa essere capaci di prendere decisioni consapevoli su temi che riguardano scienza e tecnologia. Ogni giorno prendiamo decisioni su temi scientifici che hanno una ricaduta sulla collettività: enorme quando votiamo sul nucleare, piccola quando usiamo i nostri dispositivi, intermedia quando decidiamo come curarci. Devono essere decisioni basate sui fatti e sulla comprensione di ciò di cui si parla. Non dobbiamo decidere sempre come deciderebbe uno scienziato: possiamo avere paure, motivi etici, interessi personali. Ma le nostre decisioni devono essere sempre oneste e ragionate».

L’Intelligenza Artificiale ci toglierà la capacità di stupirci?

«Ci stupiamo molto di più fra di noi. È qualcosa di così intrinseco nell’anima umana che è difficile toglierci la capacità di stupirci. A toglierla non è la tecnologia, ma la monotonia di ciò che ci circonda: se sono in un ambiente naturale vedo tantissime cose stupefacenti che mi spingono a volerne sapere di più. Forse, invece, se mi trovo in una zona altamente urbanizzata ne vedo meno».

– Barbara Gavallotti

“Non credo che stiamo creando macchine simili all’uomo. Le intelligenze artificiali sono programmi per computer, sono ispirati al cervello umano, ma non funzionano come il cervello umano. Un esempio tipico risiede nella forza bruta di cui l’Intelligenza Artificiale ha bisogno per funzionare, un programma per dialogare deve esaminare migliaia di miliardi di parole per imparare a dialogare, mentre un bambino, dopo qualche decina di milioni di parole, ha appreso il linguaggio.”

Ti è piaciuto ciò che hai letto?

Ricevi adesso l’ultimo numero del nostro mensile Il Bullone, uno spazio in cui i temi cardine della nostra società vengono trattati da un punto di vista “umano” e proposti come modello di ispirazione per un mondo migliore.

Ricevi ultimo Bullone
 
 
 
 

Diffondi questa storia

Iscriviti alla nostra newsletter

Newsletter (sidebar)
 
 
 
 

Potrebbe interessarti anche:

Torna in alto