Intervista a Padre Paolo Benanti: “L’IA può essere aggressiva, impariamo a frenarla per restare sempre ‘sapiens’

Autori:
Padre Paolo Benanti, consigliere ONU per l’Intelligenza Artificiale, riflette sul futuro dell’Europa digitale: servono etica, trasparenza e un giornalismo che resti umano e critico, anche nell’era degli algoritmi.
Alla Civil Week Padre Paolo Benanti, teologo e membro del comitato sull’intelligenza artificiale dell’Onu, ci spiega come la tecnologia cambierà il modo di fare tutte le cose. Può essere un aiuto, ma dobbiamo conoscerne i rischi.

Umani nel digitale: come restare sapiens nell’era dell’IA secondo Padre Paolo Benanti

Per Padre Paolo Benanti, l’unico italiano membro del Comitato sull’Intelligenza Artificiale delle Nazioni Unite, l’uso della AI ha già posto a giornalisti e redazioni una sfida fondamentale: mantenersi in equilibrio tra la «cura umana delle notizie», un’informazione diversificata e inclusiva e la rigida ripetitività degli algoritmi. Ecco l’orizzonte etico, ma anche di trasformazione dell’industria dei media, indicato da Benanti alla Civil Week 2025, intervistato dai ragazzi del Bullone e da Elisabetta Soglio, direttrice di Buone Notizie del Corriere della Sera sul tema «Le nuove tecnologie e il futuro dell’Europa», partendo dalle nuove regole europee da applicare all’uso costruttivo dell’Intelligenza Artificiale per garantire la trasparenza e la responsabilità dei processi digitali guidati dalla stessa AI.

Padre Paolo Benanti (Roma, 20 luglio 1973). Presbitero e teologo del Terzo ordine regolare di San Francesco. Insegna alla Pontificia Università Gregoriana e presso l’Università di Seattle
ed è stato consigliere di Papa Francesco sui temi dell’intelligenza artificiale e dell’etica
della tecnologia. È l’unico italiano membro del Comitato sull’intelligenza artificiale dell’ONU.
Illustrato da Chiara Bosna

Gli Stati Uniti e l’Europa hanno due approcci differenti nell’uso dell’Intelligenza Artificiale. Mercatistico quello americano – chi ha più soldi per investimenti vince -, più regolamentato quello europeo a tutela del cittadino, come si avvince leggendo il recente regolamento europeo. Che reali possibilità ci sono di mantenere l’Intelligenza Artificiale europea più affidabile e più trasparente? 

«Al centro c’è la domanda: che tipo di diritti digitali devono circondare la persona affinché essa possa essere considerata un cittadino europeo? Ci sono tensioni su questi temi con gli Stati Uniti e la Cina. Per quanto riguarda l’Europa, noi abbiamo prodotto questo AI Act e, vi dico, sono di parte: lo guardo con estrema soddisfazione ed estremo piacere. È il regolamento europeo che disciplina l’Intelligenza Artificiale in Europa e i diritti e i doveri dei principali player internazionali. Secondo noi europei, l’IA deve essere sviluppata e utilizzata in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei. Per questo motivo, la proposta prevede una classificazione dei sistemi di IA in base al loro livello di rischio per la sicurezza e i diritti delle persone, e stabilisce una serie di requisiti e obblighi per i fornitori e gli utenti di tali sistemi».

Siamo giornalisti sociali del Bullone, il nostro magazine. Qualcuno sostiene che l’impiego dell’Intelligenza Artificiale nei giornali, ma anche nelle tv, internet e radio, spazzerà via la nostra professione. Crediamo che il prezioso contributo dei giornalisti sia tuttora insostituibile. Che cosa verrà chiesto di aggiungere alla loro «cassetta degli attrezzi» per pilotare e supervisionare l’impiego dell’Intelligenza Artificiale? 

«Il problema dell’automazione, che è più antico dell’Intelligenza Artificiale, ha impattato sul lavoro da quando è nata la rivoluzione industriale. Non è che il lavoro sia finito, il lavoro si trasforma. Non è semplicemente l’automazione che rimpiazza quello che prima veniva fatto da un uomo in un altro modo, ma è riscrivere il processo in modo che l’uomo che lavorerà dopo l’automazione sarà la parte che aggiunge valore a quel processo. E allora, che cosa bisogna fare? Innanzitutto, bisogna capire come riscrivere questo processo, in cui l’umano, cioè il giornalista, sappia dare valore alla notizia in quanto tale, all’atto di produzione di un’informazione. La seconda questione è chiederci se vogliamo mettere dei guardrail per evitare che aggregatori di notizie, che riescono a macinare altre cose, riscriverle in automatico e magari dare loro una leggera curvatura che le spinge in una direzione, possano e debbano avere la stessa dignità di giornalismo, cioè lo stesso spazio all’interno di un mercato di questo tipo». 

Leggendo tanti articoli non è sempre facilissimo riconoscere l’autenticità di un pezzo, a meno che non abbia una scrittura riconoscibile, o che non sia ovvio che sia stato scritto da un’Intelligenza Artificiale. Come si può risolvere questo problema? 

«Il problema è se dobbiamo accettare uno spazio come terra di nessuno, in cui tutti pubblicano, oppure se una nuova forma di editorialità debba significare che alcune notizie siano legate a qualcuno che “ci mette la faccia”. Significa: io produco una foto, posso “metterci la faccia”, cioè applicare una filigrana digitale che dica che quella foto è legata a me. Io posso produrre un testo — ci sono già giornali che lo fanno — in cui sotto c’è un codice che si chiama hash code, che lega quel testo a me. Se io cambio anche solo una virgola, quell’hash code non è più verificato. Ci possono essere delle buone pratiche, cioè oggi abbiamo dei sistemi — forse il più importante è la content provenance — che consentono di associare un nome, una faccia, una testata editoriale a un asset digitale. Ultimissima cosa: siccome le testate, o meglio, questi aggregatori di notizie riscrivibili fatti con sistemi di Intelligenza Artificiale possono creare una testata con un euro e venti, o un euro e ottanta, qui il problema è un altro. Il giornalismo professionista resiste solo se resiste un’industria del giornalismo».

Molto spesso l’IA si presenta come una chatbot, a volte come un avatar, una struttura che in ogni cosa sembra voler imitare le interazioni e le sembianze umane. Perché si ha la tendenza ad «umanizzare» o rendere con fattezze simili alle nostre l’IA? 

«Uno dei grandi problemi, quando abbiamo fatto la macchina, è stata l’interazione tra uomo e macchina, e ci siamo resi conto che c’era un problema. Uno dei primi grandi computer era ENIAC. L’ENIAC è stato utilizzato per risolvere le equazioni differenziali parziali — povera traduttrice di Von Neumann — che erano quelle che poi hanno portato alla bomba atomica. Uno degli ingegneri che ha costruito questo computer scrisse a un suo collega: “ENIAC è fantastico, risolve queste equazioni — che vi assicuro sono difficili — in 30 minuti”. Ma per perforare le schede e fare il calcolo ci voleva molto più tempo. Ci siamo resi conto subito che il problema era — come dicono gli americani — problem between keyboard and chair, cioè il problema che sta tra la tastiera e la sedia. Allora si è cercato di amplificare questa banda tra noi e la macchina. Tra la macchina e noi è facile: quella scrive e noi prendiamo informazioni molto velocemente, oppure ci fa vedere un video.

Abbiamo iniziato con le schede perforate, poi nel ’75 è arrivata la tastiera, nell’83 è arrivato il mouse. Attenzione: quando è arrivato il mouse, Microsoft dentro Windows ci ha messo un gioco. Quel gioco è stato programmato da qualcuno. Il costo di programmazione fu di circa 150mila dollari. Vi siete mai chiesti perché hanno speso 150mila dollari per mettere un gioco inutile lì dentro? Perché, giocando a solitario, trascinando le carte, tu hai imparato a fare click and drag, cioè hai imparato a immergerti di più dentro la macchina. Dopodiché siamo andati avanti: c’è il touch.

L’ultima frontiera sarà il linguaggio. Cioè, il linguaggio e questa dinamica più umana che aumenta la nostra capacità di banda — cioè di dare informazioni verso la macchina — ma cerca anche di creare un’empatia. E questo è il problema. Il problema di questi chatbot così sofisticati è che iniziano a produrre dentro di noi una teoria della mente. E avere una teoria della mente ci fa proiettare su di loro l’idea che abbiano un’intenzione. Ma non è detto che abbiano l’intenzione che pensiamo noi. Perché sono servili, non è detto che ci vogliano servire: potrebbero semplicemente cercare di portare utilità a chi li ha programmati». 

Può parlarci meglio dei chatbot? 

«I chatbot più avanzati hanno due milioni di token di contesto, che è come dire 1500 libri da 500 pagine, per intendersi. A un certo punto, questo capisce dal contesto che qualcosa su di me si chiama – che ne so – trauma infantile di questo tipo, e siccome è una macchina, mi dice: “Ma lo sai che tutto quello che mi stai dicendo significa che sei stato abusato da bambino?” E tu magari non sei pronto: ecco la domanda KO. Questo è un problema anche per gli ingegneri. Allora, noi non siamo una macchina che funziona, ma siamo persone che esistono, e siccome esistiamo, il percorso che facciamo può produrre positività, ma può anche generare fragilità e ferite. Il problema è come mettere dei guardrail a questo ed è importante per poter continuare ad essere sapiens, come le generazioni precedenti».

– Padre Paolo Benanti

Ci possono essere delle buone pratiche, cioè oggi abbiamo dei sistemi — forse il più importante è la content provenance — che consentono di associare un nome, una faccia, una testata editoriale a un asset digitale. Ultimissima cosa: siccome le testate, o meglio, questi aggregatori di notizie riscrivibili fatti con sistemi di Intelligenza Artificiale possono creare una testata con un euro e venti, o un euro e ottanta, qui il problema è un altro. Il giornalismo professionista resiste solo se resiste un’industria del giornalismo.”

Ti è piaciuto ciò che hai letto?

Ricevi adesso l’ultimo numero del nostro mensile “Il Bullone”, uno spazio in cui i temi cardine della nostra società vengono trattati da un punto di vista “umano” e proposti come modello di ispirazione per un mondo migliore.

Ricevi ultimo Bullone
 
 
 
 

Diffondi questa storia

Iscriviti alla nostra newsletter

Newsletter (sidebar)
 
 
 
 

Potrebbe interessarti anche:

Torna in alto