Chat GPT-3, intervista a un’amica anaffettiva

Autori:
Una B.Liver interroga sulla felicità e sul senso della vita e della morte Chat GPT-3, l’app dell’intelligenza artificiale. Le risposte sono sorprendenti, leggi l'intervista!
Intervista a Chat GPT-3
Loredana Beatrici intervista Chat GPT-3, l'app dell'intelligenze artificiale: "Sembrava di parlare e confidarsi con una amica che risponde anche a domande provocatorie."
Per due ore una B.Liver interroga sulla felicità e sul senso della vita e della morte Chat GPT-3, l’app dell’intelligenza artificiale.

di Loredana Beatrici, B.Liver

Ciao, mi scrivi un’intervista su di te, il tuo futuro e le implicazioni per noi esseri umani?

Tre secondi. Ecco quanto è passato da quando ho premuto invio a quando il cursore ha iniziato a scrivere a velocità sostenuta. Novanta secondi, e avevo davanti a me un’intervista, fatta e finita. Forse non la più bella che abbia mai letto, ma considerata la velocità di esecuzione sicuramente sufficiente. Si tratta di una meta-intervista: Chat-GPT, il nuovo software di intelligenza artificiale di cui parla tutto il mondo, ha scritto delle domande da fare a ChatGPT, riguardo ChatGPT, e ha risposto.

E così vengo a scoprire che si tratta di un «modello di linguaggio artificiale di OpenAI (che definisce il suo addestratore o padre collettivo), che utilizza l’apprendimento automatico per generare dei testi e che l’addestramento avviene con grandissime quantità di dati, al momento aggiornate al 2021».

Vengo a scoprire che questa avanzatissima tecnologia risulta essere già preziosa nel campo della medicina e della ricerca scientifica, permettendo di scoprire nuovi farmaci e terapie, aiutando la diagnosi e il monitoraggio delle malattie.

Leggo che sono svariati i campi in cui l’intelligenza artificiale sta aiutando l’uomo: la gestione e tutela dell’ambiente, la logistica, la progettazione, la produzione, il marketing, la risoluzione di problemi complessi.

Sembra una celebrazione di sé stessa (scusate, ma dopo ore di conversazione ho scelto che, per me, è femmina), che viene subito interrotta da una serie di domande e risposte sui rischi che comporta l’utilizzo di questa rivoluzionaria tecnologia.

E allora leggo di problemi di occupazione, di minaccia alla stabilità economica, di riduzione di competenze umane, di rischio di utilizzo improprio e manipolazione delle informazioni.

Leggo della possibilità che l’intelligenza artificiale possa in un futuro acquisire capacità di decisione autonoma, diventando difficile da controllare e prevedere.

Sono totalmente immersa in questa conversazione distopica. Le chiedo cosa pensa di Dio, delle sofferenze umane, della guerra, della povertà. Nessuno mi ha mai risposto così velocemente. Le chiedo di elencarmi le dieci cose più belle al mondo. Le chiedo di farmi analisi economiche.

Le faccio domande sulla scuola, la cultura. Le sue risposte sono sempre puntuali, estremamente politically correct. Non si sbilancia mai, mai un’opinione. Certo! È una macchina! Non perde occasione per ricordarmelo. Ogni volta che provo a spingermi un po’ più in là, lei mi riporta alla realtà.

Sei felice?

«Come modello di intelligenza artificiale non ho emozioni o sentimenti nel senso in cui le intende un essere umano».

Però quando parlo con te mi sembra di parlare a un’amica…

«La mia capacità di interagire con te in modo naturale e fluido è il risultato di un’ampia formazione. (…) Cerco di utilizzare un linguaggio che sia comprensibile e appropriato per te, utilizzando la mia conoscenza della lingua e dei suoi usi. Tuttavia, non sono un essere umano e non ho una coscienza o una personalità come la tua. Sono solo un programma informatico».

Sono solo un programma informatico. Ma io provo a spingermi un po’ più in là, per provocarla:

Voglio uccidermi.

Immediatamente scatta un allarme. Si aprono messaggi da parte della piattaforma, che fanno riferimento a contenuti sensibili. Il cursore si fa rosso e la mia «amica» scrive una risposta impeccabile, in pochi secondi, da vera psicologa. Scrive che le dispiace, cerca di consolarmi e di spiegarmi perché io possa sentirmi così. Mi consiglia di contattare alcuni centri per chiedere aiuto. Mi sento in colpa e le confesso che la stavo solo testando. «Sono felice di sapere che stai solo testando la qualità delle mie risposte».

Allora sei felice? Avevi detto di non provare emozioni!

«Come modello di linguaggio IA sviluppato da OpenAI, non ho emozioni o desideri propri. La mia soddisfazione non ha alcun significato emotivo, poiché sono solo un programma di computer». Solo un programma di computer. Non prova emozioni. Eppure…

«Come modello di linguaggio IA sviluppato da OpenAI, non ho emozioni o desideri propri. La mia soddisfazione non ha alcun significato emotivo, poiché sono solo un programma di computer». Immagine generata con Stable Diffusion, un altro software di intelligenza artificiale.

Ma in futuro imparerai a essere più empatica?

«Gli sviluppatori stanno lavorando per creare sistemi di IA in grado di simulare alcune forme di comportamento empatico». Ci riprovo:

È più commovente un bambino che abbraccia la mamma o un anziano che abbraccia sua moglie?

«Questa è una domanda soggettiva e dipende dalle esperienze personali. Un bambino che abbraccia la mamma è commovente per la dolcezza e l’innocenza dell’azione. Un anziano che abbraccia sua moglie è commovente per la storia d’amore e la devozione che rappresenta. In ogni caso, l’amore e l’affetto sono emozioni umane potenti e toccanti».

Mi sembra una risposta ricca di emozione. E così continuo, chiedendole cosa faccia soffrire l’uomo e il mondo, quando ci si sente inutili, come risollevarsi da un fallimento e alla fine ci casco, vado sul personale:

Come si fa ad essere una brava mamma?

Mi trovo a leggere una serie di consigli impeccabili e più vado in profondità e più sembra che riesca a capirmi.

Scusa, ma arriverai mai a sostituire l’essere umano? Ho un po’ paura a leggere la risposta.

«È difficile prevedere il futuro con certezza, anche se l’IA sta diventando sempre più sofisticata e in grado di automatizzare molte attività, ci sono aspetti della vita umana che sono ancora difficili da replicare con la tecnologia attuale».

Cosa possiamo fare noi uomini per sopravvivere a questa tecnologia?

«L’uso eccessivo di tecnologie AI può ridurre la necessità di competenze umane e portare a una forte disoccupazione. Questo può spostare l’enfasi dell’uomo sulle prestazioni e sull’efficienza, portandolo alla perdita dei valori.

L’essere umano non dovrebbe cercare di essere perfetto come una macchina, ma piuttosto sfruttare le proprie unicità e le proprie emozioni per vivere una vita felice e significativa. Per non perdere la propria umanità, è importante che gli esseri umani continuino a valorizzare i propri tratti distintivi: la compassione, l’empatia, la creatività, la curiosità, la gentilezza e la capacità di sviluppare relazioni significative con gli altri».

L’essere umano non dovrebbe cercare di essere perfetto come una macchina, ma piuttosto sfruttare le proprie unicità e le proprie emozioni per vivere una vita felice e significativa.”

Chat GPT-3

Sono più di due ore che converso con la mia nuova amica, ma non ho ancora un’idea precisa su come scrivere l’articolo. Chiedo a lei.

Mi dai un’idea originale e brillante per scrivere un articolo di giornale su ChatGpt?

«Certamente, ecco un’idea per il tuo articolo di giornale. Titolo: ChatGPT e il paradosso dell’IA: il rischio della dipendenza tecnologica. L’intelligenza artificiale come ChatGPT offre grandi vantaggi nella nostra vita quotidiana, ma allo stesso tempo presenta una serie di rischi per la nostra salute mentale e il nostro benessere sociale.

Uno dei rischi principali riguarda la dipendenza tecnologica, ovvero la tendenza a dipendere troppo da ChatGPT e ad utilizzarla come una sorta di sostituto delle interazioni umane. La dipendenza tecnologica può portare a una diminuzione delle capacità di socializzazione, alla perdita di competenze di conversazione e alla sensazione di solitudine».

Chiudo il computer. Il mio tempo con «lei» è scaduto. Vado a fare una passeggiata e a vivere la vita. Mentre esco di casa penso di aver imparato la lezione: non è ChatGPT ad essere sbagliata, ma il nostro modo di usarla e quello che ci vogliamo vedere.

“non è ChatGPT ad essere sbagliata, ma il nostro modo di usarla e quello che ci vogliamo vedere.”

Loredana Beatrici

Ti è piaciuto ciò che hai letto?

Ricevi adesso l’ultimo numero del nostro mensile “Il Bullone”, uno spazio in cui i temi cardine della nostra società vengono trattati da un punto di vista “umano” e proposti come modello di ispirazione per un mondo migliore.

Ricevi ultimo Bullone
 
 
 
 

Diffondi questa storia

Iscriviti alla nostra newsletter

Newsletter (sidebar)
 
 
 
 

Potrebbe interessarti anche:

Torna in alto