Il confine tra Intelligenza Artificiale ed etica

Autori:

Di Marco Giusti

«Ok Google, mi consigli un ristorante per cenare in zona?».

Una domanda apparentemente banale, che però indica una precisa azione che stiamo intraprendendo: delegare la scelta a una macchina, a un programma.

Qualora nel nostro cellulare risultino abilitate altre funzioni, quali link con i social network, avremo anche l’indicazione di affinità col nostro gusto, anzi la lista delle possibili scelte sarà indirizzata proprio dal nostro profilo e dalle nostre scelte pregresse, incrociate con persone «simili» a noi.

Alla fine, riceveremo indicazioni perfette: esattamente quello che vogliamo!

O no? 

La delega della scelta ottimale, affidata a un programma, o meglio, a un’intelligenza costruita ad hoc, è affascinante per molti, paurosa per altri.

Ma esattamente cosa implica questa scelta?

Per provare a rispondere a questa domanda, è opportuno definire dei concetti comuni. 

Il primo concetto è quello di Intelligenza Artificiale (AI), definita come la capacità di apprendimento delle macchine; da letteratura, generalmente vengono catalogati 3 tipi di intelligenza artificiale: 

  • Artificial Narrow Intelligence(ANI): sono le AI che sanno effettuare un singolo task in maniera efficiente e intelligente. Un esempio ne sono gli assistenti vocali (Alexa, Siri, etc…)
  • Artificial General Intelligence(AGI): sono le AI che hanno una capacità di autoapprendimento su scala più generale e che ragionano in maniera equiparabile agli esseri umani: un esempio può essere «AlphaGo. AlphaGo», un’intelligenza progettata per giocare a GO, un popolare gioco orientale, simile alla dama, ma con una tale quantità di possibilità di varianti nel gioco, da non poterle analizzare tutte a priori (solo nelle prime 4 mosse sono oltre 16 miliardi).
  • Artificial Super Intelligence (ASI): sono le AI che effettuano ragionamenti e hanno capacità di autoapprendimento anche su scala astratta, in maniera impossibile, o meglio, incomprensibile per gli esseri umani.

AGI e ASI sono attualmente oggetto di ricerca e non sono ancora presenti nella quotidianità, ma le intelligenze artificiali sono già parte integrante della nostra vita e nel volgere di qualche anno lo diventeranno in maniera sempre più preponderante. 

Per rendersi conto di quanto la nostra volontà di delega sia ormai insita nel nostro pensiero, ci basti pensare che per andare al ristorante che abbiamo scelto all’inizio dell’articolo, verosimilmente consulteremo il nostro cellulare per individuare il tragitto migliore.

Questo lo faremo utilizzando un’applicazione che sfrutta degli algoritmi di apprendimento per identificare la migliore strada per noi, in quel momento, considerando il movimento in tempo reale di altri utenti e le condizioni di traffico.

Il secondo concetto da mettere a fattore comune è Etica: intesa come quel ramo della filosofia che si occupa più specificamente della sfera delle azioni buone o cattive (cit. Treccani).  

Ma se il discrimine tra buono e cattivo risulta essere un aspetto fondamentale nella delega di una decisione già a livello umano, questo tema assume una complicazione maggiore nel campo dell’intelligenza artificiale. Infatti, chi prende la decisione? Chi è responsabile di una scelta e delle sue conseguenze?

Torniamo alla nostra cena: è evidente che finora abbiamo ricevuto indicazioni ma noi abbiamo effettuato la scelta sia del luogo che della strada da percorrere; ora, sulla base dei suggerimenti fornitici, ipotizziamo di metterci alla guida in direzione del ristorante.

Supponiamo che, seguendo pedissequamente le indicazioni del navigatore in maniera cieca e acritica, ispirati da un approccio fideistico nella tecnologia, imbocchiamo una via contromano: magari perché è avvenuto un cambio di viabilità temporaneo per dei lavori stradali e il navigatore non ha ancora aggiornato le mappe. Non rendendoci conto del senso unico, causiamo un incidente. 

La responsabilità è nostra che non abbiamo visto il divieto, la legge parla chiaro.

Immaginiamo ora uno scenario in un futuro, nemmeno troppo distante da noi, dove, per recarci al ristorante di cui sopra, l’auto non sia guidata da noi, ma che sia un veicolo a guida autonoma. Durante il tragitto, un pedone davanti al veicolo, mentre attraversa la strada, inciampa e cade ma non c’è il tempo fisico per frenare: l’auto cosa deve fare? Investire il pedone o tentare di evitarlo mettendo magari a repentaglio la nostra vita da passeggeri?  E nel caso qualcuno rimanga ferito, di chi è la colpa? Del produttore dell’auto? Di chi ha programmato? Del proprietario del veicolo?

L’ultimo scenario ipotizzato è chiaramente una semplificazione di una situazione estrema, ma plausibile, che tuttavia palesa una tematica per nulla scontata. Eticamente qual è la scelta giusta? Bisogna salvare la nostra vita di passeggeri o quella del pedone?

Son tutte domande a cui non siamo in grado di rispondere in maniera definitiva, ma che le istituzioni stanno affrontando, cercando di normare gli scenari. 

In particolare un documento pubblicato ad aprile di quest’anno, commissione europea, redatto da un comitato autonomo di esperti, identifica gli «orientamenti etici per una AI affidabile» (https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai) .

Nell’analisi riportata sono state identificate tre macroaree:

a) legalità, l’AI deve ottemperare a tutte le leggi e ai regolamenti applicabili;

b) eticità, l’AI deve assicurare l’adesione a principi e valori etici;

c) robustezza, dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i sistemi di AI possono causare danni non intenzionali.

L’applicazione di intelligenze artificiali è già attuale e in prova in molti settori, solo per citarne alcuni:

nelle risorse umane per individuare le persone più idonee da assumere, selezionando i candidati; nel supporto ai clienti, per interagire e risolvere i problemi dei consumatori, sostituendo gli operatori umani; nell’anticrimine per il riconoscimento della menzogna nelle dichiarazioni.

Le implicazioni sono potenti sia dal punto di vista sociale che economico.

All’interno del documento citato viene espresso un concetto che ritengo fondamentale: «la riflessione etica può aiutarci a comprendere come lo sviluppo, la distribuzione e l’utilizzo delle AI possano implicare i diritti fondamentali e i valori soggiacenti, e può contribuire a fornire un orientamento più dettagliato nel percorso di ricerca di ciò che dobbiamofare, piuttosto che ciò che (attualmente) possiamofare con la tecnologia».

Nella differenza di quei due verbi «dobbiamo» e «possiamo» è racchiusa la nostra scelta.

Ti è piaciuto ciò che hai letto?

Ricevi adesso l’ultimo numero del nostro mensile “Il Bullone”, uno spazio in cui i temi cardine della nostra società vengono trattati da un punto di vista “umano” e proposti come modello di ispirazione per un mondo migliore.

Ricevi ultimo Bullone
 
 
 
 

Diffondi questa storia

Iscriviti alla nostra newsletter

Newsletter (sidebar)
 
 
 
 

Potrebbe interessarti anche:

Torna in alto