L’Etica come guida per l’Intelligenza Artificiale: un binomio necessario


Ci troviamo in una realtà in cui l’intelligenza artificiale pervade ogni aspetto della nostra vita: dai motori di ricerca che rispondono ad ogni domanda, passando per i social che ci consentono di rimanere in contatto con i nostri cari, fino ad arrivare ai nuovi assistenti vocali, come Alexa, Google Home e Siri, che ormai ci supportano nello svolgere le faccende domestiche quotidiane.

È un’espressione che, nel sistema economico sociale odierno, gode di una grande fama: ma che cos’è l’intelligenza artificiale?

Questa viene definita come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. Permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico” 1.

Si tratta infatti di un meccanismo in cui vengono ceduti dei dati ad una macchina, la quale a sua volta li processa, fornendo in seguito un output all’utente che l’ha interpellata.

È un ottimo modo per andare a rispondere alle esigenze degli utenti in maniera personalizzata: consente di generare una conoscenza approfondita dello user attraverso un sistema di machine learning che, in base all’apprendimento ottenuto dall’elaborazione dei dati (training set) e gli input forniti tramite l’interazione diretta dell’utente in questione, fornirà delle informazioni in grado di rispondere alle specifiche necessità.

Spesso, però, l’algoritmo che sta alla base dell’intelligenza artificiale è custodito all’interno di una black box’ alla quale risulta impossibile accedere. Data la moltitudine di dati elaborati, è difficile individuare con chiarezza che tipo di informazioni vengano utilizzate e come effettivamente il meccanismo sia giunto al risultato finale.

Ecco perché un tema che deve rientrare nelle priorità di chi desidera implementare l’intelligenza artificiale è l’Etica: l’agire degli AI Systems potrebbe andare a ledere la reputazione delle persone, manifestare dei bias 2 (specialmente se l’algoritmo è stato addestrato su biased datasets) e porre l’individuo in una situazione di imbarazzo o malcontento.

Durante la progettazione di sistemi che prevedono l’utilizzo dell’intelligenza artificiale, è importante che l’etica venga presa in considerazione fin da subito, per far sì che l’utente sia in grado di comprenderne il funzionamento e si senta al sicuro. Bisogna quindi fare in modo che i processi di elaborazione risultino trasparenti, con l’intento di andare a creare un rapporto di fiducia tra macchina e uomo. In questo modo, l’individuo sarà incentivato a sentirsi protetto, specialmente nel momento in cui, per funzionare, il meccanismo richiederà necessariamente alcuni dati personali.

La sempre più emergente importanza dell’Etica in questo ambito è dimostrata dal fatto che l’Unione Europea abbia definito “un codice etico per la Trustworthy AI” 3(2019), fornendo una serie di aspetti tecnici e teorici che possono essere riassunti nei sette requisiti 4 per una Intelligenza Artificiale Etica:

  1. Supervisione umana: volta a considerare il principio di Rispetto dell’autonomia Umana, secondo cui è improntate che il sistema intelligente sia costantemente sorvegliato da personale umano, in modo tale che quest’ultimo possa intervenire per garantire l’osservanza dei diritti fondamentali e il benessere dell’utente.
  2. Robustezza e sicurezza: con l’intento di assicurare una prevenzione degli ipotetici danni che potrebbero verificarsi durante l’esecuzione del sistema intelligente. Questo deve ottemperare le istruzioni date da chi lo ha programmato, così da assumere un comportamento attendibile rispetto a quanto era stato previsto.
  3. Privacy e data governance: è importante prevedere una governance in grado di garantire l’integrità e la riservatezza dei dati che vengono elaborati dall’AI e regolarne la disponibilità.
  4. Trasparenza: rendendo dati, processi e algoritmi che determinano la decisione finale del sistema tracciabili. Le scelte del sistema devono essere comprensibili ed eventualmente si dovrà essere in grado di fornire spiegazioni esplicite nel momento in cui queste verranno richieste. Inoltre, si dovrà consapevolizzare lo user del fatto che stia interagendo con un sistema di intelligenza artificiale e non con un essere umano, in modo tale da comprenderne i limiti.
  5. Diversità e non discriminazione: vi è la necessità di porre un’attenzione al tema dell’accessibilità del sistema, tenendo sempre a mente le differenti abilità umane e garantire quindi un libero utilizzo da parte di tutte le tipologie di utenti.
  6. Benessere sociale e ambientale: far sì che l’impatto del sistema sia sostenibile (sia a livello sociale, sia a livello ambientale), prevedendo una collaborazione uomo-macchina per ottenere il raggiungimento degli obiettivi prestabiliti.
  7. Responsabilità: mettere in atto dei meccanismi di accountability, offrendo la possibilità di valutare il comportamento dell’intelligenza artificiale. Si dovrà ridurre al minimo i rischi ed eventualmente identificare un responsabile nel caso in cui questi dovessero verificarsi, garantendo la possibilità di ricorso. Infine, sarà fondamentale sviluppare la capacità di giungere ad una serie di compromessi per ridurre le tensioni in fase di programmazione.

In aggiunta, solo tenendo sempre a mente fin dal principio della progettazione la tipologia di target a cui il sistema intelligente sarà dedicato, si potrà ottenere il supporto sperato nelle sue dimensioni più appropriate.

A questo punto, è evidente il motivo per cui il tema dell’Etica abbia acquistato sempre maggior importanza durante il corso del tempo, poiché, solo rendendo l’intelligenza artificiale ‘giusta’ e socialmente sostenibile, questa potrà essere benefica per l’essere umano. La consapevolezza del suo funzionamento e l’attuazione delle linee teoriche e tecniche appena descritte permetteranno una sana cooperazione tra AI Systems ed esseri umani, volta a migliorare la qualità della Human-Computer Interaction.

In CrowdM abbiamo iniziato a sperimentare l’utilizzo dell’intelligenza artificiale nel 2016 creando MAIA, la nostra piattaforma di “Conversation AI”, pensata per migliorare e semplificare il rapporto tra organizzazioni ed utenti in modo etico.

Guarda il video del Webinar che abbiamo organizzato recentemente dedicato al mondo dei Comuni e della Pubblica amministrazione:

 

Siamo a tua disposizione per progettare l’assistente virtuale per la tua organizzazione.

Fonti:

  1. https://bit.ly/4038ado
  2. I bias, o meglio bias cognitivi, sono delle distorsioni che le persone attuano nelle valutazioni di fatti e avvenimenti. Tali distorsioni ci spingono a ricreare una propria visione soggettiva che non corrisponde fedelmente
  3. alla realtà. In sintesi, i bias cognitivi rappresentano il modo con cui il nostro cervello distorce di fatto la realtà https://bit.ly/3yBDeFp
  4. https://bit.ly/3Fr8CKz
  5. https://bit.ly/3Forf1Q

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn