Per guidare un’auto o un missile militare ci potremo mai fidare di un algoritmo?


Per guidare un'auto o un missile militare ci potremo mai fidare di un algoritmo?

 Afp


  Bus a guida autonoma




Il successo degli ultimi anni relativo ad algoritmi dedicati al Machine Learning ha avviato un processo deduttivo alquanto originale che guida la nostra mente ad una serie di passi spontanei finalizzati a credere che l’intelligenza artificiale (AI) possa realmente, con il passare degli anni, sostituire quella umana. Ma non è proprio cosi. Sono gli stessi studiosi del settore a porsi domande sull’AI avviando un nuovo strumento e realizzando un nuovo strumento chiamato: Explainable Artificial Intelligence (XAI).

Leggi anche: Un nuovo appello per dire no alle macchine killer

L’ XAI è un progetto DARPA (consultabile a questo indirizzo) avente come obiettivo quello di comprendere come il “sistema” (AI) abbia raggiunto una decisione. Ogni algoritmo decisionale sia esso artificiale che umano porta in dote una marginalità di errore, tale errore è assai differente tra una decisione umana ed una artificiale. Infatti un errore decisionale umano è difficilmente correggibile da una “mente” artificiale, contrariamente un errore artificiale è più semplice da correggere da una mente umana. Da questa evidenza nasce la necessita di comprendere come la “macchina” (intesa come algoritmo di intelligenza artificiale) abbia preso la sua decisione. 

Per guidare un'auto o un missile militare ci potremo mai fidare di un algoritmo?

 Lancio missile Corea (Afp)

Un problema anche militare

Se l’uomo riesce a comprendere come il sistema automatico ha deciso una soluzione piuttosto che un altra, in caso di errore può correggerlo oppure, ancora meglio, può insegnare alla macchina a non compiere più “quell’errore” decisionale. Stiamo spostando il problema dalla capacità di decidere, alla capacità di fidarsi della decisione.

È inutile ricordare che fintanto che i sistemi basati su AI verranno utilizzati per decidere quando è “ora di fare il bucato” oppure “con quale frequenza inaffiare il giardino” o ancora “quando innalzare la temperatura di casa”, il concetto di fiducia del AI si pone marginalmente. Ma quando tali sistemi verranno utilizzati per guidare le nostre autovetture autonomamente, per attuare interventi chirurgici, oppure per guidare conflitti militari su territori nemici, il concetto di fiducia (dell’ AI) deve essere ben consolidato.

Non potremo avere dubbi sulla nostra incolumità quando l’automobile deciderà di sfrecciare ai 130KM/H in autostrada in totale autonomia, o non dovremmo temere un errore software poco prima di un intervento a cuore aperto o non dovremmo provare rimorsi se l’intelligenza artificiale deciderà di avviare un conflitto missilistico.

Leggi anche: Così l’intelligenza artificiale impara a scovare i tumori. In meno di due ore

Per guidare un'auto o un missile militare ci potremo mai fidare di un algoritmo?

 Corea del Nord, missili, test basilistici (Afp)

Come fidarsi davvero di un algoritmo?

Con queste premesse nasce il progetto ARPA XAI: comprendere come un sistema basato su algoritmi di intelligenza artificiale abbia preso una decisione al fine di poterlo correggere e/o prevenire decisioni errate. Le principali domande poste da questa disciplina sono:

  • Per quale motivo (AI) hai fatto questa scelta ?
  • Per quale motivo (AI) non hai scelto un altra soluzione ?
  • Quando posso considerare che la decisione presa sia quella giusta ?
  • Quando posso fidarmi della tua decisione ?
  • Come posso accorgermi di un tuo errore e quindi correggerlo ?

L’esempio del lupo e del cane

Uno degli esempi più risonanti è il caso del “Lupo” e del “Cane”. Applicando sistemi decisionali basati su machine learning supervisionato specifico per distinguere un cane da un lupo ed adottando la “X” (explainability) per comprendere come il sistema “osservi” e “ragioni” attraverso il blocco del sistema stesso ad ogni singolo step decisionale, è stato possibile comprendere (per un essere umano) che il sistema artificiale basava tutta la sua capacità decisionale focalizzandosi su “micro dettagli” delle zampe. In altre parole riusciva a distinguere per il 97% dei casi un lupo da un cane basandosi sullo studio iper-dettagliato delle zampe.

La domanda che si è posto l’interlocutore è stata dirompente: “Come posso fidarmi di un sistema, che sì per un 97% delle volte (conosciute) ha avuto successo, ma che discrimina un lupo da un cane semplicemente dalle zampe ? Posso io, essere umano, affermare che quel sistema abbia capito cosa sia un lupo, al fine di delegare ad esso una decisione sulla vita dell’animale ? “

È evidente che un lupo non è identificabile semplicemente dalle sue “zampe”, un lupo ha un comportamento, ha una sua aggressività, ha un modo di muoversi e di fiutare la preda che un cane non possiede, un lupo vive in modi e luoghi differenti ed ha capacità reattive al contatto umano differenti da quelle di un cane, un lupo emette suoni e ringhia in modo differente rispetto ad un cane, un lupo osserva e guarda la preda in un modo differente rispetto ad un cane.

Leggi anche: La tecnologia può evitare che si ripeta la tragedia di Genova? La soluzione di due startup italiane

Per guidare un'auto o un missile militare ci potremo mai fidare di un algoritmo?

 Afp

 Bus a guida autonoma

La fiducia e la consapevolezza

Quando l’essere umano deve prendere decisioni importanti, deve essere sufficientemente certo che la decisione venga presa sulla base della consapevolezza. Nessun produttore di vino delegherebbe la decisione sulla fermentazione del proprio prodotto ad un pilota di formula uno, proprio perchè quest’ultimo non ha tipicamente consapevolezza della materia, cosi come un pilota non delegherebbe mai la decisione su quali pneumatici adottare durante una gara ad un viticoltore. Il primo passo per garantire una buona decisione è avere consapevolezza della tematica, ossia comprendere realmente quale sia la dimensione decisionale nella quale prendere la decisione.

L’esempio del cane e del lupo ha effettivamente evidenziato che, anche se il sistema artificiale ha un rateo di successo elevato, non è possibile confermare che il sistema artificiale abbia compreso realmente la tematica (un lupo non si caratterizza dalle zampe). Essendo consapevoli che il successo del sistema è basato su un insieme limitato di decisioni, non possiamo delegare la nostra fiducia in quanto siamo certi che: (a) il sistema non ha consapevolezza di cosa sia un cane e/o un lupo (b) il set di test, per quanto grande e complesso, non rappresenta la totalità dei casi reali in cui il sistema artificiale potrebbe essere chiamato in causa.

L’intelligenza artificiale, puo essere di enorme aiuto all’intera umanità, amplificando la capacita di azione e la velocità nel reagire a predeterminati eventi, ma prima di poter essere autonoma nel prendere decisioni dovrà guadagnarsi la nostra fiducia.

Leggi anche: “L’intelligenza artificiale è una rivoluzione. Ma imprese e lavoratori non lo hanno ancora capito”. Uno studio

Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it




Link ufficiale: https://www.agi.it/innovazione/rss

Autore dell'articolo: admin