Dimmi perché! Far spiegare ad una AI il suo processo decisionale

January 31, 2019

La paura dell'ignoto, ovvero dell'angoscia secondo Kierkegaard
Secondo Søren Kierkegaard, il filosofo e teologo danese dell'Ottocento, l'uomo si trova di fronte a numerose scelte e possibilità nella sua vita tra le quali deve scegliere. Questa totale apertura verso il possibile, la condizione di incertezza e travaglio di fronte alla scelta tra le possibilità, dà vita all'angoscia. Essa è quella "vertigine" connaturata all'uomo che deriva dalla libertà, dalla possibilità assoluta.

 

 

Secondo Kierkegaard subentra l'angoscia quando si scopre che tutto è possibile. Ma quando tutto è possibile è come se nulla fosse possibile. C'è sempre la possibilità dell'errore, del nulla, la possibilità di agire con esiti imponderabili. L'angoscia, a differenza della paura, che si riferisce sempre a qualcosa di determinato e cessa quando cessa il pericolo, non si riferisce a nulla di preciso e accompagna costantemente l'esistenza dell'uomo. A suo giudizio, l'angoscia non è un sentimento che possa essere o non essere presente nell'uomo: l'angoscia è essenzialmente connessa all'esistenza umana, in quanto quest'ultima è divenire verso l'ignoto.

 

L'angoscia è dunque letta come fondamento stesso della condizione umana, primigenio e ineliminabile.

La scoperta della possibilità, e quindi dell'angoscia, è stata risvegliata per la prima volta in Adamo dal divieto di Dio. Prima di ricevere da Dio il divieto di mangiare dell'albero del bene e del male, Adamo era innocente: non aveva, cioè, la coscienza delle possibilità che gli si aprivano davanti. Quando riceve da Dio il divieto, acquista la coscienza di "poter" sapere la differenza fra il bene e il male. Diventa consapevole della possibilità della libertà. E l'esperienza di questa possibilità è l'angoscia. 

 

Se Søren Kierkegaard avesse declinato il suo pensiero oggi probabilmente avrebbe fondato questa condizione di infinita possibilità e di assoluta incertezza nel rapporto che sembriamo avere oggi con le AI. Di fronte alle potenzialità sempre maggiori che il machine learning infonde in sistemi decisionali complessi, potremmo dire che abbiamo macchine dalle infinite possibilità. Ma se Kierkegaard lega l'angoscia alle infinite possibilità di scelta,  se l'angoscia subentra dalla consapevolezza che tutto può essere e quindi dall'ignoranza di ciò che accadrà, la disperazione invece subentra di fronte alle possibilità di fallimento. Parafrasando il filosofo danese le AI amplificano questa situazione di crisi radicale della libertà umana. La amplifica perché la logica alla base del processo decisionale di una macchina è ancora sconosciuta.

 

 

 

Infatti una delle modalità con cui ci difendiamo nelle nostre esperienze quotidiane è la cosiddetta razionalizzazione: un meccanismo di difesa della psiche umana.

 

L'espressione, Introdotta da Ernest Jones in un articolo del 1908, indica il tentativo di "giustificare", attraverso spiegazioni, argomenti, ipotesi "di comodo", un fatto o processo relazionale che il soggetto ha trovato angoscioso, o che ha generato in lui la percezione di una dissonanza cognitiva. In altre parole, la razionalizzazione consiste nell'atteggiamento mentale di mascherare sentimenti, idee e comportamenti percepiti come conflittuali con le proprie vere motivazioni pulsionali o con la realtà, così da contenere e gestire un'angoscia di tipo nevrotico o psicotico. Nella celebre favola attribuita a Esopo, La volpe e l'uva, la reazione dell'animale di fronte all'insuccesso della sua azione (Nondum matura est, nolo acerbam sumere, nella versione latina di Fedro) è considerata una forma esemplare di razionalizzazione.

 

AI come black box, ovvero del bisogno di razionalizzare
In che modo è possiamo fidarci delle decisioni di una macchina quando le persone non sanno da dove provengono? O perché sono tali? Questo velo di Maya, per usare l'espressione coniata dal filosofo Arthur Schopenhauer che indicava un "velo" di natura metafisica e illusoria che separava gli uomini dalla conoscenza/percezione della realtà, è quello che chiamiamo blackbox per le AI. Il caratter oscuro delle AI nel loro processo decisionale non ci consente di razionalizzare e ci abbandona all'amgoscia che rischia di diventare disperazione di fronte a fallimenti in operazioni mission critical. Allora le blackbox delle Ai sono qualcosa che deve essere aperto. 

Fare questo però non è un processo meramente emotivo. Poiché la tecnologia continua a svolgere un ruolo sempre più importante nella vita di tutti i giorni e a cambiare i ruoli all'interno della forza lavoro, è l'etica che vogliamo che animi gli algoritmi a presentarsi come punto chiave. L'etica ha bisogno non di narrazioni consolatorie, razionalizzare le AI, ma di spiegazioni che mostrino la dinamica che soggiace alle scelte. La ragione del perché allora strapperà all'angoscia e alla disperazione consegnandoci all'etica.

 

Diverse volte in queste pagine e secondo altri numerosi studi siamo stati avvertiti che gli algoritmi possono rafforzare i pregiudizi e rispecchiare i pregiudizio dei programmatori. IBM sembrano avere una visione diversa.

 

Image Credit: IBM

 

IBM afferma di aver fatto passi da gigante aprendo le blackboxes delle AI con un servizio software che potrebbe portare trasparenza nelle AI.


I modelli di machine learning sono sempre più utilizzati per informare le decisioni ad alto rischio sulle persone. Sebbene il machine learning, per sua stessa natura, sia sempre una forma di discriminazione statistica, la discriminazione diventa discutibile quando pone determinati gruppi privilegiati a vantaggio sistematico e alcuni gruppi svantaggiati a svantaggio sistematico. Ci possono essere bias nei dati di addestramento, a causa di pregiudizi nelle etichette o nel sotto / sovra-campionamento, produce modelli con bias indesiderati.

 

Image Credit: IBM

 

In una prima versione iniziale del pacchetto Python AIF360, IBM ha inserito nove algoritmi diversi, sviluppati da una ampia comunità di ricerca sull'equità algoritmica, per cercare di mitigare il pregiudizio indesiderato. Questi algoritmi possono essere tutti utilizzati dai programmatori in un modo standard, molto simile al paradigma di adattamento / previsione di scikit-learn. L'AIF360 è un po 'diverso dagli sforzi open source attualmente disponibili a causa della sua attenzione alla mitigazione del bias (al contrario delle semplici metriche), al suo focus sull'usabilità industriale e alla sua ingegneria del software. AIF360 non è solo un pacchetto Python. È anche un'esperienza interattiva che fornisce una delicata introduzione ai concetti e alle funzionalità del toolkit.

 

Dall'angoscia alla responsabilità ovvero per un'AI aperta ed etica
È importante aumentare la trasparenza non solo nel processo decisionale, ma anche nei registri dell'accuratezza, della prestazione e della correttezza del modello che possono essere facilmente rintracciati e richiamati per motivi di servizio clienti, normativi o di conformità, ad esempio la conformità GDPR.

 

Accanto all'annuncio di questa AI, IBM Research ha anche rilasciato un toolkit di individuazione e mitigazione dei bias dell'AI open source, portando avanti strumenti e risorse per incoraggiare la collaborazione globale circa l'inclinazione alla parzialità nell'intelligenza artificiale.

 

 

Ciò include una raccolta di librerie, algoritmi ed esercitazioni che offriranno agli studiosi, ai ricercatori e agli scienziati dei dati gli strumenti e le risorse di cui hanno bisogno per integrare il rilevamento del bias nei loro modelli di apprendimento automatico.

 

Secondo David Kenny, SVP di IBM di Cognitive Solutions, "IBM ha guidato l'industria nella creazione di principi di fiducia e trasparenza per lo sviluppo di nuove tecnologie AI. È tempo di tradurre i principi in pratica. Stiamo dando nuova trasparenza e controllo alle aziende che usano l'intelligenza artificiale e affrontano il maggior rischio potenziale da qualsiasi decisione sbagliata".

 

Cosa potrebbe significare per tutte quelle applicazioni che trasformano ambiti anche molto delicati come la medicina o le auto a guida autonoma. La nuova tecnologia potrebbe aprire una serie di problemi con la sua implementazione dal momento che la discussione e la riflessione dei decisori politici deve ancora raggiungere la tecnologia. L'etica per quanto chieda di irraggiare anche gli algoritmi, cioè di diventare algoretica, non può essere solo questioni di calcoli. Essere etici chiede un commitment, chiede una responsabilità che sappia inverarsi nelle visioni di fondo, filosofie di sviluppo, e nelle scelte concrete di questo cambio d'epoca che le AI stanno generando.

 

 

Share on Facebook
Share on Twitter
Please reload