top of page
Immagine del redattorePaolo Benanti

AI Fairness 360: IBM e l'etica delle AI


La nostra specie affronta continuamente una domanda fondamentale: quali valori stiamo trasmettendo alla prossima generazione? Gli esperti concordano nel dire che instillare valori positivi nei nostri bambini in giovane età li aiuta a crescere come individui responsabili e capaci, in grado di distinguere il bene dal male. Questi bambini hanno le migliori possibilità di sviluppare un senso di giustizia, equità e pensiero imparziale, e hanno aumentato la capacità di formare relazioni significative e fiduciose. In questo momento cruciale della nostra storia, i valori che stiamo trasmettendo alla prossima generazione sono ancora una volta sotto i riflettori. Ma questa volta stiamo cercando di capire come trasmettere il concetto di equità e giustizia alla prossima generazione di macchine: i sistemi di intelligenza artificiale. Vediamo il tentativo di IBM di rispondere a questa sfida.

 

"I valori adottati per costruire i sistemi AI di oggi si rifletteranno nelle decisioni prese da questi sistemi per un decennio o più". Con questa consapevolezza IBM sa come la nostra società possa essere trasformata nel prossimo futuro e non necessariamente in meglio. Che si debba valutare la credit history - lo strumento che le banche USA utilizzano per classificare l'affidabilità dei clienti -, che si debba offrire un lavoro o che si debba concedere la libertà condizionale, le varie organizzazioni si stanno rivolgendo sempre più all'intelligenza artificiale per automatizzare tale processo decisionale.

Eppure sempre più si rivela in diversi studi e da numerose analisi come i sistemi di riconoscimento facciale possano amplificare piuttosto che eliminare i pregiudizi umani. Gli algoritmi che muovono e formano le AI non solo utilizzano dati imperfetti e ipotesi imperfette ma ereditando anche i pregiudizi degli umani che sono dietro la loro realizzazione e ne sviluppano nei processi di machine learning anche di nuovi.

Per questa ragione IBM ha rilasciato su GitHUb un nuovo toolkit "AI Fairness 360" gettando contemporaneamente un guanto di sfida ai competitor. Il toolkit è una sorta di coltellino svizzero di algoritmi, a disposizione di chiunque, progettato, nelle intenzioni di IBM, per eliminare questi pregiudizi.

"Questa cassetta degli attrezzi ha più componenti", dice Kush R. Varshney di IBM Research AI, "Una prima componente è per controllare i pregiudizi, una seconda è per spiegare come stanno avvenendo questi controlli e cosa significa per l'utente, il terzo aspetto sono gli algoritmi per correggere i pregiudizi e correggere i modelli che ne derivano per renderli più giusti".

Ma da dove provengono questi pregiudizi? I dati sorgente su cui si basano gli algoritmi AI sono molto spesso la causa del problema. "Gli algoritmi di apprendimento automatico, vengono addestrati utilizzando dati storici e in genere i dati sono [frutti di decisioni storiche] che sono state prese sulla stessa attività", spiega Varshney. "E spesso le decisioni umane hanno tracce di pregiudizi se questo è implicito o esplicito per vari motivi, quindi se il modello di apprendimento automatico viene addestrato sulla base di questo insieme di dati preventivamente giudicati, erediterà e replicherà tali pregiudizi".

Eppure non è solo il dato che è il problema. "Ci sono casi in cui un medico o un modellatore di dati può, senza saperlo, fare qualcosa per trasformare i dati in modo inappropriato o introdurre pregiudizi al processo di modellazione in qualche forma", come nota Aleksandra Mojsilovic, IBM Fellow di AI Science. Un semplice esempio potrebbe essere l'apparente innocua azione di ordinare i dati in gruppi, per esempio per età o istruzione, che potrebbero avere implicazioni a sorpresa per una decisione sull'ammissione al college.

Cosa fa realmente il toolkit? "Il semplice controllo del bias è piuttosto semplice", spiega Varshney. "Gli algoritmi sono il nostro vero interesse, quindi la cassetta degli attrezzi in questo momento contiene 10 algoritmi diversi per il rimedio o l'attenuazione dei pregiudizi". Questi algoritmi generalmente rientrano in tre tipi. Un gruppo esegue il preprocesso dei dati per assicurarsi che i diversi gruppi di persone siano trattati in modo equo. Un altro agisce sull'elaborazione dei dati stessi, che possono includere la creazione di misure di sicurezza algoritmiche per eliminare i dati distorti. E il terzo controlla i pregiudizi analizzando i risultati degli algoritmi di intelligenza artificiale. "Il fatto che abbiamo più [algoritmi] è buono per consentire agli utenti di scegliere ciò che è più appropriato per loro", aggiunge.

Perché rendere il toolkit open source? "Equità e distorsioni sono così complesse", spiega Mojsilovic. "Anche per gli esseri umani è molto difficile definire e capire, e questo è ancora più difficile per i professionisti nel farla diventare una parte delle loro soluzioni. Abbiamo pensato che questo fosse un [area] in cui l'industria dovrebbe unirsi, e tutti dovrebbero lavorare insieme, perché così si avanzerà per il bene comune: rendere tutto questo pubblico e chiedere alla comunità di collaborare / contribuire è davvero importante per noi".

"Questa è un'area di ricerca molto attiva nella comunità che si occupa di machine learning", aggiunge Varshney. "E penso che per mantenere gli sviluppi più recenti disponibili per tutti, sia una delle ragioni per cui questi tools dovrebbero essere open source. Vogliamo davvero che questo diventi il fulcro per tutti i professionisti incorporandolo in tutto il codice svilupperanno per tutte le loro applicazioni in qualsiasi settore - finanza, risorse umane, sanità, istruzione, qualsiasi cosa nel settore pubblico - rendendo il kit open source saranno in grado di prenderlo e davvero di impiegarlo nei loro flussi di lavoro ".

Non è solo l'industria dell'AI interessata al lavoro di IBM. "Abbiamo ascoltato molte storie di professionisti del settore che vengono a visitare il nostro laboratorio che sarebbero davvero interessati a scoprire se ci sia un pregiudizio nelle loro decisioni storiche fatte dagli umani" dice Mojsilovic. "È davvero utile da un punto di vista organizzativo ogni volta che ci sono enormi quantità di dati e le decisioni vengono prese su base giornaliera in grande quantità".

A volte gli algoritmi hanno buone notizie da segnalare. "Lavoravamo con un gruppo di nome Echoing Green, un gruppo che offre borse di studio e altro supporto a promettenti imprenditori sociali", ha detto Varshney. "Ricevono qualcosa come 3000 domande all'anno per 30 posizioni che possono offrire: stavamo cercando di utilizzare tecniche di machine learning per automatizzare o almeno aiutare i responsabili delle decisioni umane a ridurre il loro carico di lavoro". In realtà si è scoperto che a Echoing Green i processi decisionali erano abbastanza equi rispetto alle variabili prese in esame e questo è un esempio di come gli algoritmi anti bias non trovando pregiudizi ci dicano una buona notizia.

Sia Varshney che Mojsilovic sono ottimisti sul futuro dell'AI. "Ora abbiamo davvero l'opportunità di iniziare ad affrontare i maggiori problemi che il mondo ha - come fame, povertà, salute e istruzione", dice Varshney. "Uno di questi è l' iniziativa Science for Social Good". L'iniziativa, co-diretta da Mojsilovic e Varshney, vede gli scienziati e gli ingegneri IBM collaborare con le ONG per affrontare i problemi della società. Le iniziative coprono diversi campi, dal cercare la biomimetica per l'ispirazione tecnologica, ad affrontare l'incitamento all'odio online.

"Osserviamo come si utilizzano le tecnologie dell'AI e del machine learning per trattare problemi che vanno oltre l'agenda legata al generare entrate", aggiunge Mojsilovic. "Come affrontiamo i problemi di questo mondo? Un'idea enormemente eccitante".

Mojsilovic avverte che una maggiore comprensione dell'AI è necessaria se vogliamo ottenere il massimo beneficio dalla tecnologia. "È ancora una tecnologia molto nuova nel senso di come la usiamo, ma è anche molto poco conosciuta, in particolare dai legislatori e dai decision making. Dobbiamo pensare a un modo per collegare tutti questi punti e lavorare in un impostazione molto multidisciplinare per far si che i progressi siano fatti nel miglior modo possibile".

SI apre qui tutto il grande tema dell'algor-etica: come rendere il valore morale un valore computabile? Il fairness e la justice saranno realizzati solo dall'analisi dei dati? Non servono manager dei processi etici delle AI? Anche se questo è un primo passo la questione è ancora aperta.

272 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page