top of page
  • Immagine del redattorePaolo Benanti

Algoritmi seldoniani: costruire guardrail etici per le AI


Arrivano i Seldoniani. Non stiamo parlando di nessun tipo di alieno o specie sconosciuta ma di algoritmi così battezzati in onore a Hari Seldon, un personaggio delle storie di Isaac Asimov ove l'autore per eccellenza della fantascienza dello scorso secolo, presenta le sue famose "tre leggi della robotica". Con algoritmi di questo tipo si vogliono sviluppare una sorta di guardrail algoritmici che aiutino a prevenire i pregiudizi nell'intelligenza artificiale, specie quando l'utilizzo dei sistemi di AI è affidato a non esperti. Vediamo come.

 

L'intelligenza artificiale, dopo la sua formulazione e i primi mirabolanti risultati, ha conosciuto quello che è stato chiamato l'inverno. Un periodo di finanziamenti e interessi ridotti nella ricerca sull'AI. Il termine è stato coniato per analogia all'idea di un inverno nucleare. Vi furono due grandi inverni nel 1974-1980 e nel 1987-1993 nel quale il settore ha subito diversi cicli di campagna pubblicitaria, seguiti da delusioni e critiche, seguite da tagli ai finanziamenti, seguiti da rinnovati interessi anni o decenni dopo.

Il termine è apparso per la prima volta nel 1984 come argomento di un dibattito pubblico durante l'incontro annuale dell'AAAI (allora chiamato "American Association of Artificial Intelligence"). È una reazione a catena che inizia con il pessimismo nella comunità dell'AI, seguito dal pessimismo sulla stampa, seguito da un grave taglio dei finanziamenti, seguito dalla fine di una seria ricerca. All'incontro, Roger Schank e Marvin Minsky — due importanti ricercatori dell'AI che erano sopravvissuti all'"inverno" degli anni '70 - avvertirono la comunità imprenditoriale che l'entusiasmo per l'AI era sfuggito al controllo negli anni '80 e che a questa sarebbe senz'altro seguita una grande delusione. Tre anni dopo, l'industria dell'intelligenza artificiale che all'epoca contava investimenti per miliardi di dollari iniziò a collassare.

Oggi dopo queste stagioni fredde la nuova stagione dell'AI ci ha fornito algoritmi in grado di riconoscere i volti , diagnosticare le malattie e, naturalmente, sconfiggere ogni umano ai videgiochi. Ma anche gli algoritmi più intelligenti a volte possono comportarsi in modi inaspettati e indesiderati, ad esempio rilevando la distorsione di genere dal testo o dalle immagini con cui vengono alimentati.

Un nuovo framework per la creazione di programmi di intelligenza artificiale suggerisce un modo per prevenire comportamenti aberranti nell'apprendimento automatico specificando fin dall'inizio dei guardrail nel codice. Questo sistema mira ad essere particolarmente utile per i non esperti che implementano l'AI, un problema sempre più comune da quando la tecnologia si è spostata dai laboratori di ricerca al mondo reale.

L'approccio è uno dei tanti proposti negli ultimi anni per frenare le peggiori tendenze rilevate dagli esperti nei programmi di AI. Tali garanzie potrebbero rivelarsi vitali poiché l'AI viene utilizzata in situazioni più critiche e quando le persone diventano sospettose dei sistemi di intelligenza artificiale che perpetuano pregiudizi o causano incidenti.

Le scorse settimane Apple è stata scossa dalle affermazioni secondo cui l'algoritmo dietro la sua carta di credito offre limiti di credito molto più bassi alle donne rispetto agli uomini con gli stessi mezzi finanziari. Non è stato in grado di dimostrare che l'algoritmo non avesse inavvertitamente rilevato una qualche forma di errore dai dati di allenamento. L'idea che la Apple Card potesse essere distorta è stata sufficiente per far insorgere i clienti.

Contraccolpi simili potrebbero far deragliare l'adozione dell'AI in settori come l'assistenza sanitaria, l'istruzione e il governo. "Le persone stanno osservando come vengono distribuiti i sistemi di intelligenza artificiale e vedono che non sono sempre giusti o sicuri", afferma Emma Brunskill, assistente a Stanford e uno dei ricercatori dietro questo nuovo approccio. "In questo momento siamo preoccupati che le persone possano perdere la fiducia in alcune forme di AI, e quindi i potenziali benefici dell'AI potrebbero non essere realizzati".

Gli esempi di sistemi di intelligenza artificiale che si comportano male abbondano. L'anno scorso, Amazon è stata costretta a abbandonare un algoritmo di assunzione che è risultato essere di parte; Google è stato lasciato in faccia dopo che è stato scoperto che l'algoritmo di completamento automatico per la sua barra di ricerca produce insulti razziali e sessuali. A settembre, è stato mostrato un database canonico di immagini in grado di generare ogni sorta di etichette inadeguate per le immagini di persone.

Gli esperti di machine learning spesso progettano i loro algoritmi per proteggersi da determinate conseguenze indesiderate. Ma non è così facile per i non esperti che potrebbero utilizzare un algoritmo di apprendimento automatico pronto all'uso. È ulteriormente complicato dal fatto che esistono molti modi per definire cosa sia l'“equità” matematicamente o algoritmicamente.

Il nuovo approccio propone di costruire un algoritmo in modo che, quando viene distribuito, ci siano dei limiti sui risultati che può produrre. "Dobbiamo assicurarci che sia facile utilizzare un algoritmo di apprendimento automatico in modo responsabile, per evitare comportamenti non sicuri o ingiusti", afferma Philip Thomas, assistente professore all'Università del Massachusetts Amherst che ha anche lavorato al progetto.

I ricercatori hanno dimostrato il metodo applicando a diverse tecniche di machine learning e a un paio di ipotetici problemi in un articolo pubblicato sulla rivista Science il 22 novembre scorso. Questo quello che recita l'abstract:

Le macchine intelligenti che utilizzano algoritmi di apprendimento automatico sono onnipresenti, che vanno da semplici analisi dei dati e strumenti di riconoscimento dei modelli a sistemi complessi che raggiungono prestazioni sovrumane in vari compiti. Garantire che non mostrino comportamenti indesiderati, ad esempio che non causano danni agli esseri umani, è quindi un problema urgente. Proponiamo un framework generale e flessibile per la progettazione di algoritmi di machine learning. Questo framework semplifica il problema di specificare e regolare comportamenti indesiderati. Per dimostrare la fattibilità di questo framework, l'abbiamo usato per creare algoritmi di machine learning che precludevano il comportamento pericoloso causato dagli algoritmi di machine learning standard nei nostri esperimenti. Il nostro framework per la progettazione di algoritmi di machine learning semplifica l'applicazione sicura e responsabile dell'apprendimento automatico.

Il framework per la progettazione di algoritmi di machine learning consente all'utente di limitare più facilmente il comportamento dell'algoritmo, senza richiedere ampie conoscenze del dominio o analisi dei dati aggiuntive. Ciò si ottiene spostando l'onere di garantire che l'algoritmo sia ben educato dall'utente dell'algoritmo al progettista dell'algoritmo. Questo è importante perché gli algoritmi ML sono utilizzati per applicazioni critiche da persone esperte nei loro campi, ma che potrebbero non essere esperti in machine learning e statistiche.

Per dimostrare la fattibilità del framework, gli autori l'hanno usato per progettare algoritmi di apprendimento di regressione, classificazione e rinforzo. Vincolare il comportamento della regressione e gli algoritmi di classificazione è importante perché, ad esempio, sono stati utilizzati per applicazioni mediche in cui comportamenti indesiderati potrebbero ritardare le diagnosi di cancro e perché è stato dimostrato che a volte causano razzismo, sessismo e altri comportamenti discriminatori. Allo stesso modo, sono stati proposti algoritmi di apprendimento di rinforzo per applicazioni in cui comportamenti indesiderati possono causare perdite finanziarie, danni ambientali e persino la morte.

Un primo esempio è stato mostrare come il framework potrebbe essere utilizzato in un semplice algoritmo che prevede le medie dei voti degli studenti (GPA) durante i loro primi tre semestri all'università sulla base dei punteggi ottenuti in nove esami di ammissione. Calcolare la GPA degli studenti universitari dai risultati degli esami di ammissione è una pratica comune che può portare a pregiudizi di genere, perché le donne tendono a fare meglio a scuola di quanto suggerirebbero i loro punteggi degli esami di ammissione. Nel nuovo algoritmo, un utente può limitare in che misura l'algoritmo può sovrastimare e sottostimare gli GPA degli studenti in media considerando il genere.

In un altro esempio, il team ha sviluppato un algoritmo per bilanciare le prestazioni e la sicurezza di una pompa per insulina automatizzata. Tali pompe decidono quanta insulina somministrare durante i pasti e l'apprendimento automatico può aiutare a determinare la dose giusta per un paziente. L'algoritmo che hanno progettato può essere regolato da un medico per considerare solo i dosaggi entro un determinato intervallo e di avere una bassa probabilità di suggerire livelli pericolosamente bassi o alti di zucchero nel sangue.

I ricercatori chiamano i loro algoritmi "Seldonian" - o seldoniani nella forma italianizzata - in riferimento a Hari Seldon, un personaggio delle storie di Isaac Asimov. Saldon è un personaggio immaginario del ciclo della Fondazione. È uno dei personaggi chiave, è lo scienziato ideatore della psicostoria e del Piano Seldon. Tra tutti i personaggi creati dalla fervida mente di Asimov, Hari Seldon ne è il più autobiografico, sia nella finzione delle trame, sia nella inaspettata aderenza con la morte dello scrittore. In questi racconti l'autore per eccellenza della fantascienza dello scorso secolo, presenta le sue famose "tre leggi della robotica", che iniziano con la regola: "Un robot non può ferire un essere umano o, per inazione , permettere a un essere umano di fare del male".

È improbabile che il nuovo approccio risolva il problema del comportamento anomalo degli algoritmi. In parte è perché non esiste alcuna garanzia che le organizzazioni che implementano l'intelligenza artificiale adottino tali approcci quando possono arrivare a scapito di prestazioni ottimali.

Il lavoro evidenzia anche il fatto che la definizione di "correttezza" in un algoritmo di machine learning non è un compito semplice. Nell'esempio del GPA, ad esempio, i ricercatori forniscono cinque diversi modi per definire l'equità di genere.

"Una delle maggiori sfide nel rendere equi gli algoritmi sta nel decidere cosa significhi effettivamente l'equità", afferma Chris Russell, membro dell'Alan Turing Institute nel Regno Unito. "Cercare di capire cosa significa equità e quando un approccio particolare è quello giusto da usare è una delle principali aree di ricerca in corso".

Se anche gli esperti non riescono a concordare ciò che è giusto, Russell afferma che potrebbe essere un errore gravare sugli utenti meno competenti. "Al momento, ci sono più di 30 diverse definizioni di correttezza in letteratura", osserva Russell. "Questo rende quasi impossibile per un non esperto sapere se stanno facendo la cosa giusta".

Tuttavia realizzare un algor-etica che sappia supportare la creazione di sistemi di AI compatibili con i nostri valori sociali richiede anche questo: non solo passaggi di analisi etica ma anche implementazione di metodi hard, algoritmici, che rendano efficaci ed effettive le linee che la riflessione etica individua e chiede di implementare.

481 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page