Digital Ethics: come le AI creano nuovi professionisti

September 19, 2019

L'intelligenza artificiale (AI) e la capacità delle macchine di "apprendere" (machine learning) sta segnando un nuovo capitolo nella trasformazione digitale; dà nuova vita al potenziale di dati e a software non strutturati e segna un profondo cambiamento nell'interfaccia e nell'esperienza del cliente. Tuttavia come più volte abbiamo illustrato, presenta sfide e rischi senza precedenti e impatti sociali che le imprese devono ancora affrontare.

 

Il 2018 ha segnato un anno fondamentale nella tecnologia, un anno in cui tali domande e rischi sono diventati mainstream. Dalle rivelazioni della cosidette fake news e le manipolazioni di massa ad opera di algoritmi di profilazione sui social network, a  minacce informatiche sempre più perniciose, a tentativi di mosse normative senza precedenti: la tecnologia è al centro dell'attenzione.

 

 

Nonostante una diffusa crisi di fiducia, la preparazione delle imprese per implementare le AI si è concentrata quasi esclusivamente sulla preparazione dei dati e sull'assunzione dei più talentuosi data scientists. Ma la vera  preparazione per implementare le AI in maniera più sicura, giusta e compatibile con le attuali strutture sociali deve riguardare le organizzazioni in maniera più ampia: sopratutto persone, processi e principi. Oggi più che mai, l'automazione di massa di big data e intelligenza artificiale richiede una nuova competenza aziendale: un approccio formale e fondato sull'etica.

 

1. Supporto organizzativo: scopo e funzione delle carte etiche
Mentre praticamente tutte le imprese hanno un team di conformità, negli ultimi anni si è realizzato che l'ambito dell'etica si sia distinto.

 

Mentre la conformità stabilisce se un'azienda può agire in un determinato modo, il ruolo di una funzione etica è di chiedere dinamicamente e attivamente se un'azienda deve agire in un determinato modo. La carta etica è uno spazio dinamico che accompagna il funzionamento dell'organizzazione e raccoglie e indirizza i dubbi di natura etica che potrebbero sorgere tra i dipendenti nello sviluppare e/o implementare soluzioni tecnologiche che supportino o surroghino i processi decisionali. 

 

 

Sempre più aziende stanno formalizzando il ruolo di Chief Ethics Officer o di board etici interni o esterni. Microsoft, Facebook e anche AXON, i noti fabbricanti di armi per le forze dell'ordine hanno creato dei team dedicati per affrontare le questioni etiche nello sviluppo e nell'implementazione dell'AI nei prodotti che stanno costruendo. Questi sono ruoli importanti per guidare i dirigenti e l'organizzazione attraverso discussioni critiche e lo sviluppo dei processi. I teams hanno il compito di porre e rispondere a domande di vario tipo:

 

  • Che cosa potrebbe succedere? Analizzare gli scenari attraverso le tecnologie emergenti, identificare i rischi e le questioni legali
     

  • Cosa ne deriverebbe? Pensa attraverso le questioni etiche e le implicazioni di prodotti / servizi (compresi i conflitti tra valori professati e modello di business sottostante).
     

  • Come possiamo sostenere una gestione responsabile? Sviluppare linee guida etiche per le aziende, anche un codice etico
     

  • Come possiamo supportare il processo decisionale quotidiano e la responsabilità? Istituire programmi come corsi di formazione, gruppi di pensiero progettuale, analisi di scenari o sistemi sociali o audit.
     

  • Quali competenze ci mancano? Espandere la consapevolezza etica diversificando i team. In medicina, ad esempio, i team di etica non includono solo medici e avvocati, ma educatori, filosofi, designer, psicologi, sociologi e artisti.

 

2. Pregiudizi: analizzare i bias interni ed esterni
I pregiudizi possono esistere e esisteranno attraverso le diverse interazioni dell'AI: nello sviluppo di algoritmi, nella progettazione dei servizi, nella scelta dei fattori di forma e delle "personalità" della macchina, nonché nel contesto dell'esperienza dell'utente. Dopotutto, la logica della macchina è intrinsecamente discriminatoria in quanto discerne, categorizza, separa e raccomanda intrinsecamente. Il costrutto fondamentale della programmazione è discriminatorio come la logica binaria su cui è costruito: o è 1 o 0. Inoltre anche la programmazione sfrutta costrutti logici discriminatori: IF THIS... THEN THAT. Questo non è un motivo per rifiutare la tecnologia. Infatti questa natura della macchina è la base della sua potenza e della sua utilità in una serie di scenari, operazioni e compiti. Tuttavia conoscerne la natura e il funzionamento è un motivo per comprendere la natura dei bias del suo funzionamento e valutare le diverse forme di pregiudizi algoritmici più profondamente di quanto la maggior parte delle aziende siano abituate a fare.

 

 

Quando si tratta di pregiudizi umani abbiamo a che fare con alcune forme di preferenze consapevoli e anche con forme di pregiudizi molto più inconsci. Mentre il pregiudizio del programmatore può influire direttamente sul modo in cui i modelli sono costruiti e su quali set di dati vengono utilizzati per la formazione, tutti siamo soggetti a influenzare il modo in cui il pregiudizio si manifesta nell'intelligenza artificiale perché tutti contribuiamo alle interazioni con questi sistemi.

 

Questo ci mette di fronte al fatto che nel caso delle AI e della loro implementazioni l'etica non può essere una sorta di codice statico a priori, o quanto meno non solo, ma deve essere un processo dinamico che accompagna lo sviluppo, l'implementazione e l'utilizzo di questi sistemi.

 

Quando si tratta di dati e pregiudizi algoritmici, i dati utilizzati per addestrare i sistemi di apprendimento automatico possono essere inavvertitamente ponderati per sovrastimare o sottorappresentare determinati punti di dati o popolazioni rispetto ad altri. A volte questa è una funzione dell'accesso ai dati, altre volte un riflesso di pregiudizi sociali profondamente radicati, altre volte, è semplicemente una propensione - non così inconscia - per i ricavi.

 

 

Qui la funzione etica dovrebbe assumere un ruolo guida, non solo nel guidare la consapevolezza di questi problemi, inclusi i loro impatti sui profitti, ma anche nello sviluppo di processi per identificare, documentare e ricercare tecniche di mitigazione. Ecco alcune best practice che le aziende possono applicare: 

 

  • Condurre un seminario o una tavola rotonda "pre-mortem" o pre-design per identificare come i sistemi di intelligenza artificiale potrebbero essere abusati, dirottati o causare danni agli utenti.
     

  • Dati di addestramento alla verifica. La trasparenza nei dati di formazione è fondamentale in modo che possiamo avere un'idea di quali pregiudizi sono integrati e come spiegarli.
     

  • Investire nelle variazioni per mitigare la sovra / sottorappresentanza dei dati , come testare il campionamento, l'apprendimento, i metodi di rilevamento delle anomalie, testare algoritmi diversi per gruppi diversi e identificare quelli che probabilmente saranno esclusi.
     

  • Usare la tecnologia per affrontare i problemi con la tecnologia. Lo sviluppo di strumenti basati sull'intelligenza artificiale per riconoscere e misurare i pregiudizi è diventato una tattica comune tra aziende tecnologiche come  Microsoft, Accenture, IBM, Facebook e numerose startup.


Alcune organizzazioni impiegano team interni per supportare la formazione, la condivisione delle migliori pratiche e la ricerca e sviluppo con supporto alla progettazione etica. Ad esempio, il programma di progettazione inclusiva di Microsoft offre principi, strutture, formazione, attività, esempi e prove di stress suggerite "per spostare il pensiero progettuale verso soluzioni universali".

 

3. Trasparenza: aumentare la chiarezza di fronte all'opacità e alla complessità
Mentre gli accordi e gli audit contrattuali fanno parte da lungo tempo dei team legali e di conformità, l'intelligenza artificiale e l'automazione introducono una nuova classe di minacce attorno alle quali si consiglia alle aziende di esercitare una trasparenza molto maggiore.

 

Dalle nuove interfacce come la voce o la biometria al tagging automatico, alla profilazione e all'esecuzione dei processi, l'IA introduce un universo di nuove domande e responsabilità che hanno un precedente legale. La spiegazione dell'intelligenza artificiale, ovvero la capacità di vedere i sistemi di intelligenza artificiale "all'interno" e comprendere quali fattori, ponderazione e parametri hanno determinato un determinato risultato o decisione - è una sfida significativa, in particolare per le industrie regolamentate. Ciò è problematico in termini di scarsa responsabilità, conformità normativa, antidiscriminazione, tutela dei consumatori ed erroneità nel modello.

 

 

Un'altra area per una maggiore trasparenza è l'impatto dell'IA sull'adesione alla conformità normativa, sia le normative esistenti sia quelle nuove sulla protezione dei dati come il Regolamento globale sulla protezione dei dati (GDPR). Tale regolamento limita espressamente la profilazione automatizzata e richiede ai responsabili del trattamento dei dati di informare gli utenti "informazioni significative sulla logica in questione, nonché sul significato e sulle conseguenze previste di tale trattamento per l'interessato", tra una miriade di altre nuove regole.

 

I team di etica e conformità devono collaborare con l'IT, la produzione, la sicurezza e non solo per aderire alle leggi, ma anche allineare i sistemi ai valori organizzativi. Invece di seppellire le comunicazioni sui dati che vengono date agli utenti in interminabili e illegibili - spesso in font piccolissimi - Termini di servizio, le organizzazioni devono affrontare i compromessi frontalmente, spiegare il valore delle partnership di dati, sviluppare processi per la garanzia della qualità dei dati tra i partner, essere trasparenti sull'uso delle interfacce AI e dotare front- dipendenti di linea con formazione, contenuti e comunicazioni pertinenti.

 

L'intelligenza artificiale è un gioco a lungo termine, ma mai come ora è il momento di allocare risorse all'etica.

 

Non è una coincidenza che le aziende che guidano la spinta innovativa nell'intelligenza artificiale siano quelle che segnalano i loro sforzi per indirizzare l'etica dell'intelligenza artificiale sul mercato.

 

Solo a giugno 2018 (dopo numerosi fallimenti e un intenso controllo), Google, una delle principali organizzazioni mondiali nello sviluppo dell'IA per quasi un decennio, ha  pubblicato sette principi "che governano attivamente la nostra ricerca e lo sviluppo del prodotto e influenzeranno il nostro decisioni aziendali. Le organizzazioni nelle prime fasi del loro viaggio con l'AI possono trarre vantaggio da questi apprendimenti, allocando risorse per affrontare la questione etica in anticipo. La preparazione etica per introdurre l'AI inizia a monte, coltivando l'etica nella cultura dell'organizzazione, dando alle persone il potere di fare la cosa giusta e affrontando i problemi con trasparenza, anche se altre pressioni aziendali potrebbero essere contrastanti.

 

Uno sguardo finale

Dobbiamo ricordare che per guidare l’innovazione verso un autentico sviluppo umano che non danneggi le persone e non crei forti disequilibri globali, è importante affiancare l’etica alla tecnologia. Rendere questo valore morale qualcosa di comprensibile da una macchina, comporta la creazione di un linguaggio universale che ponga al centro l’uomo: un algor-etica che ricordi costantemente che la macchina è al servizio dell’uomo e non viceversa.

 

 

 

 

 

 

 

Share on Facebook
Share on Twitter
Please reload