• Paolo Benanti

AI responsabili: impariamo dal passato

Imparare dal passato per creare un'AI responsabile significa confrontarsi con una raccolta di casi d'uso almeno controversi e spesso non etici che hanno caratterizzato lo scenario del mondo delle AI. A seguire una raccolta per temi.


La seguente raccolta di link (tutto materiale originale in inglese) serve come riferimento per ingegneri, data scientist, eticisti, policy makers e altri che prendono decisioni sulla costruzione di soluzioni tecnologiche per problemi del mondo reale. Speriamo che ciò ci aiuti a evitare di ripetere gli errori del passato informando la progettazione di nuovi sistemi o la decisione di non creare affatto una soluzione tecnologica.



1. Problemi di equità e giustizia


Prestito e approvazione del credito


Assunzioni


Valutazione dei dipendenti


Valutazione del rischio pre-processuale e condanna penale



Casi d'uso di polizia preventiva e altre forze dell'ordine


Ammissioni


Scelta della scuola


Rilevazione vocale


Etichettatura delle immagini e riconoscimento facciale



Benefici pubblici e salute


Annunci


Ricerca


Traduzioni


Selezione della giuria


Incontri



Incorporamenti di parole

Gli incorporamenti di parole possono influire su molte delle categorie precedenti tramite le applicazioni che le utilizzano.



Manipolazione


2. Problemi di sicurezza


Auto a guida autonoma


AI armate


3. Problemi della sanità e della medicina


Interpretazione del modello in medicina



4. Problemi di privacy


Attacchi alla privacy basati su Machine Learning


Prestiti bancari


Posti di lavoro


Tecnologia carceraria


Dati sulla posizione


Social media e incontri


Anonimizzazione di base come misura insufficiente



Salute


Antiriciclaggio


5. Risorse generali sull'AI responsabile


Molti dei libri e degli articoli in quest'area coprono una vasta gamma di argomenti. Di seguito è riportato un elenco di alcuni di essi, in ordine alfabetico per titolo:

0 visualizzazioni