• Paolo Benanti

Microsoft: non vendiamo AI se c'è pericolo per i diritti


Reuters riporta che secondo le dichiarazioni del presidente Brad Smith, la Microsoft ha recentemente respinto la richiesta da parte delle forze dell'ordine della California di installare la tecnologia di riconoscimento facciale nelle auto degli agenti e nelle telecamere indossabili a causa di timori sulla tutela dei diritti umani.

La Microsoft ha declinato l'offerta di partnership commerciale con la polizia dopo aver concluso che l'implementazione di questa tecnologia avrebbe potuto portare donne innocenti e alcuni membri di minoranze etniche a essere sproporzionatamente fermate, rispetto ad altri soggetti, per accertamenti. Infatti i sistemi di face recognition mossi da intelligenza artificiale sono stati addestrata principalmente su immagini di persone bianche e di sesso maschili.

Gli ingegneri di Microsoft sanno che l'AI commette più errori di identità con donne e minoranze etniche come diversi progetti di ricerca hanno più volte dimostrato.

"Ogni volta che avrebbero fatto accostare qualcuno, avrebbero voluto eseguire una scansione facciale" rispetto a un database di sospetti, ha detto Smith senza però nominare l'agenzia che aveva fatto questo richiesta. Dopo aver riflettuto sull'impatto e sulle disuguaglianze che questa forma di uso dell'AI poteva portare, "abbiamo detto che questa tecnologia non è la vostra risposta".

Parlando a una conferenza della Stanford University su una "human-centered artificial intelligence", Smith ha detto che Microsoft ha anche rifiutato un accordo per installare il riconoscimento facciale sulle telecamere che inondano la capitale di un paese - rimasto anonimo - che l'associazione nonprofit Freedom House non aveva ritenuto libero. Smith ha detto che tale tecnologia di fatto avrebbe soppresso in quel contesto ogni libertà di assembramento.

Invece, Microsoft ha accettato di fornire questa tecnologia a una prigione americana, dopo che la società ha concluso che l'ambiente di utilizzo sarebbe stato limitato e che questa avrebbe migliorato la sicurezza all'interno di questa istituzione anch'essa rimasta anonima.

Smith ha spiegato le decisioni come parte di un impegno per i diritti umani che, a suo avviso, è diventato sempre più critico e urgente in quanto i rapidi progressi tecnologici consentono ai governi di condurre una sorveglianza totale, dispiegare armi autonome e adottare altre misure che potrebbero rivelarsi impossibili da mitigare o invertire.

A dicembre, Microsoft ha dichiarato che sarebbe stata trasparente rispetto alle carenze nella tecnologia del riconoscimento facciale e ha chiesto ai suoi clienti di essere a loro volta trasparenti su come intendevano usare tale tecnologia, senza però smettere di escludere le vendite alla polizia.

Smith ha chiesto una maggiore regolamentazione del riconoscimento facciale e altri usi dell'intelligenza artificiale, e ha avvertito martedì che senza questo, le aziende che accumulano il maggior numero di dati potrebbero vincere la gara per sviluppare la migliore intelligenza artificiale in quella che ha definito una "corsa verso il basso".

Ha condiviso il palco con l'Alto Commissario delle Nazioni Unite per i diritti umani, Michelle Bachelet, che ha esortato le aziende tecnologiche ad astenersi dal costruire nuovi strumenti senza appesantirne l'impatto.

"Per favore incarnate l'approccio sui diritti umani quando sviluppate la tecnologia", ha detto Bachelet, ex presidente del Cile.

Reuters riporta nel suo articolo che il portavoce di Microsoft Frank Shaw non ha voluto nominare i potenziali clienti a cui la società ha rifiutato di vendere tecnologia.

Azioni come questa seguono l'incontro tra papa Francesco e Brad Smith, con la Pontificia Accademia per la Vita del 13 febbraio scorso. In quella occasione Smith ha parlato dell’Intelligenza Artificiale al servizio del bene comune e di alcune attività per colmare il divario digitale che ancora persiste a livello globale.

All'epoca è stato annunciato al Santo Padre che Microsoft, assieme alla Pontificia Accademia per la Vita, promuoverà un premio internazionale sull’etica nell’Intelligenza Artificiale, tema dell’Assemblea dell’Accademia 2020.

Abbiamo bisogno di cammini condivisi per costruire un futuro di pace e giustizia.

#cybersecurity #algoritmi #Machinelearning #Digitale #governance