• Paolo Benanti

AI per riconoscere emozioni: tecnologia da vietare?

La tecnologia di riconoscimento delle emozioni dovrebbe essere vietata, afferma un istituto di ricerca AI. Ci sono poche basi scientifiche per la tecnologia di riconoscimento delle emozioni, quindi dovrebbe essere vietato l'uso nelle decisioni che influenzano la vita delle persone, afferma l'Istituto di ricerca AI Now nel suo rapporto annuale. Vediamone i dettagli.



Questo è il testo del rapporto sul riconoscimento delle emozioni:


Il riconoscimento delle emozioni da immagini del volto è una tecnologia basata sull'intelligenza artificiale che sostiene di essere in grado di rilevare lo stato emotivo di un individuo basato sull'uso di algoritmi di visione artificiale per analizzare le microespressioni facciali, il tono di voce o anche dall'andatura. Viene rapidamente commercializzata per una vasta gamma di scopi, dai tentativi di identificare il dipendente perfetto alla valutazione del dolore del paziente al monitoraggio di quali studenti sono attenti in classe. Eppure, nonostante l'ampia applicazione della tecnologia, la ricerca mostra che il riconoscimento delle emozioni si basa su fondamenta marcatamente traballanti.



L'industria del riconoscimento delle emozioni sta attraversando un periodo di crescita significativa: alcuni rapporti indicano che il mercato del rilevamento delle emozioni e del riconoscimento valeva 12 miliardi di dollari nel 2018, e con una stima ottimistica, si prevede che l'industria crescerà fino a oltre 90 miliardi di dollari entro il 2024. Queste tecnologie sono spesso stratificate in aggiunta ai sistemi di riconoscimento facciale come un "valore aggiunto". Ad esempio, l'azienda Kairos sta commercializzando telecamere di video-analisi che pretendono di rilevare i volti e poi classificarli come sensazione di rabbia, paura e tristezza, insieme a raccogliere l'identità del cliente e i dati demografici. Kairos vende questi prodotti a casinò, ristoranti, commercianti al dettaglio, broker immobiliari e il settore dell'ospitalità, il tutto con la promessa che aiuteranno queste aziende a vedere all'interno del panorama emotivo dei loro clienti. Nel mese di agosto, Amazon ha affermato che il suo software di riconoscimento facciale Rekognition potrebbe ora valutare la paura oltre ad altre sette emozioni. Anche se ha rifiutato di fornire tutti i dettagli su come viene utilizzato dai clienti, ha indicato la vendita al dettaglio come un potenziale caso d'uso, illustrando come i negozi possono analizzare le immagini in tempo reale degli acquirenti per rilevarne le tendenze emotive e demografiche.



Il mondo del lavoro ha anche sperimentato un aumento nell'uso del riconoscimento delle emozioni, con aziende come HireVue e VCV che offrono di vagliare i candidati per qualità come "la grinta" e per monitorare la frequenza con cui sorridono. I programmi del call center Cogito ed Empath utilizzano algoritmi di analisi vocale per monitorare le reazioni dei clienti e segnalare agli agenti di chiamata quando questi sono angosciati. Programmi simili sono stati proposti come tecnologia assistiva per le persone con autismo, mentre l'azienda brainCo con sede a Boston sta creando fasce da applicare alla testa che pretendono di rilevare e quantificare i livelli di attenzione degli studenti attraverso il rilevamento dell'attività cerebrale, nonostante studi che delineano i rischi significativi associati all'impiego di IA emotiva in classe.


Anche il software di riconoscimento delle emozioni è stato inserito nella valutazione del rischio come strumento nella giustizia penale. Ad esempio, la polizia negli Stati Uniti e nel Regno Unito sta utilizzando il software di rilevamento degli occhi Converus, che esamina i movimenti oculari e i cambiamenti nelle dimensioni delle pupille per segnalare potenziali menzogne. Oxygen Forensics, che vende strumenti di estrazione dati a clienti tra cui l'FBI, Interpol, London Metropolitan Police, e Hong Kong Customs, ha annunciato che a luglio ha aggiunto il riconoscimento facciale, compreso il rilevamento delle emozioni, al suo software, che include " l'analisi di video e immagini catturati dai droni utilizzati per identificare possibili terroristi noti".



Ma spesso il software non funziona. Ad esempio, ProPublica ha riferito che scuole, prigioni, banche e ospedali hanno installato microfoni da aziende che implementano software sviluppato dalla società Sound Intelligence, pretendendo di rilevare lo stress e l'aggressione prima che scoppi la violenza. Ma il "rivelatore di aggressività" non era molto affidabile, rilevando suoni ruvidi e acuti, come ad esempio la tosse, come segni di aggressività. Un altro studio del ricercatore Lauren Rhue ha trovato pregiudizi razziali sistematici in due noti programmi di riconoscimento delle emozioni: quando ha eseguito Face++ e Microsoft Face API su un set di dati di 400 foto dei giocatori NBA, ha scoperto che entrambi i sistemi assegnavano in media ai giocatori neri più punteggi emotivi negativi, indipendentemente da quanto sorridessero.


Non si hanno ancora che poche o nessuna prova che questi nuovi prodotti di riconoscimento delle emozioni abbiano una validità scientifica. Nel mese di febbraio, i ricercatori di Berkeley hanno scoperto che per rilevare le emozioni con precisione e alta affidabilità si richiede un contesto al di là del viso e del corpo. Il ricercatore Ruben van de Ven fa questo punto nella sua esplorazione del riconoscimento delle emozioni, citando l'“Effetto Kuleshov”, un esperimento dell'inizio del ventesimo secolo in cui il regista Lev Kuleshov "ha curato tre sequenze video. Ogni sequenza mostrava lo stesso volto 'neutro' di un uomo, seguito dall'immagine di un uomo morto, di un piatto di zuppa o di una donna [...] Quando queste sequenze furono mostrate, il pubblico 'delirava sul senso della recitazione', credendo che l'uomo che 'guardava' l'uomo morto, la zuppa o la donna, esprimesse rispettivamente dolore, fame o desiderio". Altri alla University of Southern California hanno chiesto una sospensione nell'uso di alcune tecniche di analisi delle emozioni alla 8a International Conference on Affective Computing and Intelligent Interaction di quest'anno. "'La tecnologia di riconoscimento delle espressioni facciali sta realizzando qualcosa – solo non è ancora molto ben correlata con ciò per cui la gente vuole usarla. Quindi saranno fatti degli errori, e in alcuni casi, questi errori causeranno danni," ha detto il professor Jonathan Gratch.



Un'importante rassegna pubblicata quest'estate ha rilevato che gli sforzi per "leggere" gli stati interni delle persone da un'analisi dei movimenti facciali da soli, senza considerare il contesto, sono nella migliore delle ipotesi incompleti e nel peggiore dei casi mancano del tutto di validità. Dopo aver esaminato oltre un migliaio di studi sull'espressione delle emozioni, gli autori hanno scoperto che, sebbene queste tecnologie affermino di rilevare lo stato emotivo, in realtà raggiungono un risultato molto più modesto: rilevare i movimenti facciali. Come dimostra lo studio, c'è una notevole quantità di varianza nel modo in cui le persone comunicano il loro stato emotivo attraverso culture, situazioni, e anche tra le persone all'interno di una singola situazione. Inoltre, la stessa combinazione di movimenti del viso, ad esempio un sorriso o un cipiglio, può esprimere più di una singola emozione. Gli autori concludono che "non importa quanto sofisticati gli algoritmi computazionali [...] è prematuro utilizzare questa tecnologia per giungere a conclusioni su ciò che le persone sentono sulla base dei loro movimenti facciali".


Considerati i contesti ad alto interesse in cui vengono utilizzati i sistemi di riconoscimento delle emozioni e la loro rapida proliferazione negli ultimi anni, la loro validità scientifica è un settore in particolare che ha bisogno di ricerca e attenzione politica, soprattutto quando prove scientifiche suggeriscono che le indicazioni fatte circa la loro efficacia non reggono. In breve, dobbiamo esaminare perché le entità utilizzano una tecnologia difettosa per fare valutazioni sul carattere sulla base dell'aspetto fisico in primo luogo. Ciò è particolarmente preoccupante in contesti quali l'occupazione, l'istruzione e la giustizia penale.

In sintesi ecco perché le AI che si propongono di offrire il riconoscimento emotivo dovrebbero essere ben regolate:

Un mercato in forte espansione: nonostante la mancanza di prove del fatto che le macchine possano capire come ci sentiamo, si stima che il riconoscimento delle emozioni sia almeno un mercato da 20 miliardi di dollari e che sta crescendo rapidamente . La tecnologia è attualmente utilizzata per valutare i candidati e le persone sospettate di reati, ed è in fase di test per ulteriori applicazioni, come nelle cuffie VR per dedurre gli stati emotivi dei giocatori.


Ulteriori problemi: ci sono anche prove che il riconoscimento delle emozioni possa amplificare le disparità di genere e di razza. I regolatori dovrebbero intervenire per limitarne fortemente l'uso e fino ad allora le aziende di AI dovrebbero smettere di implementarlo, ha dichiarato AI Now. In particolare, ha citato un recente studio dell'Associazione per le scienze psicologiche, che ha trascorso due anni a rivedere più di 1.000 articoli sulla rilevazione delle emozioni e ha concluso che è molto difficile usare le espressioni facciali da solo per dire accuratamente come si sente qualcuno. 


Altre preoccupazioni: nel suo rapporto, AI Now ha invitato i governi e le aziende a smettere di usare la tecnologia di riconoscimento facciale per applicazioni sensibili fino a quando i rischi non sono stati adeguatamente studiati e ha attaccato l'industria dell'intelligenza artificiale per il suo "razzismo sistemico, misoginia e mancanza di diversità". Ha anche richiesto la divulgazione obbligatoria dell'impatto ambientale dell'industria dell'IA .


Sempre più abbiamo bisogno di algor-etica.