• Paolo Benanti

AI ed armi: i primi sistemi USA

Nand Mulchandani, direttore facente funzione del Joint AI Center (JAIC) ha rilasciato un intervista al sito VentureBeat sui progetti di utilizzo di AI per sistemi letali. Vediamo in dettaglio cosa ha raccontato.

Nand Mulchandani, direttore facente funzione del Joint AI Center (JAIC), ha dichiarato che uno dei primi progetti di sistemi letali che utilizzano l'AI sviluppati dal JAIC sta ora procedendo in una fase di test. Il JAIC è stato fondato nel 2018 per agire come collettore e capofila del Pentagono in tutti i progetti sull'impiego dell'AI in ambito bellico e di sicurezza nazionale. I primi progetti si sono concentrati sull'impiego di AI per sistemi definiti non-letali.


Nand Mulchandani, direttore facente funzione del Joint AI Center del Pentagono


Ci sembra importante ricordare che in ambito bellico non-letale non equivale a non-in-grado-di-uccidere. Infatti le armi non letali sono armi destinate ad essere meno propensi a uccidere un bersaglio vivente di armi convenzionali, come i coltelli e armi da fuoco. Si è spesso sottolineato nell'argomentare su questi sistemi che le vittime non intenzionali o accidentali sono possibili ovunque sia applicata la forza, ma le armi non letali dovrebbero cercare di ridurre al minimo il rischio di uccisione. Le armi non letali sono utilizzati in polizia e il combattimento situazioni di limitare l'escalation del conflitto in cui è proibito o indesiderabile impiego di forza letale, dove le regole di ingaggio richiedono perdite minime, o dove il diritto limita l'uso della forza convenzionale.


Mulchandani ha condiviso pochi dettagli su questo progetto, ma ha definito il progetto come uno sviluppo di "AI tattiche" che coinvolgerà comunque un pieno controllo umano. Nel parlare del progetto lo ha definito come un "prodotto di punta" di JAIC per operazioni di combattimento bellico congiunte.


“È vero che molti dei prodotti su cui lavoriamo andranno nei sistemi di armi. Tuttavia nessuno di di questi in questo momento sarà un sistema d'arma autonomo, siamo ancora governati dalla direttiva 3000.09", ha detto. "La parola letalità, e penso che sia qui che tornano alla mente i robot assassini e le cose viste in Terminator, è il caso limite su cui tutti si concentrano, ma è un caso limite estremo, e non siamo in nessun modo vicino ad esso nelle piattaforme, nelle tecnologie, nelle capacità, nell'hardware, nel software, negli algoritmi in sviluppo per realizzare o avvicinarsi a realizzare tutto ciò, ma ovviamente è lì che tutti pensano parlando di questi temi”.



La direttiva 3000.09 del Dipartimento della Difesa USA stabilisce in che modo le diverse forze armate possono automatizzare i sistemi d'arma.


Il Dipartimento della Difesa ha affidato al JAIC la responsabilità delle iniziative AI del Pentagono lo scorso anno. Mulchandani è diventato direttore del JAIC a maggio in seguito al ritiro del tenente generale dell'aeronautica militare Jack Shanahan. In un'intervista a maggio, Mulchandani aveva detto sempre a VentureBeat di aver lavorato per le startup della Silicon Valley prima di venire al Pentagono un anno fa.


Mulchandani e il JAIC hanno presentato in una conferenza stampa una vasta gamma di argomenti tra cui una "guerra globale per i talenti dell'IA" nel contesto di una politica di immigrazione statunitense sempre più restrittiva, e hanno affermato che gli Stati Uniti continuano a guidare l'AI rispetto alla Cina in molti le zone (anche se non ha parlato del trend di questi dati). Mulchandani ha affermato che la leadership cinese in settori come il riconoscimento facciale è dovuta alle limitazioni in materia imposte dagli standard sui diritti umani delle forze armate statunitensi. Ha ricordato che il JAIC non sta attualmente testando alcuna forma di riconoscimento facciale.



“Non è che l'esercito degli Stati Uniti sia tecnologicamente incapace di sviluppare tali sistemi. È che le nostre leggi sulla costituzione e sulla privacy proteggono i diritti dei cittadini statunitensi, ed è così che i loro dati vengono raccolti e utilizzati, e quindi semplicemente non investiamo nella costruzione di tali sistemi di sorveglianza e censura universali", ha detto.


L'Information Warfare è la più recente delle sei iniziative di missione del JAIC. L'uso di tecniche di intelligenza artificiale come l'elaborazione del linguaggio naturale (NLP) per condensare ed elaborare informazioni, comprese alcune fornite da aziende private, svolgerà un ruolo nell'aiutare gli sforzi nelle sempre più frequenti guerre di informazioni, ha affermato il driettore del JAIC. La PNL sarà anche al centro dei sistemi congiunti di comando e controllo di tutti i domini, un'iniziativa per aiutare i comandanti nel triage delle comunicazioni.


Più in generale, Mulchandani ha parlato dell'enorme potenziale di utilizzo dell'IA in capacità offensive in settori come la sicurezza informatica. Mulchandani ha rifiutato di offrire esempi particolari, ma ha generalmente indicato la scoperta di vulnerabilità e le debolezze delle reti. Prima di lui anche il generale Shanahan aveva discusso questioni di guerra algoritmica .


La conferenza stampa ha anche dettagliato gli sviluppi negli ultimi mesi, tra cui un contratto da 800 milioni di collari con Booz Allen Hamilton e il Project Salus, una serie di algoritmi sviluppati dal JAIC per le unità NORTHCOM e la Guardia Nazionale per prevedere le sfide delle risorse della catena di approvvigionamento durante la pandemia di COVID-19 (come ad esempio la disponibilità d'acqua o le camere d'albergo libere). Il JAIC si occuperà anche dell'addestramento delle diverse forze armate sull'etica dell'intelligenza artificiale e della messa in pratica dei principi di etica dell'intelligenza artificiale adottati a febbraio dall'amministrazione.



Ricordiamo che il JAIC è forse meglio conosciuto nei circoli tecnologici come il creatore del Progetto Maven, che ha portato a proteste e azioni collettive da parte di migliaia di dipendenti di Google, portando infine Google a impegnarsi nei propri principi etici di AI per non creare armi autonome.


Tuttavia ancora oggi Google e altri giganti della tecnologia continuano a fare offerte per contratti federali. Un'analisi di indagine tecnica pubblicata la scorsa settimana ha trovato forti legami tra giganti della tecnologia come Amazon, Google e Microsoft, che detengono migliaia di contratti redditizi con il Pentagono e le forze dell'ordine federali.


Sempre parlando di difesa, bisogna ricordare che alcune commissioni della Camera e del Senato hanno recentemente approvato alcuni emendamenti al National Defense Authorization Act (NDAA) del 2021 per includere alcune linee guida del Consiglio di sicurezza nazionale sull'intelligenza artificiale e impostare finanziamenti per aiutare a stabilire una strategia nazionale di intelligenza artificiale.


La velocità e la pervasività delle AI specie nei sistemi d'arma e nelle forze armate mostra come sia sempre più necessaria una forte presa di coscienza dell'opinione pubblica e che si debbano al più presto formulare non solo dei principi etici o strumenti di soft law ma delle leggi e regolamenti altamente stringenti per regolare applicazioni dell'AI in settori così critici. Abbiamo bisogno che l'algor-etica informi il diritto.