• Paolo Benanti

Gli 007 di Sua Maestà hanno bisogno dell'AI

Il Royal United Services Institute (RUSI) è stato incaricata dal Government Communications Headquarters (GCHQ), l'agenzia governativa che si occupa della sicurezza, nonché dello spionaggio e controspionaggio, nell'ambito delle comunicazioni, attività tecnicamente nota come SIGINT, di condurre uno studio di ricerca indipendente sull'uso dell'intelligenza artificiale (IA) per scopi di sicurezza nazionale. Vediamone i contenuti salienti.



Il RUSI, fondato nel 1831 è il più antico e il più importante think tank di difesa e sicurezza del Regno Unito, la sua missione è quella di informare, influenzare e rafforzare il dibattito pubblico sui fattori di sicurezza interni ed esterni al Regno Unito, ponendosi come indipendente da ogni partito.



L'obiettivo di questo progetto è quello di stabilire una base di prove indipendente per informare gli sviluppi futuri della politica in materia di sicurezza nazionale sull'uso dell'AI.


I risultati si basano su un'approfondita consultazione con le parti interessate provenienti da tutta la comunità di sicurezza nazionale del Regno Unito, le forze dell'ordine, le aziende del settore privato, gli esperti accademici e legali e i rappresentanti della società civile. In una nota al testo si afferma che i risultati presentati si basano su una combinazione di ricerca aperta e chiusa. Il contenuto deriva principalmente da interviste riservate e focus group con intervistati provenienti da tutta la comunità della sicurezza nazionale del Regno Unito. Sebbene i riferimenti open-source siano inclusi in tutto il documento, non è sempre possibile fornire una fonte specifica per i risultati e le conclusioni della ricerca.


A ciò si è aggiunta una revisione mirata della letteratura esistente sul tema dell'IA e della sicurezza nazionale. La ricerca ha rilevato che l'AI offre numerose opportunità per la comunità della sicurezza nazionale del Regno Unito per migliorare l'efficienza e l'efficacia dei processi esistenti. I metodi di machine learning basati sull'AI possono rapidamente ricavare intuizioni da grandi e disparati set di dati e identificare connessioni che altrimenti passerebbero inosservate agli operatori umani.



Tuttavia, nel contesto della sicurezza nazionale e dei poteri conferiti alle agenzie di intelligence del Regno Unito, l'uso dell'IA potrebbe dare luogo a ulteriori considerazioni sulla privacy e sui diritti umani che dovrebbero essere valutate nell'ambito del quadro giuridico e normativo esistente. Per questo motivo, sono necessarie una politica e una guida rafforzate per garantire che le implicazioni sulla privacy e sui diritti umani degli usi dell'IA in materia di sicurezza nazionale siano costantemente riesaminate in quanto vengono applicati nuovi metodi di analisi ai dati.

La ricerca evidenzia tre modi in cui le agenzie di intelligence potrebbero cercare di implementare l'IA:


  1. L'automazione dei processi organizzativi amministrativi potrebbe offrire notevoli risparmi in termini di efficienza, ad esempio per assistere nei compiti di routine di gestione dei dati, o migliorare l'efficienza dei processi di conformità e supervisione.

  2. A fini di sicurezza informatica, l'IA potrebbe identificare in modo proattivo il traffico di rete anomalo o il software dannoso e rispondere in tempo reale a comportamenti anomali.

  3. Per l'analisi di intelligence, i sistemi di 'Augmented Intelligence' (AuI) potrebbero essere usati per supportare una serie di processi di analisi umana, tra cui: a. l'elaborazione del linguaggio naturale e l'analisi audiovisiva, come la traduzione automatica, l'identificazione degli altoparlanti, il riconoscimento degli oggetti e la sintesi video. b. Filtraggio e triage del materiale accumulato attraverso la raccolta di massa. c. Analisi comportamentale per ricavare intuizioni a livello di singolo soggetto.


Nessuno dei casi d'uso dell'AI identificati nella ricerca può sostituire il giudizio umano. I sistemi che tentano di "prevedere" il comportamento umano a livello individuale hanno probabilmente un valore limitato ai fini della valutazione delle minacce. Ciononostante, l'uso di sistemi di AI per raccogliere informazioni da più fonti e segnalare dati significativi per la revisione umana è probabilmente in grado di migliorare l'efficienza delle attività di analisi focalizzate sui singoli soggetti.


Il requisito dell'AI è ancora più pressante se si considera la necessità di contrastare le minacce abilitate all'AI per la sicurezza nazionale del Regno Unito. Gli attori malintenzionati cercheranno senza dubbio di utilizzare l'IA per attaccare il Regno Unito ed è probabile che gli attori statali ostili più capaci, che non sono vincolati da un quadro giuridico equivalente, stiano sviluppando o abbiano sviluppato capacità offensive abilitate all'IA.

Col tempo, anche altri attori di minaccia, compresi i gruppi di criminali informatici, saranno in grado di trarre vantaggio da queste stesse innovazioni dell'IA.


  • Le minacce alla sicurezza digitale includono l'uso di malware polimorfico che cambia frequentemente le sue caratteristiche identificabili per eludere il rilevamento o l'automazione di attacchi di social engineering per colpire le singole vittime.

  • Le minacce alla sicurezza politica includono l'uso della tecnologia "deepfake" per generare media sintetici e disinformazione, con l'obiettivo di manipolare l'opinione pubblica o di interferire con i processi elettorali.

  • Le minacce alla sicurezza fisica sono una preoccupazione meno immediata. Tuttavia, una maggiore adozione della tecnologia dell'Internet degli oggetti (Internet of Things), dei veicoli autonomi, delle "città intelligenti" e delle infrastrutture nazionali critiche interconnesse creerà numerose vulnerabilità che potrebbero essere sfruttate per causare danni o interruzioni.


Ci sono opportunità e rischi legati all'intrusione nella privacy. L'AI ha probabilmente il potenziale per ridurre l'intrusione, riducendo al minimo il volume dei dati personali soggetti a revisione umana. Tuttavia, è stato anche sostenuto che il grado di intrusione è equivalente indipendentemente dal fatto che i dati siano elaborati da un algoritmo o da un operatore umano. Inoltre, l'uso dell'AI potrebbe comportare l'elaborazione di materiale aggiuntivo che potrebbe non essere stato possibile in precedenza per motivi tecnici o di capacità.


Di ciò si dovrà tener conto nella valutazione della proporzionalità di qualsiasi potenziale intrusione, a fronte dell'aumento dell'efficacia dell'analisi che ne può derivare. La "profilazione algoritmica" potrebbe essere considerata più intrusiva dell'analisi manuale e solleverebbe ulteriori preoccupazioni in materia di diritti umani se fosse percepita come ingiustamente distorta o discriminatoria.


La salvaguardia contro i bias delle macchine richiederà processi interni per il monitoraggio continuo e la mitigazione del rischio di discriminazione in tutte le fasi di un progetto di AI, oltre a garantire la diversità demografica nei team di sviluppo dell'AI.


Molti commentatori hanno suscitato preoccupazione riguardo alla natura di "black box" di alcuni metodi di AI, che può portare a una perdita di responsabilità del processo decisionale complessivo. Al fine di garantire che gli operatori umani mantengano la responsabilità finale per il processo decisionale informato dall'analisi, sarà essenziale progettare i sistemi in modo tale che gli utenti non tecnicamente qualificati possano interpretare e valutare criticamente le informazioni tecniche chiave come i margini di errore e l'incertezza associati a un calcolo.



Nonostante la proliferazione di "principi etici" per l'IA, rimane incerto come questi debbano essere resi operativi nella pratica, suggerendo la necessità di ulteriori linee guida settoriali specifiche per gli usi di sicurezza nazionale dell'IA. Un approccio agile all'interno del regime di supervisione esistente per anticipare e comprendere le opportunità e i rischi presentati dalle nuove capacità di AI sarà essenziale per garantire che la comunità di intelligence del Regno Unito possa adattarsi in risposta all'ambiente tecnologico in rapida evoluzione e al panorama delle minacce.

0 visualizzazioni