• Paolo Benanti

AI e difesa: individuare vulnerabilità psicologiche nei soldati

Il Dipartimento della Difesa USA vuole un'intelligenza artificiale che sappia quando i cambiamenti nel comportamento potrebbero avere "esiti negativi indesiderati" per le truppe, le loro unità e le loro missioni.

Quando un compagno di squadra sta lottando con depressione, salute mentale o altri problemi psicologici, può avere un effetto debilitante su tutta la squadra. Durante un'operazione militare, tali questioni, se lasciate senza indirizzo, possono portare a fallimento della missione, lesioni e morte.


Per evitare che i problemi di salute mentale diventino un problema sul campo di battaglia, l'Unità per l'innovazione della difesa (la Defence Innovation Unit o DIU) - una squadra all'interno del Dipartimento della Difesa che utilizza appaltatori non tradizionali per portare le ultime tecnologie ai militari - vuole sviluppare un'intelligenza artificiale predittiva in grado di contrassegnare i cambiamenti di comportamento in un membro del servizio. Il DIU ha pubblicato una richiesta utilizzando l'Other Transaction Authorities o tradotto letteralmente "l'altra autorità di transazione": questo temine tecnico indica una procedura di acquisto diversificata dai metodi standard.


Già la forma della commessa è particolare e fa pensare. Infatti: "Sotto queste autorità, le agenzie possono sviluppare accordi che non sono tenuti a seguire un formato standard o includere termini e condizioni che sono in genere richiesti quando si utilizzano meccanismi tradizionali", secondo una definizione dell'Ufficio di responsabilità del governo.



Quindi abbiamo la scelta di un metodo di acquisizione al di fuori del regolamento federale sugli acquisti di forniture e servizi, per trovare una soluzione di intelligenza artificiale in grado di "aggregare, strutturare e analizzare set di dati, acquisire informazioni dettagliate e consentire a un'organizzazione di supportare meglio i propri membri che espongono cambiamenti comportamentali che possono indicare una maggiore vulnerabilità ". Il progetto è stato soprannominato "Vigilant Keeper". Sebbene la pubblicazione del bando non fornisca informazioni specifiche sul tipo di vulnerabilità di cui il DIU è preoccupato, i cambiamenti comportamentali possono essere causati da una serie di fattori, tra cui problemi di salute mentale e traumi fisici o mentali. In alcuni casi, improvvisi cambiamenti comportamentali sono accompagnati da confusione e perdita di coscienza o "comportamento minaccioso, irrazionale o suicida", secondo una definizione di healthgrades.com.


"La vulnerabilità in questo caso si riferisce specificamente a circostanze e comportamenti che mettono i membri a maggior rischio di coinvolgimento in attività e situazioni che potrebbero produrre esiti negativi indesiderati, sia per le persone che per la missione", afferma il bando di acquisto, "il miglioramento delle capacità analitiche consentirebbe al Dipartimento della Difesa di migliorare il triage e la cura dei militari bisognosi riducendo al contempo i falsi positivi che mettono a dura prova le risorse esistenti". I venditori vincitori avranno 12 mesi per sviluppare prototipi funzionanti in grado di integrare il lavoro dei medici professionisti del Dipartimento della Difesa. "Dovrebbe favorire miglioramenti laddove l'organizzazione raccolga e mantenga già statistiche di intervento, diminuisca i falsi positivi e si integri per ridurre il carico di lavoro degli utenti aumentando l'accuratezza", afferma l'invito a presentare proposte.


Il bando include otto requisiti:


  1. Costruire e mantenere modelli comportamentali unici che rappresentino le persone nel tempo.

  2. Costruisci e gestisci tag di record storici unici per le persone che utilizzano dati statici nel tempo.

  3. Identificare le singole deviazioni comportamentali dai loro modelli di base univoci insieme al rilevamento separato delle anomalie in base alle linee guida fornite dall'utente.

  4. Crea output e display ottimizzati per le esigenze di consegna delle informazioni degli utenti primari, compresa la piena trasparenza su come e perché i dati hanno guidato l'output, ad esempio avvisi, approfondimenti, grafica, istogrammi, timeline, raccomandazioni, ecc.

  5. Indirizza con precisione i professionisti del supporto verso le esigenze individuali più acute, ovvero triage coloro che hanno bisogno di aiuto al più presto.

  6. Consentire l'accelerazione delle misure proattive esistenti volte a ridurre la vulnerabilità dei membri e il numero di risultati negativi associati.

  7. Rispettare la privacy, le libertà civili, l'etica, l'autorità legale e altre considerazioni commerciali che regolano le missioni di gestione del personale applicabili.

  8. Includi archiviazione dei dati, elaborazione e sviluppo iterativo dell'interfaccia uomo-macchina in collaborazione con utenti primari.

I venditori devono obbligatoriamente avere sede negli Stati Uniti e di proprietà, "e tutto il personale che lavora a tale scopo a qualsiasi titolo deve essere cittadino americano", afferma il bando.



Prima di congedarci ci limitiamo a notare che pur non sapendo a cosa questo porterà, il bando del DIU è interessante per varie ragioni.


In primo luogo si sceglie di utilizzare sistemi di AI per accompagnare/surrogare il supporto medico al di fuori di studi o evidenze scientifiche a priori. I sistemi acquisiti vanno a toccare ambiti delicatissimi e sono quindi altamente sensibili.


L'uso di una procedura informale dà a questo bando una prospettiva che fa pensare.


L'idea che il mondo militare stia sempre di più datificando il suo personale per compiere analisi granulometriche in tempo reale è uno scenario che mostra l'urgenza e l'importanza di sviluppare paradigmi etici, l'algor-etica, che possano evitare scenari distopici degni di film di fantascienza cyberpunk.