top of page
  • Immagine del redattorePaolo Benanti

Robot Killer per la polizia di San Francisco

La polizia di San Francisco ha chiesto di poter utilizzare i robot per uccidere "quando il rischio di perdita di vite umane per i membri del pubblico o per gli agenti è imminente e supera qualsiasi altra opzione di forza a disposizione della polizia di San Francisco". Il 30 novembre 2022, ieri sera, la proposta è stata approvata dal consiglio dei supervisori della città. Cosa comporta tutto questo?

 

La notizia era stata già ventilata la settimana scorsa dal sito TechCrunch che in un articolo del 23 novembre raccontava della proposta presentata dalla polizia della città. Tech Crunch ha seguito più volte il tema in passato e anche su questa vicenda continua a fornire report sempre molto dettagliati dalla baia. Proviamo anche con il loro aiuto a cercare di capire lo stato delle cose.



Nella richiesta fatta dalla polizia, la questione dell'uso letale dei robot è stata inclusa nella presentazione di una nuova Law Enforcement Equipment Policy (Regolamento sull'equipaggiamento delle forze dell'ordine) presentata dal Dipartimento di Polizia di San Francisco in risposta al California Assembly Bill 481, che richiede un inventario scritto dell'equipaggiamento militare utilizzato dalle forze dell'ordine. Il documento presentato al consiglio dei supervisori include molti tipi di armi che sono di uso militare e non civile, tra cui: il veicolo blindato Lenco BearCat, granate flash-bang e 15 mitragliatrici.



Insomma, le scene della SWAT che interviene con equipaggiamenti militari nei film di Hollywood hanno un fondamento nella realtà, ma il board dei supervisori richiede che siano conosciute prima tanto la lista di questi equipaggiamenti tanto le circostanze che consentono alla polizia di utilizzare queste armi e le regole di ingaggio.


Tuttavia, scorrendo l'inventario presentato si scoprono le novità. La lista cita anche 17 robot di proprietà della Polizia di San Francisco, 12 dei quali sono perfettamente funzionanti. Nessuno è stato progettato specificamente per uccidere. Sono per lo più utilizzati per individuare e smaltire le bombe, cosa che i dipartimenti di polizia fanno da anni. Il linguaggio con cui questi sono stati introdotti nella nuova Policy, però, è tale che consente effettivamente un utilizzo di questi - o ad altri - robot non solo per maneggiare esplosivi ed evitare rischi per gli agenti ma anche un uso aggressivo ed eventualmente di uccidere per salvare la vita degli agenti o del pubblico.



Leggendo quanto scritto, la proposta sembra rientrare nella definizione di forza letale "giustificata". Negli Stati Uniti la polizia è autorizzata a sparare quando una situazione soddisfa una serie di criteri, tra cui la legittima difesa e i casi in cui altri rischiano la morte o gravi danni fisici. Un robot non è una pistola, naturalmente (anche se ora siamo a conoscenza di robot dotati di pistole), ma il voto del board, conclusosi a favore della proposta 8-3, approva di fatto l'armamento dei robot in questo tipo di casi.


"I robot equipaggiati in questo modo verrebbero utilizzati solo in circostanze estreme per salvare o prevenire ulteriori perdite di vite innocenti", ha dichiarato Allison Maxie, portavoce della polizia di San Francisco, in un comunicato. Maxie ha aggiunto che i robot potrebbero essere armati di esplosivi, "per contattare, inabilitare o disorientare un sospetto violento, armato o pericoloso".




Tali applicazioni sembrano certamente contrarie allo scopo per cui questi robot sono stati costruiti e acquistati. TechCrunch ci ricorda però che esistono dei precedenti. Nel luglio 2016, il Dipartimento di Polizia di Dallas ha ucciso un sospetto utilizzando un robot armato di bomba in quella che si ritiene essere la prima volta nella storia degli Stati Uniti in cui un robot uccide qualcuno. "Non abbiamo visto altra opzione che usare il nostro robot bomba e posizionare un dispositivo sul suo braccio robotico per farlo esplodere dove si trovava il sospetto", ha dichiarato alla stampa il capo della polizia David Brown dopo l'incidente.


Poiché sempre più robot vengono sviluppati per applicazioni militari, è facile capire come questo linguaggio possa aprire la porta all'acquisizione di sistemi che sono già armati. L'uso di attrezzature militari da parte della polizia è diventato comune nei dipartimenti di polizia statunitensi a seguito del National Defense Authorization Act for Fiscal Year 1997. La sezione 1033 del disegno di legge consente il "trasferimento di beni personali in eccesso a sostegno delle attività di polizia" per la lotta alla droga.



L'anno scorso, l'Electronic Frontier Foundation ha messo in guardia contro il rischio di "missioni striscianti" per quanto riguarda l'uso di robot armati:


Più volte, le tecnologie date alla polizia per essere utilizzate solo nelle circostanze più estreme si fanno strada nelle strade durante le proteste o per rispondere a piccoli crimini. Ad esempio, i simulatori di siti cellulari (spesso chiamati "Stingray") sono stati sviluppati per essere utilizzati in campi di battaglia stranieri, portati in patria in nome della lotta al "terrorismo" e poi utilizzati dalle forze dell'ordine per catturare immigrati e un uomo che ha rubato 57 dollari di cibo. Allo stesso modo, la polizia ha preso di mira i manifestanti della BLM con il riconoscimento facciale e le telecamere del campanello di Amazon Ring.

L'approvazione della proposta sembra andare contro l'immagine di San Francisco come una delle città più liberali d'America. TechCrunch racconta che il dibattito in aula sulla questione è stato vivace e si è protratto per più di due ore e l'esito finale ha visto una vittoria del sì con 8 consiglieri a favore e 3 contrari. La proposta arriva in un momento in cui molti politici di sinistra sono preoccupati di apparire antagonisti nei confronti della polizia.



"Penso che si pongano questioni più ampie quando i progressisti e le politiche progressiste iniziano a sembrare all'opinione pubblica come se fossero anti-polizia", ha raccontato a TechCrunch il membro del consiglio Rafael Mandelman durante l'incontro. "Penso che questo sia un male per i progressisti. Penso che sia un male per questo Consiglio dei Supervisori. Penso che sia un male per i Democratici a livello nazionale".


Il presidente del Comitato per il Regolamento del Consiglio dei Supervisori di SF, Aaron Peskin, aveva precedentemente tentato di inserire un linguaggio che condannasse l'uso dei robot per uccidere. La frase "I robot non devono essere utilizzati come uso della forza contro qualsiasi persona" è stata cancellata dalla polizia di San Francisco.



Il mese scorso Oakland ha combattuto una battaglia simile dall'altra parte della baia. Il dibattito si è concluso in modo diverso. In seguito alle reazioni dell'opinione pubblica, il dipartimento di polizia ha dichiarato: "Il Dipartimento di Polizia di Oakland (OPD) non aggiungerà veicoli remoti armati al dipartimento. L'OPD ha partecipato a discussioni di un comitato ad hoc con la Commissione di polizia di Oakland e i membri della comunità per esplorare tutti i possibili usi del veicolo. Tuttavia, dopo ulteriori discussioni con il capo e il gruppo esecutivo, il dipartimento ha deciso di non voler più esplorare questa particolare opzione".


Il Presidente del Consiglio dei Supervisori di San Francisco, Shamann Walton, ha utilizzato il proprio intervento nel dibattito per mettere in guardia dall'impatto di una simile proposta sulle persone di colore. "Ci viene continuamente chiesto di fare cose in nome dell'aumento degli armamenti e delle opportunità di interazione negativa tra il dipartimento di polizia e le persone di colore", ha osservato durante l'incontro. "Questa è solo un'altra di quelle cose".


Ovviamente al momento non si vedono nel campo robot-killer autonomi ma questa potrebbe essere solo una questione di tempo.



Alla luce di questo via libera al potenziale uso civile di robot letali le questioni etiche si fanno urgenti e la creazione di una barriera algoretica sembra indispensabile.


Per poter sviluppare un algoretica dobbiamo chiarire in che senso si parla di valore. Infatti gli algoritmi lavorano su valori di natura numerica. L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in un qualcosa di computabile per la macchina. La percezione del valore etico è una capacità puramente umana. La capacità di lavorare dei valori numerici è invece l’abilità della macchina. L’algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale. Proviamo a riassumere il cuore della questione, guardando specie alla frontiera, ormai probabile purtroppo, dell'utilizzo di macchine autonome in questo contesto.


Ma nella relazione tra uomo e macchina il vero conoscitore e portatore di valore è la parte umana. La dignità umana e i diritti umani ci dicono che è l’uomo da proteggere nella relazione tra uomo in macchina. Questa evidenza ci fornisce l’imperativo etico fondamentale per la macchina sapiens: dubita di te stessa. Dobbiamo mettere in grado la macchina di avere un certo senso di incertezza. Tutte le volte che la macchina non sa se sta tutelando con certezza il valore umano deve richiedere l’azione dell’uomo. Questa direttiva fondamentale si ottiene introducendo dei paradigmi statistici all’interno delle AI. Tentativi di questo tipo sono portati avanti da Google e Uber con delle librerie statistiche speciali. Deve essere questa capacità di incertezza il cuore del decidere della macchina. Se la macchina ogni volta che si trova in una condizione di incertezza chiede all’uomo allora quello che stiamo realizzando è una intelligenza artificiale che pone l’umano al centro o come si suole dire tra i tecnici uno human-centered design. La norma fondamentale è quella che costruisce tutte le AI in una maniera human-centered.



A partire da questa grammatica di base possiamo sviluppare un nuovo linguaggio universale: l’algoretica. Questo avrà una sua sintassi e svilupperà una sua letteratura. Non è questo il luogo né il momento per dire ogni cosa esprimibile con questa lingua però ci sembra di dover almeno fornire qualche esempio che ne riveli le potenzialità.


  • Anticipation - Quando due umani lavorano assieme, l’uno riesce ad anticipare e ad assecondare le azioni dell’altro intuendone le intenzioni. Questa competenza è alla base della duttilità che caratterizza la nostra specie: fin dai tempi antichi ha permesso all’uomo di organizzarsi. In un ambiente misto, anche le AI devono essere in grado di intuire cosa gli uomini vogliono fare, e devono assecondare le loro intenzioni cooperando: la macchina deve adattarsi all’uomo, non viceversa.

  • Transparency - I robot funzionano comunemente secondo algoritmi di ottimizzazione: l’uso energetico dei loro servomotori, le traiettorie cinematiche e le velocità operative sono calcolate per essere il più possibile efficienti nel raggiungimento del loro scopo. Affinché l’uomo possa vivere assieme alla macchina, l’agire di quest’ultima dovrà essere intellegibile. L’obiettivo principale del robot non dev’essere l’ottimizzazione delle proprie azioni, bensì rendere il proprio agire comprensibile e intuibile per l’uomo.

  • Customization - Un robot, attraverso la AI, si relaziona all’ambiente aggiustando il proprio comportamento. Lì dove uomo e macchina convivono, il robot deve essere in grado di adattarsi anche alla personalità dell’umano con cui coopera. L’homo sapiens è un essere emotivo; la macchina sapiens deve riconoscere e rispettare questa caratteristica unica e peculiare del suo partner di lavoro.

  • Adequation – Gli algoritmi di un robot ne determinano le linee di condotta. In un ambiente condiviso, il robot deve saper adeguare i propri fini osservando la persona e comprendendo così qual è l’obiettivo pertinente in ogni specifica situazione. La macchina deve, in altri termini, acquisire una “umiltà artificiale” per assegnare una priorità operativa alle persone presenti, e non al raggiungimento di un fine predeterminato.


Nell’epoca delle AI, questi quattro parametri sono un esempio di come tutelare la dignità della persona.


Il problema è innanzitutto filosofico ed epistemologico. Le AI “funzionano” secondo schemi che connettono dati. Che tipo di conoscenza è questa? Che valore ha? Come va trattata e considerata?



Insomma, la domanda prima che tecnologica è etica e filosofica: nella misura in cui vogliamo affidare competenze umane, di comprensione, di giudizio e di autonomia di azione a dei sistemi software di AI dobbiamo capire il valore, in termini di conoscenza e capacità di azione, di questi sistemi che pretendono di essere intelligenti e cognitivi.


Oggi le AI sono sviluppate o in una modalità market-driven o state-driven. Dobbiamo pensare altre modalità. Per esempio, sviluppando algoritmi di verifica indipendenti che sappiano certificare queste quattro capacità delle macchine. Oppure è possibile ipotizzare enti terzi indipendenti, che attraverso la scrittura di algoritmi dedicati siano in grado di valutare l’idoneità delle AI alla convivenza con l’uomo. Solo rispettando queste indicazioni l’innovazione potrà essere guidata verso un autentico sviluppo umano.

646 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page