Personalità giuridica dei robot: un dibattito non solo legale

December 30, 2018

Chiudiamo quest'anno con una riflessione di roboetica e robogiuridica, ma anche di algor-etica, ispirata da un articolo apparso su Politico che si offre come un "luogo" - nel senso di topos - di riflessione molto interessante per cercare di fare un sommario delle diverse questioni che AI e robotica ha sollevato in questo anno.

Cominciamo con chiarire una cosa fondamentale: i robot autonomi con capacità umane e onnicomprensive non esistono e se mai saranno realizzati dovranno ancora passare decenni per vederne anche solo le prime versioni. Nonostante questo è qui molto interessante analizzare come i legislatori, i giuristi e i produttori europei siano già impegnati - e forse anche bloccati - in un acceso e rischioso - dal mio punto di vista - dibattito sul loro status legale. Sono queste macchine o degli esseri umani che sono dietro la loro produzione e messa in opera che dovrebbero assumersi la responsabilità ultima per le azioni che compieranno.

 

 

La discussione si può far risalire a un paragrafo di testo, sepolto molto in profondità ad essere sinceri, in un rapporto del Parlamento europeo dei primi mesi del 2017, che suggerisce che i robot dotati di apprendimento automatico potrebbero ricevere una "personalità elettronica". Un tale status potrebbe consentire ai robot di essere assicurati come individui ed essere ritenuti responsabili per i danni prodotti se nel loro andare in giro dovessero ferire delle persone o danneggiare delle proprietà.

 

Chi sta spingendo per un tale cambiamento legale, inclusi alcuni produttori e alcune compagnie a loro affiliate, affermano che la proposta è semplicemente frutto del buon senso. Secondo loro la personalità giuridica non renderebbe i robot persone virtuali che possono sposarsi e beneficiare dei diritti umani; si limiterebbe a metterli alla pari con le società, che hanno già lo status di "persone giuridiche", e sono trattate come tali dai tribunali di tutto il mondo.

 

Ma tutto questo accade in un momento in cui i robot e l'intelligenza artificiale diventano temi politici caldi su entrambe le sponde dell'Atlantico. Questo ha spinto l'eurodeputata e vicepresidente della commissione Affari legali del Parlamento europeo, Mady Delvaux, e altri sostenitori delle sue tesi a mettere in atto una rigida opposizione a questa proposta. In una lettera alla Commissione europea che, seguendo le fonti di Politico, dovrebbe essere svelata presto, 156 esperti di intelligenza artificiale provenienti da 14 paesi europei, tra cui informatici, professori delle facoltà di giurisprudenza e amministratori delegati di varie società, avvertono che la concessione di personalità legali ai robot sarebbe "inappropriata" da un " prospettiva legale ed etica".

 

 

Il rapporto della commissione per gli affari legali del Parlamento Europeo ha raccomandato l'idea di dare ai robot "personalità elettroniche" e potrebbe diventare un modello per le leggi in tutta Europa se trasformato in un quadro normativo. Delvaux dice che, sebbene non sia sicura che la definizione legale di robot come una forma di personalità sia una buona idea, è "sempre più convinta" che la legislazione attuale sia insufficiente per affrontare questioni complesse legate alla responsabilità e alle macchine fondate su algoritmi di machine learning e altri sistemi di autoapprendimento. Secondo la Delvaux in questo momento tutte le opzioni dovrebbero essere messe sul tavolo.

 

Gli esperti di intelligenza artificiale dietro la lettera alla Commissione europea sono fortemente in disaccordo con la posizione della commissione per gli affari legali del Parlamento Europeo.

 

"Adottando la personalità giuridica, cancelleremo la responsabilità dei produttori", ha detto con estrema forza Nathalie Navejans,francese, professoressa di diritto  all'Université d'Artois, e uno dei personaggi trainanti nella realizzazione della lettera.

 

Noel Sharkey, professore emerito di intelligenza artificiale e robotica all'Università di Sheffield, anche lui tra i firmatari, ha aggiunto che, cercando di ottenere una personalità giuridica per i robot, i produttori stanno semplicemente cercando di assolversi dalla responsabilità delle azioni delle loro macchine.

 

"Questa [posizione del Parlamento europeo] era quella che definirei un modo subdolo dei produttori di scapare dalle loro responsabilità", ha affermato perentorio Sharkey.

 

Robot come "black box"
Adesso che ognuna delle due fazioni ha mostrato quali sono i suoi argomenti e le sue tesi, una cosa è chiara: tanto denaro si sta riversando nel campo della robotica e questo farà sì che il dibattito sia destinato a diventare sempre più acceso.

 

 

Nei prossimi anni, gli analisti prevedono che questa nuova corsa all'oro che passa nei campi delle tecnologie emergenti sia destinata solo ad accelerare. Il mercato per i robot destinati al mercato di consumo, solo per fare un esempio - le macchine destinate ad essere strumenti da compagnia nelle famiglie -  dovrebbe  quasi triplicare entro i prossimi cinque anni, passando da un valore di quasi 5,4 miliardi di dollari del 2018 a 14,9 miliardi di dollari entro il 2023.

 

Le vendite di "cobots" - macchine progettate per lavorare a fianco dei lavoratori umani - sono  previste  in aumento da quasi trent'anni, da poco più di 100 milioni di dollari del 2015 a 3 miliardi del 2020.

 

E il mercato dei robot industriali - macchine che possono, per esempio, assemblare altre macchine o eseguire sofisticate attività di catena di montaggio -  dovrebbe  gonfiarsi, raggiungendo 40 miliardi di dollari entro il 2020, rispetto ai 25,7 miliardi del 2013.

L'attuale boom è dovuto al fatto che i robot sono appena entrati nella seconda fase della loro evoluzione, esattamente 59 anni dopo che il primo robot industriale è entrato in una catena di montaggio nelle fabbriche americane della General Motors.

 

 

Nei decenni che seguirono a quel momento storico, le macchine rimasero in gran parte reattive, programmate per completare compiti definiti in precedenza e a reagire a un numero limitato di situazioni.

 

Tuttavia se seguiamo il ragionamento della commissione europea, l'idea alla base di una personalità elettronica non era quella di dare diritti umani ai robot - ma di assicurarsi che un robot sia e resti una macchina con un supporto umano.

 

Questa posizione è legata agli ultimi sviluppi nel campo della robotica che consentono alle macchine di svolgere compiti che in precedenza richiedevano il pensiero umano. L'attuale tecnologia all'avanguardia consente ai computer di apprendere e prendere le proprie decisioni imitando e moltiplicando i modelli del cervello umano.

 

Da qui la preoccupazione dei legislatori: tali processi complessi trasformeranno le macchine in "scatole nere" i cui processi decisionali sono difficili o addirittura impossibili da comprendere, e quindi impenetrabili per i contendenti in un processo che cercano di attribuire la responsabilità legale dei problemi emersi?

 

I robot hanno una coscienza e possono sposarsi?
Ecco perché, sostengono i sostenitori, l'Europa dovrebbe concedere lo "status legale" ai robot stessi, piuttosto che gravare sui loro produttori o proprietari.

 

"In uno scenario in cui un algoritmo può prendere decisioni autonome, chi dovrebbe essere responsabile di queste decisioni?", Ha affermato l'avvocato aziendale milanese Stefania Lucchetti, aggiungendo che "Il modello attuale, in cui il produttore, il proprietario o entrambi sono responsabili, si trasformerebbe in un'età di robot completamente autonomi e l'UE dovrebbe conferire ai robot una sorta di personalità giuridica 'come le aziende'".

 

La "personalità" a cui ci si riferisce è un concetto che risale al XIII secolo, quando papa Innocenzo IV concesse lo status di personalità ai monasteri definendoli "sui iuris". Oggi praticamente ogni paese del mondo applica lo stesso modello alle aziende, il che significa che le società hanno alcuni dei diritti e delle responsabilità legali di un essere umano, tra cui la possibilità di firmare un contratto o di essere citato in giudizio. Un modello giuridico simile per i robot, sostengono i suoi sostenitori, sarebbe meno sul conferire diritti ai robot e piuttosto sul associarli a delle responsabilità quando le cose vanno male, ad esempio istituendo un sistema di assicurazione obbligatoria che potrebbe essere alimentato dalla ricchezza che un robot sta producendo per accumulo nel tempo della sua "esistenza".

"Questo non significa che il robot abbia una coscienza, o possa sposare un altro robot", ha sempre detto la Lucchetti a Politico.

 

Analogamente, Delvaux ha sottolineato che l'idea alla base di una personalità elettronica non era quella di dare diritti umani ai robot, ma di assicurarsi che un robot sia e rimarrà una macchina con un uomo dietro di essa.  

 

Oltre Sophia

Tuttavia tutte le polemiche che risuonano intorno a robot futuristici mascherano una realtà di fondo: i robot capaci di intelligenza umana e di processi decisionali rimangono una prospettiva lontana se non irrealistica al momento.

 

I robot di oggi sono migliori degli umani in alcune applicazioni ristrette, come il riconoscimento delle immagini o il gioco da tavolo cinese Go.

 

Ma tali applicazioni all'avanguardia eccellono solo in un campo ristretto. Giocare a Go, o categorizzare le immagini, sono essenzialmente le uniche cose che possono fare queste macchine, a differenza degli esseri umani, che possono allo stesso tempo capire il linguaggio, imparare a giocare a una varietà di giochi da tavolo e riconoscere le immagini.

  

 

Anche così, i resoconti dei media sui progressi galoppanti nella robotica - che potrebbero suggerire che l'intelligenza artificiale è onnicomprensiva è a portata di mano - si sono infiltrati nel dibattito pubblico. Per questo motivo i firmatari della lettera avvertono che questo potrebbe indurre i legislatori a entrare in una regolamentazione prematura.

 

Secondo alcuni ricercatori, nessun robot è riuscito a dare false percezioni della robotica come Sophia: un robot umanoide che ha fatto la sua prima apparizione nel marzo 2016 e da allora è diventato un cittadino saudita, ha ricevuto un titolo dalle Nazioni Unite e ha aperto la conferenza di sicurezza di Monaco quest'anno.

 

"Non mi interessa affatto l'idea di un robot realizzato per fare degli spettacoli", ha dichiarato Sharkey, che ha co-firmato la lettera ed è anche co-fondatore della Foundation for Responsible Robotics. "Ma quando iniziano a portarlo all'ONU e danno alle nazioni l'idea sbagliata di ciò che la robotica può fare e a che punto sia l'AI  al momento, questo diventa molto, molto pericoloso".

 

Secondo Sharkey è anche molto pericoloso per i legislatori: "Lo vedono e ci credono, perché non sono ingegneri e non c'è motivo per non crederci".

 

Invece secondo i 156 esperti firmatari dell'appello, le attuali norme di diritto civile dell'UE sono sufficienti per affrontare le questioni connesse all'attribuzione della responsabilità.

 

 

Delvaux ha detto che la discussione del Parlamento su una personalità completamente elettronica è in corso e che "forse alla fine arriveremo alla conclusione che non è una buona idea".

 

Delvaux ha detto che il suo obiettivo principale quando suggeriva una personalità legale per i robot era di sollevare un dibattito pubblico sulla questione e in questo senso, ci è riuscita.

 

Prospettive

Il punto è che le domande che la robotica e la sua diffusione industriale e commerciale sta ponendo non ha una risposta che è solo tecnica. 

 

Come visto più volte nei post di questo blog da un lato l'approfondimento scientifico ci mette di fronte al fatto che una macchina dotata di apprendimento automatico non sia in grado di fare sempre e in ogni condizione una scelta perfetta, neanche se programmata per questo, dall'altro una mera dichiarazione di conformità che si fondi su principi formali ed esterni o una risoluzione giuridica della questione, seppure sia un primo passo, non può bastare per gestire il potere trasfromativo, e di conseguenza le possibili ingiustizie, che questi sistemi possono avere.

 

La questione è preminentemente etica e il framework che deve caratterizzare questo sviluppo deve essere etico.

 

Serve un'etica  dei robot e delle intelligenze artificiali che possa dare linfa e vita a gli organi deputati alla gestione giuridica e alla regolamentazione di una società mista tra robot e uomini.

Share on Facebook
Share on Twitter
Please reload