Il più grande problema delle AI? L'uomo

December 6, 2018

La sintesi di questa storia potrebbe essere: se avanza la tecnologia deve evolvere anche la polizia. Tuttavia il problema che questa storia mostra è un altro. Se il machine learning e le AI evolvono il più grande problema nell'utilizzo di queste tecnologie nel mondo reale rischia di essere un agente autonomo molto tradizionale: l'uomo.

L'ultima settimana di novembre un paio di agenti della California Highway Patrol, per intenderci l'organo di polizia impersonato dai mitici Poncharello e Jon dei CHIPs, la famosa serie TV degli anni Settanta e Ottanta, sono stati protagonisti di un episodio degno della fortunata serie tv.

 


I ChiPs in questione hanno avvistato un uomo che apparentemente dormiva al volante di una Tesla Model S che viaggiava a più di 110 km/h (70 mph riportano i verbali della polizia) sull'autostrada 101 all'altezza di Palo Alto intorno alle 3:30 del mattino. I due agenti si sono messi all'inseguimento della macchina e come in un copione di un episodio della celebre serie televisiva hanno acceso la sirena e i lampeggianti.

 

Quando si sono resi conto che l'autista non rispondeva, i poliziotti sono andati oltre il loro normale modo di procedere. Immaginando che la Tesla potesse utilizzare la funzione Autopilot, hanno chiamato i rinforzi. Le macchine della polizia sopraggiunte hanno rallentato il traffico dietro di loro. Guadagnato questo spazio di sicurezza, i due si sono spostati davanti alla macchina e gradualmente hanno iniziato a frenare. Gradualmente anche la Tesla ha rallentato, finché non si è completamente fermata nella sua corsia.

 

Gli agenti hanno subito arrestato l'autista, identificato nel rapporto della polizia come il quarantacinquenne Alexander Joseph Samek di Los Altos. Secondo i dati della polizia l'accusa è quella del temibile DWI - driving while intoxicated - per aver guidato sotto l'influenza dell'alcool, un crimine punito molto severamente negli USA. 

 

 

L'addetto stampa della California Higway Patrol, Art Montiel, ha detto che è solo grazie alla velocità di pensiero dei poliziotti che la macchina si è riuscita a fermare. Tuttavia né la polizia né Tesla hanno confermato se il Modello S avesse l'Autopilot inserito in quel momento. Sembra probabile che lo fosse, dal momento che il veicolo stava nella sua corsia e rispondeva autonomamente alle azioni dei veicoli che lo circondavano. Inoltre sembra che il guidatore non si sia svegliato fino a ché i poliziotti non hanno bussato al finestrino.

 

Tesla dice chiaramente ai propri clienti che pagano i 5.000 dollari in più per avere l'autopilot che il sistema non è una guida autonoma e loro sono sempre i responsabili della guida dell'auto e che devono rimanere vigili in ogni momento. Guidare ubriachi è di per se una cosa illegale. E, in questo caso se le notizie fossero confermate, la tecnologia Autopilot del veicolo potrebbe aver realmente prevenuto un incidente. Ma se l'Autopilot di Tesla ha permesso a un autista assopito e presumibilmente ubriaco di rallentare lungo l'autostrada, solleva un'altra domanda: la compagnia automobilistica di Elon Musk fa abbastanza per impedire l'abuso umano della sua tecnologia?

 

 

È una critica di lunga data ma ancora rilevante. L'anno scorso, un'indagine del National Transportation Safety Board (NTSB) sulla morte del 2016 di un uomo dell'Ohio, la cui Tesla ha colpito un semirimorchio mentre l'Autopilot era inserito, ha concluso che Tesla aveva qualche colpa. Quando il camion che si avvicinava ha incrociato il percorso della Tesla, la berlina non ha rallentato fino all'impatto.

 

"Gli effetti combinati dell'errore umano e la mancanza di controlli di sistema sufficienti hanno provocato una collisione fatale che non avrebbe dovuto accadere", ha detto all'epoca il presidente dell'NTSB, Robert Sumwalt.

 

Da allora, Tesla ha limitato il tempo in cui un guidatore può viaggiare senza toccare il volante prima di ricevere un segnale acustico di avvertimento. Se non c'è risposta, il sistema porta l'auto a fermarsi e ad accendere le luci di emergenza. Questa funzione rende questo episodio un po' confuso, come Musk ha notato in un tweet:

 

 

I sensori nel volante che registrano il tocco umano, però, sono facili da imbrogliare, come dimostrano i video di YouTube. Un arancio ben incuneato o una bottiglia d'acqua possono ingannare il sistema. I post nei forum online dicono che si può ingannare il sistema legando pesi sul volante come bustine da surgelati Ziplock  e altri "mini pesi ". Per un po', i guidatori potevano persino acquistare Autopilot Buddy un dispositivo di riduzione del beep", fino a quando le autorità federali non hanno intimato con una lettera  alla compagnia di cessarne la vendita questa estate.

 

Tutto ciò rende assai migliore il design di sistemi simili quali quelli offerti da Cadillac e Audi. Questi hanno un funzionamento molto più adatto per tenere gli occhi sulla strada, anche se la macchina controlla il volante, l'acceleratore e i freni. Il Super Cruise di Cadillac include una telecamera a raggi infrarossi sul piantone dello sterzo che monitora la posizione della testa del conducente: se guarda lontano o in basso per troppo tempo il sistema emette un segnale acustico acuto. Il Traffic Jam Pilot di Audi fa lo stesso con una telecamera di monitoraggio dello sguardo interna.

 

Tuttavia essendo sistemi destinati ad esseri umani, presumibilmente troveremo il modo di ingannare quei sistemi - forse prendendo ispirazione da Homer Simpson - ma è chiaro che un sistema che monitora lo sguardo del guidatore è più affidabile per questo scopo di quello di Tesla che può essere ingannato da degli agrumi.

 

 

È possibile che Tesla faccia un tentativo simile. La model 3 è dotata di una telecamera interna montata vicino allo specchietto retrovisore e, sebbene la casa automobilistica non abbia ancora confermato a cosa serva, non sarà da stupirsi se un aggiornamento software via etere darà improvvisamente alla macchina la capacità di comprendere le condizioni psicofisiche e di attenzione dei loro signori umani.

 

 

Questi sistemi sempre più sofisticati di assistenza alla guida che spesso non ci fanno capire se le macchine siano autonome o meno, possono farci pensare che l'avvento di queste tecnologie ci stiano sfuggendo di mano. In realtà questi sistemi non sono mai costruiti per sostituire l’uomo ma per realizzare una nuova simbiosi tra l’uomo e i suoi artefatti: (homo+machina) sapiens. 

 

Non sono questi sistemi di guida intelligenti una minaccia per l’uomo anche se la tecnologia può essere pericolosa per la nostra sopravvivenza come specie: l’uomo ha già rischiato di estinguersi perché battuto da una macchina molto stupida come la bomba atomica. 

 

Tuttavia qui si intravedono sfide estremamente delicate nella società contemporanea in cui la variabile più importante non è l’esistenza di sistemi intelligenti ma il poco tempo a disposizione per decidere in condizioni di operatività come la guida.
 

Si aprono a questo livello tutta una serie di problematiche etiche su come validare la cognizione della macchina alla luce proprio della velocità della risposta che si cerca di implementare e ottenere. 

 

Tuttavia il pericolo maggiore non viene dalla guida assistita intelligente o da sistemi di assistenza automatica in se stesse ma dal non conoscere queste tecnologie e dal lasciare decidere sul loro impiego a una classe dirigente assolutamente non preparata a gestire il tema. Serve un'etica della tecnologia che dia forma ad adeguate policy di sviluppo e implementazione delle tecnologie di automazione intelligente.

Share on Facebook
Share on Twitter
Please reload