I nuovi dettagli del fatale incidente automobilistico di Uber a marzo e la pervasività con cui i veicoli a guida autonoma stanno invadendo le strade ci deve far riflettere. Non solo ci troviamo di fronte a un problema di difficile soluzione ma addirittura di fronte a una questione chiave per tutto il settore e per il mondo delle macchine autonome.
Un po' di storia
In medicina, i falsi positivi sono errori costosi, spaventosi e persino dolorosi. Normalmente in qualunque ambito in cui si presenti una decisione predittiva binaria (vero o falso), un falso positivo indica che è stato erroneamente segnalato come vero (positivo al test) qualcosa che in realtà non lo è. Un esempio in informatica è un antivirus che considera erroneamente dannoso un programma innocuo, generando un falso allarme.
In medicina, dove solitamente viene ipotizzata una malattia, un falso positivo indica un risultato positivo del test nonostante la condizione (ad esempio una gravidanza) non sia presente. Nel caso di un sospetto tumore al seno, sì, il dottore alla fine dirà che la biopsia di controllo dopo quella macchia sulla mammografia mette in chiaro che non c'è da temere. Ma le settimane trascorse sono state strazianti. Dal verso opposto, un falso negativo non è migliore. Dopo la visita ci si sente dire: "Vada a casa, sta bene, quei mal di testa non sono nulla di cui preoccuparsi". Ma gli esiti poi saranno ben diversi.
Chiunque costruisca apparecchi di rilevamento - test medici, apparecchiature per la sicurezza o software che deve rendere le automobili a guida autonoma in grado di percepire e valutare l'ambiente circostante - è a conoscenza e decisamente preoccupato da entrambi i tipi di scenario. Il problema di evitare sia i falsi positivi che i falsi negativi, però, è che più si lavora per evitare uno e più si rischia di cadere nell'altro.
Questa introduzione ci serve per analizzare e commentare i nuovi dettagli del fatale incidente automobilistico di Uber a marzo: questi sottolineano non solo la difficoltà di questo problema, ma la sua centralità.
I fatti recenti
Secondo un rapporto preliminare pubblicato dalla National Transportation Safety Board (NTSB) a fine maggio, il sistema di Uber ha rilevato la presenza del pedone - Elaine Herzberg - sei secondi prima di colpirla e di ucciderla. L'ha identificata prima come un oggetto sconosciuto, poi come un veicolo, quindi, alla fine, come una bicicletta. Per chi non si ricordasse i dettagli la Herzberg stava spingendo una bici, stando con il corpo abbastanza vicino al velocipide. Circa un secondo prima dello schianto, il sistema ha determinato che era necessario schiacciare i freni. Ma come l'NTSB ha spiegato dettagliatamente nel suo rapporto, Uber non aveva impostato il suo sistema per "agire in autonomia" su quel tipo di decisione. Gli ingegneri hanno impedito alla loro auto di frenare improvvisamente da sola in situazioni analoghe, citiamo, "per ridurre il potenziale di comportamento erratico del veicolo". L'azienda ha deciso di affidarsi all'operatore umano dell'auto in tali situazioni per evitare incidenti. Questa delega all'umano però apre una serie di problemi completamente diversi.
Gli ingegneri di Uber hanno deciso di non lasciare che la macchina freni automaticamente perché erano preoccupati che il sistema avrebbe potuto reagire in modo eccessivo a cose che non erano importanti o che non c'erano affatto. Erano, in altre parole, molto preoccupati per i falsi positivi.
È noto, infatti, che i sensori per la guida autonoma dell'automobile interpretano male il vapore, i gas di scarico delle automobili o pezzi di cartone per strada scambiandoli per ostacoli simili agli spartitraffico in calcestruzzo. Hanno scambiato una persona in piedi oziosa sul marciapiede per qualcuno che si preparava a saltare in mezzo alla strada. Ottenere letture sbagliate della realtà, nella visione del produttore, fa molto di più che bruciare le pastiglie dei freni e provocare la nausea ai passeggeri.
"I falsi positivi sono davvero pericolosi", afferma Ed Olson, il fondatore della società di mobilità self-driving, May Mobility. "Un'auto che sta pigiando inaspettatamente sui freni rischia di finire tra i rottami".
Ma gli sviluppatori possono anche fare troppo per evitare falsi positivi, insegnando inavvertitamente il loro software a filtrare i dati vitali. L'Autopilota di Tesla, che mantiene l'auto nella sua corsia e lontano dagli altri veicoli, per evitare di frenare ogni volta che i suoi sensori radar individuano un segnale autostradale o un coprimozzo scartato (il falso positivo), in modo semiautonomo filtra tutto ciò che non si muove.
Questo è il motivo per cui il sistema non è riuscito a vedere i camion fermi nei due casi di incidente provocate da Tesla negli ultimi mesi. Questo è un falso negativo.
Vero o falso? Trovare il giusto equilibrio tra ignorare ciò che non importa e riconoscere tutto ciò che è fondamentale è la questione chiave. Per fare questo bisogna regolare le "manopole" degli algoritmi che gestiscono il software per la guida autonoma. Si tratta di regolare il modo in cui il sistema classifica e reagisce a ciò che vede, testando e ri-testando nuovamente i risultati rispetto ai dati raccolti.
Come ogni problema di ingegneria, è una questione di trade-off. "Sei costretto a scendere a compromessi", dice Olson. Per molti sviluppatori di auto a guida autonoma, la risposta al dilemma è stata quella di rendere l'auto un po' troppo cauta. Volendo usare un'immagine si sono più ispirati a una vecchia nonna che faceva un giro nella sua Cadillac, che non a un sedicenne che mostrava la Camaro che aveva ricevuto per il suo compleanno con la patente nuova di zecca.
Ma un'auto troppo cauta potrebbe anche rendere frustrati gli altri conducenti umani. Gli altri conducenti potrebbero essere tentati di accelerare presi da un fremito di impazienza, rendendo le strade più pericolose invece che più sicure. Può anche essere scomodo e costoso: le robo-macchine di oggi hanno la tendenza a premere forte i freni al minimo accenno di una possibile collisione. Questo è probabilmente il motivo per cui in tutti i report sugli incidenti che coinvolgono macchine a guida autonoma troviamo una grandissima percentuale di collisioni sul posteriore.
E ogni volta che gli sviluppatori armeggiano con quelle "manopole" software, devono ripetere il test del sistema per assicurarsi che i risultati siano soddisfacenti e sicuri. "Questo è qualcosa che deve essere fatto in ogni ciclo di sviluppo", afferma Michael Wagner, co-fondatore e CEO di Edge Case Research, che aiuta le aziende di robotica a creare software più solidi e e affidabili. Questo richiede molto tempo.
Quindi se dovessimo salire su una macchina a guida autonoma nel traffico di un grande città, dobbiamo essere coscienti che il sistema di guida sarà stato calibrato in quello spazio di sicurezza molto difficile da definire tra un tipo di menzogna e un altro.
La questione di fondo
Il problema di fondo però riguarda non tanto il software che sviluppiamo ma cosa il sistema software cerca di imitare dell'uomo. La macchina a guida autonoma ha un surrogato software di un autista. Il surrogato deve in prima istanza avere la capacità che ha un guidatore di vedere la strada e avere una percezione di cosa si muove intorno a lui. Proprio la differenza tra visione e percezione è il punto dove il software non riesce a emulare l'uomo e dove i programmatori sono costretti a impostare dei trade-off.
La visione è considerato il più importante dei nostri 5 sensi dato che l’80% delle informazioni che il nostro cervello riceve ogni giorno proviene dagli occhi. Non si tratta solo di immagini, anche le sensazioni, le emozioni che le accompagnano hanno una relazione con la visione. Perciò è di fondamentale importanza che il sistema visuale sia il più efficace possibile in quanto non solo rappresenta una base per l’apprendimento ma influenza anche il comportamento di una persona.
Ma è importante sottolineare la differenza tra vista e visione: Col termine Vista si intende la Acuità Visiva, cioè l’abilità di distinguere i dettagli a distanza. La Visione invece è la capacità di capire e interpretare quello che vediamo, cioè captare le informazioni, processarle e ricavarne un significato. Come è facilmente intuibile il processo della visione è molto più complicato e va ben oltre la semplice verifica dell’acutezza visiva. Oggi siamo in grado di sviluppare telecamere e sensori che hanno una vista molto migliore di quella dell'occhio umano.
Tuttavia la visione non si limita all'utilizzo dell’organo della vista. Gli occhi sono soltanto la parte più esterna di una “macchina complessa”. L’informazione in entrata, dopo essere stata percepita dalla retina, passa tramite la Via Visuale al Cervello, dove viene identificata, compresa e processata per essere poi memorizzata e darci la possibilità di rispondere con un’azione adeguata o fornendo a nostra volta altre informazioni. Il Pensiero Logico si sviluppa presso la Neocorteccia, che dà un significato a tutto ciò che trasmettono gli occhi.
Alla nascita la visione non è totalmente sviluppata, per questo dobbiamo “imparare a vedere” come impariamo a camminare. L’esperienza è fondamentale per il processo visivo. Pensiamo solo al fatto di mostrare ad un bambino piccolo un oggetto dicendogli che è una mela; lui prenderà per buona l’informazione non avendo conoscenze precedenti a riguardo. Memorizzerà l’oggetto per ricordarlo in futuro. Quando vedrà di nuovo una mela, la riconoscerà grazie ad un’associazione di colore, forma e sapore con la mela che aveva conosciuto in passato.
La visione coinvolge gli organi visivi e le aree cerebrali preposte, proponendoci la configurazione di una scena con i diversi elementi che la compongono. La percezione coinvolge le aree cognitive del cervello per una lettura consapevole, alla ricerca di un significato e dei legami emozionali tra ciò che stiamo vedendo e i nostri referenti (cultura, abitudini, esperienze, costumi della società nella quale siamo cresciuti, pregiudizi, credenze, ecc.).
Le neuroscienze hanno messo in evidenza la sostanziale differenza tra visione e percezione visiva. La percezione è il processo mediante il quale traiamo informazioni sul mondo nel quale viviamo. Esso avviene in maniera selettiva, costruttiva e interpretativa: la nostra mente, in base a determinate “leggi”, seleziona tra le varie sensazioni quelle che – in una data situazione – sono per noi importanti, organizzandole quindi in un insieme ordinato e comprensibile. Pertanto, c’è differenza tra ciò che percepiamo e ciò che la nostra mente ricava dalle percezioni; c’è un divario tra la realtà fisica e fenomenica e l’idea che soggettivamente ci facciamo di essa.
Se oggi abbiamo una vista elettronica molto migliore di quella umana la capacità di visione e percezione della macchina ci sfugge: sembra necessario, per sviluppare una capacità di visione e percezione, non un "che cosa" ma un "chi". La vera questione di fondo non è il quid che ci manca per dotare i veicoli a guida autonoma della visione ma il quis che ci spieghi la nostra differenza da una macchina. Il problema è di natura umana.