Uomo e algoritmi: il caso del Boeing 737 Max

March 19, 2019

Il relativamente nuovo Boeing 737 Max 8 è alla ribalta della cronaca per i problemi che, finora, lo hanno portato a due incidenti in pochi mesi. A seguito degli incidenti molte compagnie aeree che gestiscono il velivolo hanno sospeso il velivolo dal servizio per problemi di sicurezza, mentre i governi stanno rispondendo all'emergenza vietando l'uso del jet per i voli. 

 

 

 

Gli incidenti hanno spinto molti a indagare su come potrebbero essersi verificati i crash e su come Boeing potrebbe risolvere i problemi che hanno afflitto questo popolare aeromobile. Finora, Boeing ha ordini per altri 4.600 737 Max, che potrebbero essere cancellati se i problemi non vengono risolti. L'azienda e le compagnie aeree potrebbe avere perdite per miliardi da questa situazione. 

 

In un articolo del New York Times, si mette in luce come i piloti non ricevano necessariamente una formazione adeguata prima di iniziare a volare su questo velivolo: il quotidiano di New York lascia intendere che non sarebbe senza fondamento la preoccupazione che i piloti non siano in grado di gestire il nuovo software utilizzato dal 737. Le indagini sui crash di Etiopia Airlines e dei voli Lion Air suggeriscono che la formazione sul software potrebbe essere parte del problema, compreso la formazione specifica su un sistema automatizzato per evitare lo stallo. 

 

 

 

Ogni volta che viene introdotto un nuovo modello di aereo, ai piloti viene solitamente impartito un addestramento in delle cabine di simulazione - i simulatori professionali - che possono insegnare in modo sicuro come utilizzare le nuove funzioni degli strumenti di volo e del software mentre i piloti sono ancora a terra. È stato accertato che, almeno nel caso del Max, i piloti con esperienza precedente su altri 737 non hanno mai messo piede nel simulatore ma hanno imparato a conoscere il nuovo aereo utilizzando un iPad per due ore, nonché un manuale di 13 pagine sulle differenze tra il modello Max e quello precedente.

 

La ragione di questa singolarità è da cercarsi nel fatto che Boeing non sarebbe riuscita a far preparare un simulatore durante il periodo in cui stava cercando di completare l'aereo e non disponesse di tutti i dati necessari. 

 

"Stavano costruendo l'aeroplano e lo stavano ancora progettando", ha commentato il capo della formazione e degli standard della Southwest Pilots Association, Greg Bowen. "I dati per costruire un simulatore non sono disponibili fino a quando l'aereo era pronto a volare". 

 

 

 

Fondamentalmente la formazione che i piloti avrebbero ricevuto non copriva nessuno dei nuovi software che sono stati poi utilizzati sul 737 Max. Si dice anche che Boeing abbia omesso di menzionare ai piloti dell'American Airlines il nuovo software, con il pretesto di non voler "inondarli" di informazioni.

 

"Quando scopri che ci sono sistemi molto differenti che influenzano le prestazioni dell'aereo, avere un simulatore fa parte di una cultura della sicurezza", secondo il portavoce del sindacato piloti dell'American Airlines, Dennis Tajer. "Può essere la differenza tra un volo sicuro, con situazioni recuperabili e quello che fa notizia  sui giornali". 

 

A seguito di reclami, Boeing ha detto ai piloti dell'American Airlines e della Southwest che ci sarebbe stata una correzione del software fornita in poche settimane, senza la necessità di ulteriore formazione. Sentendo ciò, i piloti dell'Unione hanno creduto di essere in grado di pilotare l'aereo in sicurezza in condizioni di allenamento attuali, senza la necessità di un simulatore.

 

La Federal Aviation Administration - FAA - è stata anche criticata dai legislatori statunitensi perché, in quanto ente regolatore, non ha richiesto una formazione più sostanziale. Il deputato Peter DeFazio, presidente del comitato dei trasporti della Camera, ha detto alla FAA "questo è essenzialmente un aeroplano diverso, com'è che è stato certificato senza una precedente riqualificazione del pilota?".

 

 

 

 

Se il motivo fosse connesso a questo deficit di formazione allora gli incidenti che sono costati tutte queste vite innocenti sarebbero da imputare non a un failure della macchina o a un errore umano ma al difetto di progettazione-educazione della relazione uomo macchina. Il problema sarebbe un qualcosa da cercare all'incrocio tra algoritmo e persona.

 

Quando si pensa a un software che assista l'operatore umano si tratta di regolare il modo in cui il sistema classifica e reagisce a ciò che vede, testando e ri-testando nuovamente i risultati rispetto ai dati raccolti e facendolo interagire con il controllore umano in modo che questo abbia modo di capire cosa il software gli chiede di fare, quale decisioni e azioni sta lasciando all'operatore e di avere dei tempi che consentano all'uomo di reagire in sicurezza secondo le sue capacità.

 

Come ogni problema di ingegneria, è una questione di trade-off: "si è costretti a scendere a compromessi regolando le "manopole" software che dicono le soglie a cui la macchina lascia il passo all'uomo.

 

 

 

E ogni volta che gli sviluppatori armeggiano con quelle "manopole" software, devono ripetere il test del sistema per assicurarsi che i risultati siano soddisfacenti e sicuri. "Questo è qualcosa che deve essere fatto in ogni ciclo di sviluppo", afferma Michael Wagner, co-fondatore e CEO di Edge Case Research, che aiuta le aziende di robotica a creare software più solidi e e affidabili. Questo richiede molto tempo.

 

A questo livello appare il cuore della questione.

Progettare dei software per assistere e automatizzare operazioni in compresenza di operatori umani non è semplicemente una questione di codice o di assenza di bug ma anche di pensare l'interazione tra le due componenti rispettando le capacità e i limiti di questo sistema di controllo uomo-macchina che si vuole implementare. Ancora di più. se programmiamo il software e lo revisioniamo con cura dobbiamo avere uguale cura a formare l'uomo e ad accompagnarne la professionalità.

 

Cura, accompagnamento, conoscenza dei limiti: tutte parole che compongono l'alfabeto dell'etica. Algoritmi e uomini entrambi hanno bisogno di etica. Ma l'etica deve essere comprensibile ad entrambi. Allora abbiamo bisogno di algor-etica per mettere in comunicazione uomo e macchina e per tutelare il prezioso, l'umano, che vogliamo affidare alle capacità della macchina.

Share on Facebook
Share on Twitter
Please reload