• Paolo Benanti

L'AI trasforma la cattiva medicina in medicina peggiore

La scorsa settimana ho commentato un nuovo studio di Google che sembrava mostrare nuove promesse strabilianti per la medicina grazie all'AI. Torniamo sul tema mostrando come studi come questi vadano guardati con estrema attenzione: non mostrano solo le potenzialità ma sopratutto i rischi e le minacce dell'AI al mondo sanitario e della ricerca.



Secondo uno studio condotto da ricercatori britannici e americani e pubblicato sulla rivista Nature, l’analisi di alcune mammografie può essere condotta con notevole successo da un software basato sull'intelligenza artificiale. La mammografia di screening non è una diagnosi di fronte a un problema manifesto ma mira a identificare il carcinoma mammario nelle prime fasi della malattia, quando il trattamento può avere più successo. Nonostante l’esistenza di programmi di screening in tutto il mondo, l’interpretazione delle mammografie è influenzata da alti tassi di falsi positivi e falsi negativi legati, come tutte le analisi compiute dall'uomo, dalla qualità dell’immagine e dalla perizia dell’esaminatore. Potrebbe sembrare una grande vittoria, e l'ennesimo esempio di come l'AI trasformerà presto l'assistenza sanitaria: siamo in grado di trovare più tumori! Ci sono meno falsi positivi! Un modo migliore e più economico per fornire cure mediche di alta qualità!



Forse però dobbiamo resistere alla tentazione di troppe espressioni piene di punti esclamativi. L'assistenza sanitaria aumentata dal machine learning e dall'AI potrebbe portare molti benefici negli anni a venire, ma questi dipenderanno da come implementeremo le sue modalità di utilizzo. Se i dottori dovessero porre alla macchina le domande sbagliate, se si dovesse mettere l'AI a servizio di una ricerca con premesse fallaci, allora la tecnologia non sarà un successo ma rischia di essere un clamoroso fallimento. Potrebbe persino servire ad amplificare degli errori precedenti o delle supposizioni sbagliate orientando erroneamente la ricerca.


In un certo senso, è quello che è successo con il recente studio di Google. L'azienda di Montan View sta cercando di replicare, e quindi superare, le prestazioni umane operando su quello che è alla sua base è un intervento medico profondamente imperfetto. Nel caso in cui non stiate seguendo con passione le polemiche decennali sullo screening del tumore, si riduce a questo: quando sottoponi le persone prive di sintomi a mammografie e simili, finirai per trovare molte cose che sembrano tumori ma non minacceranno mai la vita di nessuno. Con l'avanzare della scienza e della biologia si è diffuso lo screening del tumore. Con il tempo i ricercatori hanno imparato che non tutti i tumori sono destinati a diventare mortali. In effetti, molte persone ospitano forme "indolenti" di tumore che non rappresentano un rischio per la loro salute. Sfortunatamente i test di screening standard, nei numeri, si sono dimostrati i più abili nel trovare proprio queste ultime forme, quelle a crescita più lenta che sarebbe meglio ignorare.



Questo potrebbe non essere così male, in teoria. Quando un test di screening scopre un tumore innocuo, si può pensare semplicemente di ignorarlo, giusto? Il problema è che è quasi impossibile sapere al momento dello screening se una particolare lesione finirà per essere pericolosa o poco importante. In pratica, la maggior parte dei medici è incline a trattare qualsiasi tumore scoperto come una potenziale minaccia, e la questione se le mammografie effettivamente salvino o meno la vita è una questione sottoposta a intenso dibattito . Alcuni studi suggeriscono che fanno, altri ritengono che non lo fanno, ma anche se prendiamo le più rosee interpretazioni esistenti in letteratura al valore nominale, il numero di vite salvate da questo massiccio intervento diffuso è piccolo. Alcuni ricercatori hanno persino calcolato che la mammografia è in una posizione di equilibrio: ugualmente dannosa per la salute dei pazienti; vale a dire che il suo aggregato danneggia, in termini di trattamento in eccesso e che i tumori provocati dalle sue radiazioni potrebbero, secondo questi calcoli, superare come costo in termini di salute, il beneficio che promettono.


In altre parole, i sistemi di intelligenza artificiale come quello di Google promettono di combinare esseri umani e macchine al fine di facilitare la diagnosi dei tumori, ma hanno anche il potenziale per peggiorare problemi preesistenti come i test eccessivi o non necessari, l'overdiagnose e l'overtretment. Non è nemmeno chiaro se i miglioramenti nei tassi di falsi positivi e falsi negativi riportati in questo studio si applicherebbero in contesti del mondo reale. Lo studio di Google ha scoperto che l'AI ha ottenuto risultati migliori rispetto a sei radiologi che non sono stati specificamente formati nell'esame delle mammografie. Sarebbe il migliore contro un team di esperti più specializzati? È difficile dirlo senza adeguato studio. Inoltre, la maggior parte delle immagini valutate nello studio sono state create con dispositivi di imaging realizzati da una singola azienda. Resta da vedere se questi risultati si generalizzerebbero con immagini di altre macchine.


Il problema va oltre il semplice screening del cancro al seno. Parte del fascino dell'AI è che può scansionare pacchi di dati personali e individuare variabili che non abbiamo mai pensato fossero importanti. In linea di principio, questa capacità potrebbe aiutarci a diagnosticare qualsiasi malattia in fase iniziale, allo stesso modo in cui le piccole oscillazioni di un sismografo possono darci avvertimenti precoci di un terremoto. (L'intelligenza artificiale aiuta anche lì, a proposito). Ma a volte quelle variabili nascoste non sono davvero importanti (si veda il post su medicina e AI che abbiamo già pubblicato). Per fare un esempio banale pensiamo al caso in cui il set di dati fosse tratto da una ricerca clinica di screening del cancro che esegue i test del tumore al polmone il venerdì. Di conseguenza, un algoritmo basato su AI potrebbe decidere che le scansioni eseguite il venerdì hanno maggiori probabilità di essere un tumore ai polmoni. Questa banale e triviale relazione verrebbe quindi inserita nella formula per fare ulteriori diagnosi.



Anche quando sono accurati, le diagnosi precoci della malattia potrebbero non essere sempre un vantaggio. Altri recenti progetti di AI medica si sono concentrati sulla diagnosi precoce dell'Alzheimer e dell'autismo, due condizioni in cui una rilevazione più rapida probabilmente non cambierà molto il risultato di un paziente. Queste sono opportunità fantastiche per mostrare come un algoritmo può imparare a identificare le caratteristiche che gli insegniamo a trovare, ma non rappresentano progressi che faranno la differenza nella vita dei pazienti.


Alcuni usi degli algoritmi e del machine learning possono anche introdurre problemi nuovi e sconcertanti per i medici. Pensiamo alla funzione presente nell'Apple Watch per rilevare la fibrillazione atriale, un tipo di aritmia cardiaca che è un fattore di rischio per l'ictus. La fibrillazione atriale viene trattata con fluidificanti del sangue, che hanno effetti collaterali che possono trasformare una piccola caduta in una lesione potenzialmente letale. Se sei davvero in pericolo di avere un ictus, è un rischio che vale la pena correre. Che dire delle persone la cui fibrillazione atriale è stata rilevata dal loro smartwatch, però? Tradizionalmente, la condizione viene diagnosticata quando qualcuno viene dal medico lamentando altri sintomi; ora Apple monitora le persone sane senza sintomi e trova nuovi casi che potrebbero non essersi mai presentati nella prassi clinica. Non è chiaro se questo gruppo di pazienti potrebbe avere lo stesso beneficio netto dal trattamento tradizionale.



"In realtà non sappiamo se questi due gruppi di persone, queste due popolazioni, sono uguali", ricorda Venkatesh Murthy, cardiologo presso il Frankel Cardiovascular Center di Ann Arbor, nel Michigan. L'approccio più fruttuoso potrebbe essere quello di utilizzare l'AI per identificare le persone che ottengono il massimo beneficio dai trattamenti disponibili.


Perché l'AI si dimostri veramente rivoluzionaria, dovrà fare di più che ripristinare lo status quo che oggi abbiamo in medicina; e prima che venga adottato un simile approccio, è importante rispondere a un paio di domande fondamentali: quale problema sta cercando di affrontare la tecnologia e come migliorerà i risultati dei pazienti? Potrebbe essere necessario del tempo per trovare le risposte necessarie.


Ecco perché il famoso motto di Mark Zuckerberg, "Muoviti velocemente e rompi le cose" potrebbe andare bene per Facebook, ma non è eccezionale per la medicina, con o senza AI. Secondo Vinay Prasad, autore di Ending Medical Reversal e ematologo-oncologo presso la School of Medicine della Oregon Health & Science University, la mentalità della Silicon Valley può essere pericolosa per i clinici. È quel tipo di atteggiamento - quando sono in gioco le vite che dobbiamo mettere in atto nuove idee promettenti il ​​più rapidamente possibile - che ci ha portato in questo pasticcio per lo screening del cancro con Google. La mammografia è stata adottata prima che tutte le altre evidenze fossero presenti, afferma Prasad, e una volta che una pratica medica è diventata standard, è molto difficile eliminarla gradualmente. "In una cultura che è abituata all'immediatezza e alle affermazioni gonfiate, è difficile avere umiltà e pazienza".


La questione sui dati che servono per l'AI, specie per quella in ambiti critici come la medicina, sono questioni di buon senso. Allora parafrasando quanto detto primo potremmo dire che l'etica è una forma di buonsenso e per domande lineari e semplici la verità etica risulta evidente. L'etica è lo studio con regole proprie e metodo scientifico della ricerca dell'agire corretto e buono. Di quelle forme dell'agire che garantiscono non solo il rispetto dei valori ma anche la tutela di ogni uomo, specialmente dei più vulnerabili. Tanto più l'agire si fa complesso e le questioni intricate, tanto più serve l'approccio scientifico e sistematico dell'etica perché la risposta è meno evidente e meno lineare.


In altri termini l'etica non è che l’estensione del buon senso con mezzi scientifici e filosofici. L'etica è una formalizzazione della domanda di senso che chiede di essere vissuta e attuata nel qui e ora di ogni decisione e azione. Sia essa umana o algoritmica.


Oggi che la decisione si automatizza in maniera algoritmica abbiamo bisogno di scrivere un nuovo capitolo di questa scienza del bene, di questo buon senso rigoroso. Il capitolo dell'etica che si fa computabile dalle macchine. Per fare questo il processo etico deve iniziare dai dati: dalla raccolta, dal loro essere processato e dal loro essere trasmesso. L'algor-etica, questo nuovo capitolo dell'etica, parte dai datasheets for datasets.



Però non si conclude con i dati. Perché l'etica vuole trasformare l'innovazione. Non si accontenta di guardare e di giudicare, vuole guidare l'azione. L'algor-etica come disciplina dello sviluppo di AI giuste e rispettose dell'umano vuole trasformare l'innovazione in sviluppo,

L'innovazione ha bisogno di essere governata perché sia fonte di sviluppo. Abbiamo bisogno di uno sviluppo che ponga l'umano al centro. Per far questo lo sviluppo dovrà essere:


Globale: di tutti gli uomini e di tutte le donne. Deve essere inclusivo (bambini, giovani, anziani, disabili, deboli e soggetti vulnerabili).


Integrale: di tutto l’uomo e di tutta la donna. Abbiamo creduto a chi ci diceva che la felicità era: avere di più, consumare di più, conquistare, sopraffare. Oggi siamo disillusi ma nel profondo non cessa la speranza per la felicità.


Plurale: attento ai contesti sociali, cioè rispettoso delle differenze, delle tradizioni e delle culture. Plurale come l’umanità.


Fecondo: pone le basi e si prende la responsabilità di agire pensando alle generazioni che verranno.


Gentile: mettere al centro l’umano significa che l’uomo è una parte di un tutto, la casa comune, che si fonda su delicati equilibri. Essere umano significa rispettare la bellezza e riconoscere il valore di tutto ciò che esiste.


Perché questo accada abbiamo bisogno di algor-etica per evitare le forme distopiche dell'algo-crazia.