• Paolo Benanti

Un selfie per capire la tua personalità: AI e psicologia

Uno studio controverso pubblicato la scorsa settimana su Nature sostiene che un sistema di intelligenza artificiale opportunamente addestrato possa prevedere la personalità di una persona basandosi solo su un selfie. Un'apposita rete neurale di classificazione delle immagini è stata addestrata a valutare 128 caratteristiche biometriche del viso di una persona e a stimare la sua personalità in base ai tratti dei "Big Five" (qui con i termini della versione italiana): estroversione, amicalità, coscienziosità, stabilità emotiva, apertura mentale. Vediamo la cosa da vicino per fare qualche riflessione.


Le idee che fondano lo studio

Iniziamo dal vedere come si presenta lo studio:

Vi sono ampie prove che gli indizi morfologici e sociali in un volto umano forniscono segnali di personalità e comportamento umani. Precedenti studi hanno scoperto associazioni tra le caratteristiche delle immagini facciali composite artificiali e le attribuzioni dei tratti della personalità da parte di esperti umani. Presentiamo nuove scoperte che dimostrano la previsione statisticamente significativa di un insieme più ampio di caratteristiche della personalità (tutti i tratti della personalità Big Five) per uomini e donne che utilizzano immagini facciali statiche della vita reale. I partecipanti volontari (N = 12.447) hanno fornito le loro fotografie dei volti (31.367 immagini) e hanno completato una misurazione di auto-relazione dei tratti dei Cinque Grandi. Abbiamo addestrato una cascata di reti neurali artificiali [Artificial Neural Network nell'originale, NdT] (ANN) su un set di dati di grandi dimensioni per prevedere i punteggi dei Big Five. Le più alte correlazioni tra i punteggi di personalità osservati e previsti sono stati trovati per coscienza (0,360 per uomini e 0,335 per donne) e la dimensione media dell'effetto era 0,243, superando i risultati ottenuti in studi precedenti usando "selfie". I risultati supportano fortemente la possibilità di prevedere profili di personalità multidimensionali da immagini facciali statiche utilizzando ANN addestrati su set di dati di grandi dimensioni. La ricerca futura potrebbe studiare il contributo relativo delle caratteristiche morfologiche del viso e di altre caratteristiche delle immagini facciali alla previsione della personalità. I risultati supportano fortemente la possibilità di prevedere profili di personalità multidimensionali da immagini facciali statiche utilizzando ANN addestrati su set di dati di grandi dimensioni. La ricerca futura potrebbe studiare il contributo relativo delle caratteristiche morfologiche del viso e di altre caratteristiche delle immagini facciali alla previsione della personalità. I risultati supportano fortemente la possibilità di prevedere profili di personalità multidimensionali da immagini facciali statiche utilizzando ANN addestrati su set di dati di grandi dimensioni. La ricerca futura potrebbe studiare il contributo relativo delle caratteristiche morfologiche del viso e di altre caratteristiche delle immagini facciali alla previsione della personalità.



La prima questione su cui vorrei porre l'attenzione è la correlazione tra aspetto e personalità. La questione è scientificamente controversa. La prima cosa che questo tipo di studi evoca è la fisiognomica: una disciplina pseudoscientifica che attraverso la fisiognomia o fisiognomonia pretende di dedurre i caratteri psicologici e morali di una persona dal suo aspetto fisico, soprattutto dai lineamenti e dalle espressioni del volto. Il termine deriva dalle parole greche physis (natura) e gnosis (conoscenza). Fin dal XVI secolo questa disciplina godette di una certa considerazione tanto da essere insegnata nelle università. La parola fisiognomica o fisiognomia venne usata fra gli studiosi per distinguerla dal termine fisionomia (o fisonomia) che ha un significato simile ma più generico. La popolarità della fisiognomica, nonostante precursori come Marin Cureau de La Chambre nel XVII secolo, crebbe soprattutto durante il XVIII e XIX secolo. Trovò in particolare nuovo vigore negli studi del celebre antropologo e criminologo italiano Cesare Lombroso, il quale ne trasse ipotesi di applicazioni pratiche nella criminologia forense e nella prevenzione dei reati, giungendo a predicare la pena capitale come unica soluzione contro la tendenza criminale innata e pertanto non educabile con la sola pena detentiva. Nel XX secolo questa dottrina è stata da più parti tirata in campo a supporto di ideologie xenofobe e pseudo-studi sulla razza.


Ancora oggi si trovano riflessi di queste teorie nei propagatori della cosiddetta morfopsicologia: una scienza che studia le corrispondenze tra le forme del viso e i tratti della personalità. Il viso è solitamente la prima cosa che ci colpisce quando incontriamo una persona, i suoi tratti e la sua mimica generano in noi quella simpatia, o quella antipatia, che determinerà gran parte del nostro rapporto. Secondo i seguaci di questo approccio, a differenza della fisiognomica, la morfopsicologia non considererebbe il volto in modo analitico e statico ma in continua trasformazione dinamica: ogni singolo elemento del volto assume significati che possono essere diversi a seconda del contesto in cui si inserisce, pertanto possiamo affermare che la morfopsicologia è lo studio dinamico del volto durante il suo percorso di vita e in base allo stile di vita che intraprende.



Gli autori dello studio partono dall'idea che un numero crescente di studi ha collegato le immagini facciali alla personalità. È stato stabilito che gli umani sono in grado di percepire alcuni tratti della personalità dai volti degli altri con un certo grado di precisione. Oltre alle espressioni emotive e ad altri comportamenti non verbali che trasmettono informazioni sui propri processi psicologici attraverso il viso, la ricerca ha scoperto che si possono anche fare inferenze valide sulle caratteristiche della personalità basate su immagini statiche del viso con un'espressione neutra. Questi risultati suggeriscono che le persone possono usare i segnali reciproci per regolare il modo in cui comunicano, a seconda delle reazioni emotive e della personalità percepita dell'interlocutore. Tali segnali devono essere abbastanza informativi e sufficientemente ripetitivi per consentire ai destinatari di trarre vantaggio dalle informazioni trasmesse.


Queste affermazioni si rifanno alle seguenti fonti citate in bibliografia:

  • Kramer, R. S. S., King, J. E. & Ward, R. Identifying personality from the static, nonexpressive face in humans and chimpanzees: Evidence of a shared system for signaling personality. Evol. Hum. Behav. https://doi.org/10.1016/j.evolhumbehav.2010.10.005 (2011).

  • Walker, M. & Vetter, T. Changing the personality of a face: Perceived big two and big five personality factors modeled in real photographs. J. Pers. Soc. Psychol. 110, 609–624 (2016).

  • Naumann, L. P., Vazire, S., Rentfrow, P. J. & Gosling, S. D. Personality Judgments Based on Physical Appearance. Personal. Soc. Psychol. Bull. 35, 1661–1671 (2009).

  • Borkenau, P., Brecke, S., Möttig, C. & Paelecke, M. Extraversion is accurately perceived after a 50-ms exposure to a face. J. Res. Pers. 43, 703–706 (2009).

  • Shevlin, M., Walker, S., Davies, M. N. O., Banyard, P. & Lewis, C. A. Can you judge a book by its cover? Evidence of self-stranger agreement on personality at zero acquaintance. Pers. Individ. Dif. https://doi.org/10.1016/S0191-8869(02)00356-2 (2003).

  • Penton-Voak, I. S., Pound, N., Little, A. C. & Perrett, D. I. Personality Judgments from Natural and Composite Facial Images: More Evidence For A “Kernel Of Truth” In Social Perception. Soc. Cogn. 24, 607–640 (2006).

  • Little, A. C. & Perrett, D. I. Using composite images to assess accuracy in personality attribution to faces. Br. J. Psychol. 98, 111–126 (2007).

  • Kramer, R. S. S. & Ward, R. Internal Facial Features are Signals of Personality and Health. Q. J. Exp. Psychol. 63, 2273–2287 (2010).

  • Pound, N., Penton-Voak, I. S. & Brown, W. M. Facial symmetry is positively associated with self-reported extraversion. Pers. Individ. Dif. 43, 1572–1582 (2007).

A questo livello si evidenzia una caratteristica propria di ogni tecnologia che è bene mettere in evidenza. Un artefatto tecnologico non può essere visto come un qualcosa di dato. Come un esserci alla maniera analoga con cui si guarda una montagna, un fiume o una foresta. Un algoritmo, un software o un prodotto informativo non va visto come una black box sigillata ma deve essere aperto e studiato nel suo sviluppo.


Un'analisi di una tecnologia che voglia essere o ritenersi adeguata deve anche concentrarsi sulla modalità in cui vengono realizzate le diverse tecnologie, sui diversi fattori e sugli attori sociali che contribuiscono alla creazione degli artefatti tecnologici. Il cambiamento operato da queste attenzioni fa si che al posto di descrivere la tecnologia come autonoma, queste portano alla luce le molte forze che agiscono su di essa.


In secondo luogo sulla scia degli studi epistemologici di Thomas Kuhn si afferma che non solo la scienza non è un monolite ma un insieme di scienze diverse che richiedono analisi indipendenti ma che anche la tecnologia necessita della stessa accortezza .


Infine, i filosofi della tecnologia che danno vita alla svolta empirica, guardano alla società come un fattore intrinseco nell’evoluzione tecnologica: proprio come i primi filosofi della scienza capirono di dover parlare di coevoluzione di scienza e società, così la nuova filosofia della tecnologia, maggiormente orientata empiricamente, comincia a parlare di co-evoluzione di tecnologia e società.


La co-evoluzione tra società e tecnologia diviene il punto di vista da cui ora la filosofia della tecnologia guarda al suo oggetto. Si introducono parole come tecnosocietà o tecnocultura che servono da metafora per indicare questa interdipendenza e interscambio. Si acquista consapevolezza filosofica di quello che alcuni studiosi come Noble da alcuni anni indicavano, cioè che lo sviluppo tecnologico, in breve, non è una forza indipendente che influenza la società dall’esterno, secondo una sua logica interna; piuttosto, questa stessa è un’attività sociale che riflette le particolarità del suo essere situata: il tempo, il posto, i sogni e gli scopi, le relazioni tra le persone.


Se Popper poteva sostenere che le teorie scientifiche sono proposizioni universali, espresse al modo indicativo della certezza, la cui verosimiglianza può essere controllata solo indirettamente a partire dalle loro conseguenze e che la conoscenza umana quindi, è di natura congetturale e ipotetica, e trae origine dall'attitudine dell'uomo a risolvere i problemi in cui si imbatte, quando cioè appare una contraddizione tra quanto previsto da una teoria e i fatti osservati, con la tecnologia dobbiamo ragionare in maniera analoga sostituendo alcune parti dello schema che Popper elabora per la teoria scientifica:



In altri termini la tecnologia nasce da una domanda sulla realtà (come posso fare a...) ma che vede il suo realizzatore già orientato e con una prospettiva sulla realtà. In oltre la tecnologia è figlia delle credenze, in senso filosofico, che ciascuno ha dentro: valori, giudizi, criteri e certezze. Non esiste una tecnologia neutra ma ogni tecnologia è figlia dell'orizzonte culturale e della persona o persone che la sviluppano (e dipende anche dai molteplici usi che se ne sono fatti nel tempo come ho più volte mostrato nelle mie pubblicazioni).


Cosa mostrano gli algoritmi?

Ecco cosa riporta lo studio sui risultati:

Abbiamo utilizzato i dati del set di dati del test contenente i punteggi previsti per 3.137 immagini associate a 1.245 individui. Per determinare se la varianza nei punteggi previsti era associata a differenze tra immagini o tra individui, abbiamo calcolato i coefficienti di correlazione intraclasse (ICC) presentati nella Tabella 2 . La proporzione inter-individuale di varianza nei punteggi previsti variava dal 79 all'88% per tratti diversi, indicando una coerenza generale dei punteggi previsti per diverse fotografie dello stesso individuo. Abbiamo derivato i punteggi individuali utilizzati in tutte le analisi successive come medie semplici dei punteggi previsti per tutte le immagini fornite da ciascun partecipante.



[...]

I coefficienti di correlazione tra i punteggi dei test self-report e i punteggi previsti dalla RNA variavano da 0,14 a 0,36. Le associazioni erano più forti per la coscienza e più deboli per l'apertura. L'estraversione e il nevroticismo erano significativamente meglio previsti per le donne che per gli uomini (in base al test z). Abbiamo anche confrontato l'accuratezza della previsione all'interno di ciascun genere usando il test di Steiger per i coefficienti di correlazione del campione dipendente. Per gli uomini, la coscienza è stata predetta in modo più accurato rispetto agli altri quattro tratti (le differenze tra questi ultimi non erano statisticamente significative). Per le donne, la coscienza è stata prevista in modo più accurato e l'apertura è stata prevista in modo meno accurato rispetto agli altri tre tratti.

L'errore assoluto medio (MAE) della previsione variava tra 0,89 e 1,04 deviazioni standard. Non abbiamo trovato alcuna associazione tra il numero di fotografie e l'errore di previsione.



Insomma l'AI avrebbe raggiunto un'accuratezza del 58%, che è leggermente migliore dell'accuratezza del 50% della casualità ma che lascia ancora molto margine all'incertezza. Il valore scientifico della predizione del sistema risiede quindi nella significatività statistica, espressa come p < 0,05, che certifica che 60% è un valore veramente più alto di 50% e la loro differenza non è attribuibile al caso. Un valore di p < 0,05 significa che, se si ripete l’esperimento 20 volte, potrà accadere che al massimo una sola volta (1 volta su 20 = 0,05) il risultato venga significativo solo per caso, senza che vi sia un reale effetto. Questo livello di sicurezza (di 19 su 20) viene comunemente accettato per suffragare un dato scientifico.



Per leggere questo punto vorrei rimandare ad alcune considerazioni di Jordan Ellenberg ne I numeri non sbagliano mai:


Nel 2009, all’annuale conferenza della Organization for Human Brain Mapping, che si tenne a San Francisco, il neuroscienziato della UC Santa Barbara Craig Bennett espose un poster dal titolo Correlati neurali dell’assunzione di prospettiva interspecie in un esemplare post-mortem di salmone europeo: un’argomentazione a favore della correzione per confronti multipli.1 Ci vuole qualche secondo per scartare l’involucro gergale in cui è avvolto il titolo, ma una volta che lo si è fatto il poster rivela in maniera chiara la natura inusitata dei risultati che annuncia. A un salmone morto, messo dentro un’apparecchiatura per la risonanza magnetica funzionale (fMRI), era stata mostrata una serie di fotografie di essere umani e si era scoperto che quel pesce defunto aveva una capacità sorprendentemente spiccata di valutare in maniera corretta le emozioni delle persone ritratte nelle foto. [...] Ovviamente dietro l’articolo in apparenza serissimo presentato nel poster si nascondeva una burla. (Una burla molto ben confezionata. Mi piace in particolare la sezione intitolata «Metodi», che inizia così: «Allo studio di fMRI ha partecipato un esemplare maturo di salmone dell’Atlantico (Salmo salar). Il salmone aveva una lunghezza approssimativa di 18 pollici, pesava 3,8 libbre e non era vivo al momento della scansione […] Come metodo per limitare i movimenti del soggetto durante la scansione, è stata posta un’imbottitura di gommapiuma all’interno del dispositivo di alloggiamento [...] La burla, come tutti le burle, è un attacco velato;3 nel caso specifico è un attacco alla metodologia ben poco rigorosa di quei ricercatori di neuroscienze che utilizzano la diagnostica per immagini compiendo l’errore di ignorare una verità fondamentale: cose improbabili accadono spessissimo. [...] Quando si esegue la scansione di un cervello, persino del freddo cervello di un pesce morto, i sensori riveleranno una certa quantità di rumore bianco proveniente da ciascun voxel. È molto improbabile che quel rumore di fondo manifesti un picco proprio nel momento esatto in cui si mostra al pesce la foto di una persona al colmo di uno stato emotivo. Ma il sistema nervoso è un luogo vasto, con decine di migliaia di voxel tra cui scegliere. Perciò le probabilità che uno di quei voxel fornisca dati in buon accordo con la foto mostrata sono notevoli. Ed è esattamente questo che hanno scoperto Bennett e colleghi nella loro ricerca, individuando due gruppi di voxel, uno nella cavità mediana dell’encefalo del salmone e un altro nel tratto superiore del suo midollo spinale, che eseguivano egregiamente il compito di manifestare empatia per le emozioni umane.


Dobbiamo ricordarci che in statistica non esiste un principio per scegliere una linea di divisione netta tra ciò che è significativo e ciò che non lo è, ma esiste la tradizione, che parte da Fisher stesso e oggi è accettata dai più, di porre p = 0,05, o 1/20, come valore limite. Il test di significatività dell’ipotesi nulla gode di tanta popolarità perché cattura il nostro modo intuitivo di ragionare sull’incertezza. In ogni caso Fisher non credeva in una regola rigida e fissa che ci dica che cosa fare. Diffidava del formalismo matematico puro. Nel 1956, quasi alla fine della sua vita, scrisse che «in effetti nessuno di coloro che lavorano in ambito scientifico ha un livello di significatività immutabile in base al quale di anno in anno, e in ogni circostanza, rigetta le ipotesi; si concentra invece su ciascun caso particolare alla luce delle evidenze di cui dispone e delle proprie idee».

Una seconda grande questione è quindi il valore epistemologico di tale studio. Per capire la sfida della correlazione e della causazione dobbiamo ripercorrere la trasformazione che a ha subito - e che sta ancora subendo - la comunità scientifica nella parte finale dello scorso secolo.



Nei primi anni del XX secolo la comunità umana era cablata dal telegrafo e poi dal telefono. Oggi le connessioni a livello globale avvengono tramite computer: in borsa gli scambi di denaro e di merci, il controllo del traffico aereo e ferroviario, ecc. avvengono per via informatica. La stessa via consente a milioni di persone di scambiarsi messaggi senza limiti di tempo e di spazio.

La rivoluzione che hanno portato i computer e l’informatica nel campo scientifico-tecnologico è stata abilmente descritta da Naief Yehya: con un computer possiamo trasformare quasi tutti i problemi umani in statistiche, grafici, equazioni. La cosa davvero inquietante, però, è che così facendo creiamo l’illusione che questi problemi siano risolvibili con i computer (N. Yehya, Homo cyborg. Il corpo postumano tra realtà e fantascienza, Eleuthera, Milano 2005, p. 15.).


Chris Anderson, il direttore di Wired, traccia una sintesi di cosa significhi la rivoluzione digitale per il mondo scientifico:


«gli scienziati hanno sempre contato su ipotesi ed esprimenti. [...] Di fronte alla disponibilità di enormi quantità di dati questo approccio - ipotesi, modello teorico e test - diventa obsoleto. [...] C’è ora una via migliore. I petabytes ci consentono di dire: “la correlazione è sufficiente”. Possiamo smettere di cercare modelli teorici. Possiamo analizzare i dati senza alcuna ipotesi su cosa questi possano mostrare. Possiamo inviare i numeri nel più grande insieme di computer [cluster] che il mondo abbia mai visto e lasciare che algoritmi statistici trovino modelli [statistici] dove la scienza non può. [...] Imparare a usare un computer di questa scala può essere sfidante. Ma l’opportunità è grande: la nuova disponibilità di un’enorme quantità di dati, unita con gli strumenti statistici per elaborarli, offre una modalità completamente nuova per capire il mondo. La correlazione soppianta la causalità e le scienze possono avanzare addirittura senza modelli teorici coerenti, teorie unificate o una qualche tipo di spiegazione meccanicistica» (C. Anderson, The End of Theory, Wired 16(2008) pp. 106-107).



L’avvento della ricerca digitale, dove tutto viene trasformato in dati numerici porta alla capacità di studiare il mondo secondo nuovi paradigmi gnoseologici: quello che conta è solo la correlazione tra due quantità di dati e non più una teoria coerente che spieghi tale correlazione . Praticamente attualmente assistiamo a sviluppi tecnologici (capacità di fare) che non corrispondono a nessuno sviluppo scientifico (capacità di conoscere e spiegare): oggi la correlazione viene usata per predire con sufficiente accuratezza, pur non avendo alcuna teoria scientifica che lo supporti, il rischio di impatto di asteroidi anche sconosciuti in vari luoghi della Terra, i siti istituzionali oggetto di attacchi terroristici, il voto dei singoli cittadini alle elezioni presidenziali USA, l’andamento del mercato azionario nel breve termine.

L’utilizzo dei computers e delle tecnologie informatiche nello sviluppo tecnologico hanno messo in evidenza una sfida linguistica che avviene al confine tra uomo e macchina: nel processo di interrogazione reciproca tra uomo e macchina sorgono proiezioni e scambi, finora impensati, e la macchina si umanizza non meno di quanto l’uomo si macchinizzi.

La correlazione allora è uno strumento che risulta particolarmente utile con i computer a sostegno della ricerca. Questo purché se ne conosca la natura. In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità.


Tuttavia va notato che che gli indici e i coefficienti di correlazione siano da ritenersi sempre approssimativi, a causa dell'arbitrarietà con cui sono scelti gli elementi: ciò è vero, in particolare, nei casi di correlazioni multiple.


Ma se due fenomeni sono correlati sono anche legati da nesso di causalità?


Per rispondere dobbiamo tornare al concetto di causa


«Ex nihilo nihil fit»

Così sentenziava Cartesio nei suoi Principia philosophiae parlando della necessità di una causa perché qualcosa sia. La causazione infatti nasce in filosofia. Nella storia della filosofia, nella scienza e nel senso comune il concetto di causa assieme a quello connesso di causalità o relazione causale indica la relazione tra due fenomeni (o classi di fenomeni), nel caso in cui il primo fenomeno, detto causa, è motivo di esistenza del secondo, detto effetto. La causa è il motivo per il quale qualcosa è, ed è così come è.



La causazione è quindi un concetto che conosce uno sviluppo analogo a quello della filosofia e che dice un modo di comprendere la realtà e il nesso tra ciò che esiste. Non voglio qui ripercorrere la storia della causalità o delle cause da un punto di vista filosofico ma dobbiamo però almeno aver presente uno sviluppo recente che porta alla comprensione odierna della causalità.


Il meccanicismo deterministico si è oggi rivelato sostanzialmente inadatto a spiegare il mondo microscopico. Ciò deriva anche dall'aver sostituito nella gnoseologia il concetto di causa con quello di serie causale, poiché in realtà i sistemi sia fisici che biologici sono caratterizzati da un numero molto alto di variabili causali. Un effetto è perciò quasi sempre la risultante di più cause e la tipologia e il modo con cui le cause si connettono o sconnettono determina il risultato.


L'indeterminismo, la validità solo statistica delle leggi scientifiche hanno fatto considerare sorpassate le concezioni filosofiche del passato a cui si sono sostituiti nuovi modelli di interpretazione come è accaduto con la fisica quantistica che ha sostituito allo schema deterministico quello probabilistico. Il probabilismo scientifico ha pertanto sostituito il determinismo tradizionale andando a coincidere dal più al meno con l'indeterminismo.



L'introduzione del concetto di complessità ha imposto l'opportunità di associare al concetto di causa quello, specificatamente adottato ad esempio nella disciplina giuridica, di serie causale, nella quale più cause concorrono a un effetto. I sistemi complessi evolvono in maniera sia deterministica che indeterministica, soggetti a mutamenti sia casuali che necessari che vengono modernamente definiti, in particolare nell'ambito della matematica e della fisica, sistemi lineari e sistemi intricati.


Anche l'epistemologia si è chiesta quale debba essere il vero valore di conoscenza delle leggi scientifiche e se queste non esprimano altro che una funzione di utilità pratica piuttosto che un valore teoretico nell'interpretazione della natura.


Le leggi della natura vanno considerate allora come schemi sintetici in cui raccogliere le misurazioni quantitative e le previsioni sperimentali degli scienziati.


Filosofi e scienziati come Ernst Mach, Hermann von Helmholtz dalla seconda metà del XIX secolo alla prima metà del XX hanno teorizzato la sostituzione del concetto di causalità nelle scienze con quello di descrittività per cui le leggi scientifiche si limiterebbero a descrivere sinteticamente quanto avviene in modo costante ed uniforme nei fenomeni naturali.


Alle leggi scientifiche non spetta più il compito di spiegare i fenomeni usando pretese oggettive relazioni di causalità ma di descrivere soggettivamente le sequenze uniformi ricorrendo a necessarie costanti verifiche empiriche.


Queste teorie convenzionalistiche e lo stesso operazionismo di Percy Williams Bridgman però sono state criticati così che oggi la fisica teorica e l'epistemologia, pur mantenendo il carattere della descrittività delle leggi scientifiche, sono alla ricerca di un nuovo concetto di causalità.


Causalità nell'epoca dei dati: la correlazione spuria

Se la causalità è in crisi tanto da un punto di vista filosfico/epistemologico che scientifico la matematica può essere uno strumento abbastanza descrittivo da fungere da funzione supplente a questo gap teorico. Questo è il motivo filosofico che sostiene l'esito che Anderson ha descritto sulla pagine di Wired,


La statistica e i suoi assunti logici cercano di fornire una funzione e di supplenza aspettando che nuove comprensioni della causalità e della realtà ci permettano di continuare questo viaggio umano nella conoscenza del mondo.


Questo è il punto dove oggi la filosofia serve alla tecnica: se le macchine trovano correlazioni e "decidono" in base ad esse, dobbiamo poter avere dei criteri di verifica e di comprensione per evitare esiti indesiderati per le AI e il machine learning. Questi infatti utilizzando algoritmi di regressione sono sistemi di tipo correlativo


Parlando di strumenti statistici bisogna essere coscienti che nel cercare una correlazione statistica tra due grandezze, per determinare un possibile rapporto di causa-effetto, essa non deve risultare una correlazione spuria.



La correlazione spuria venne descritta nel 1926 da George Udny Yule in Why Do We Get Some Nonsense Correlations Between Time Series? A Study in Sampling and the Nature of Time Series, dopo aver notato in uno studio una correlazione lineare positiva tra percentuale di matrimoni con rito religioso e tasso di mortalità.


Rilevando anno dopo anno il numero di matrimoni e il numero di rondini in cielo, si può osservare ad esempio una forte correlazione tra i due fenomeni, il che non è dovuto al fatto che uno dei due influenza l'altro, ma semplicemente al fatto che in certi paesi le rondini compaiono durante le loro migrazioni in primavera ed autunno che sono pure i periodi preferiti dalle coppie nello scegliere il giorno delle nozze.


In altri termini se due fenomeni risultano statisticamente correlati tra loro, non vuol dire necessariamente che tra di essi sussista un legame diretto di causa-effetto, potendo essere tale correlazione del tutto casuale (cioè spuria) ovvero dipendente da una terza variabile in comune, in assenza di meccanismo logico-causale plausibile che li metta in relazione tra loro.

Alcune prospettive: AI oracolari?

Sono studi come questo pubblicato su Nature che ci devono far chiedere come culturalmente stiamo costruendo il nostro accesso al mondo delle AI.


Proprio la natura di provocazione a pensare di questo post mi impedisce chiudere questo contributo con delle conclusioni. Quello che ho scritto vuole essere un invito ad aprire delle piste di riflessioni condivise.


Da quando non solo abbiamo imparato a vedere la realtà come un insieme di dati ma abbiamo anche imparato a collezionarli, i big data, ci siamo dotati di un nuovo strumento di indagine. Tre secoli fa con le lenti concave abbiamo realizzato il telescopio e il microscopio, imparando a vedere il mondo in modo diverso. Microsocpio e telescopio costituirono gli strumenti tecnologici con cui la rivoluzione scientifica del 600 e del 700 ha ottenuto le sue scoperte. Abbiamo reso visibile l'estremamente lontano telescopio - e l'estremamente piccolo - microscopio -.



Oggi con i dati abbiamo realizzato un nuovo “strumento” il macroscopio. Con i big data noi riusciamo a vedere in maniera nuova e sorprendente l'estremamente complesso delle relazioni sociali individuando relazioni e connessioni dove prima non vedevamo nulla. Le AI e il machine learning applicati a questi enormi set di dati sono il macroscopio con cui studiare meccanicisticamente l'estremamente complesso. Spetta a noi capire che tipo di conoscenza stiamo generando. Se questa forma di conoscenza sia scientifica e in che senso sia deterministica o predittiva è tutto da capire. Tuttavia la rivoluzione conoscitiva, come con il telescopio e il microscopio, è già in atto.

Infine guardiamo al modo con cui approcciamo i database e i big data. I big data sono dei database che raccolgono enormi quantità di diversi tipi informazioni che vanno dai testi all’audio, dai video alle immagini, dai like su Facebook alle transazioni monetarie, e che richiedono l’utilizzo di calcolatori estremamente potenti per riuscire a gestirli. Dalla straordinaria capacità di elaborazione di questa sterminata moltitudine di elementi in formato digitale, che l’umanità ha spontaneamente riversato online negli ultimi decenni, si possono estrapolare delle previsioni. Sempre di più, almeno nell'attività lavorativa, i dati sono diventati una meta sicura: i numeri non mentono, rispondono sempre e sono sempre disponibili. Per chi sa cose domandare un database è l’interlocutore ideale. Ma oggi si può fare molto di più: i dati sono in grado di fornire risposte a domande che non siamo in grado di fare. È questo, in fondo, il risultato più innovativo di quella scienza nascente che si chiama big data, ovvero la capacità di raccogliere dati eterogenei e di individuare relazioni, collegamenti, connessioni inaspettate. Le aspettative sono elevatissime e molte aziende sono impegnate nella costruzione di questo grande oracolo personale. Per il momento soprattutto accumulano dati, tanto che le quantità di informazioni archiviate stanno crescendo a ritmi travolgenti. Si comincia già a parlare dell’era dei BrontoByte, un’unità di misura dei dati fino a qualche anno fa inimmaginabile, ma a cui già oggi si avvicinano alcune organizzazioni che anni accumulano instancabilmente byte da ogni fonte.


La vera sfida, però, è far parlare questo nuovo oracolo digitale, capire cosa ci dice. Ci sembra una curiosa coincidenza che una delle maggiori società leader nella catalogazione dei dati e negli strumenti per studiare e gestire i database si chiami Oracle, cioè oracolo.


Allora i dati diventano gli dei del XXI secolo. Sono loro i vati e gli oracoli da interrogare per sapere i segreti che sono nascosti nel nostro futuro. E diviene quanto mai significativo un frammento di uno dei primi filosofi, Eraclito, con cui abbiamo aperto questo teso. Il filosofo di Efeso avverte: “Il signore, il cui oracolo è a Delfi, non dice né nasconde, ma significa” (Sulla natura frammento 93). Oggi i dati offerti in modo sacrificale agli idoli delle AI significano, cioè indicano, senza spiegare.



È urgente pensare le AI e gli algoritmi per farlo dobbiamo tornare a quella forma matriciale del nostro pensiero occidentale la polis greca, la piazza in cui far convergere i diversi saperi in cerca della verità. E allora sono le parole di Baricco, nel suo racconto City, forse l’apertura migliore al compito che ci aspetta:

Tutte quelle storie sulla tua strada. Trovare la tua strada. Andare per la tua strada. Magari invece siamo fatti per vivere in una piazza, o in un giardino pubblico, fermi lì, a far passare la vita, magari siamo un crocicchio, il mondo ha bisogno che stiamo fermi, sarebbe un disastro se solo ce ne andassimo, a un certo punto, per la nostra strada, quale strada? sono gli altri le strade, io sono una piazza, non porto in nessun posto, io sono un posto.