• Paolo Benanti

AI Ground Truth ovvero dell'uomo e della macchina

Aggiornato il: ott 21

Spesso in questo blog abbiamo criticato il modo troppo antropomorfico con cui si parla del machine learning (ML) e dell'intelligenza artificiale (AI). Termini come memoria (si veda il testo Ricordare troppo), intelligenza e conoscenza si applicano con troppa nonchalance a l'uomo e alla macchina. Cerchiamo qui di riproporre secondo un'altra prospettiva il tema.



Se filosoficamente questa ambivalenza inizia ad essere ben conscia e se i data scientists e i programmatori di AI e ML trovano sempre più nei loro curricola corsi di materie umanistiche che chiariscono limiti e problematicità connesse a queste sfocature semantiche, non abbiamo certezza che la stessa percezione sia presente nel mondo del business e della politica. I decisori commerciali e politici potrebbero con troppa facilità essere indotti a pensare all'AI come a un collega obiettivo e imparziale che conosce tutte le risposte giuste o come un buono e fedele funzionario che fa sue le direzioni politiche assunte.



Il post che segue vuole essere un tentativo di sfatare questo "mito" agendo su più livelli (dal tecnico allo spirituale) e con diversi linguaggi.


Esercizio per casa: costruire un sistema di AI per classificare le immagini

Un compito che praticamente ogni studente di intelligenza artificiale ha affrontato nei suoi studi è costruire un sistema di AI/ML che sfruttando dei dati sia in grado di classificare delle immagini etichettandole come appartenenti o non appartenenti a un tipo specifico. Per il nostro esempio supponiamo di voler realizzare un sistema che classifichi le immagini - in gergo tecnico si dice "etichetti" - come "gatto" (la foto contiene un gatto) o "non gatto" (nessun gatto da vedere).


Il motivo per cui questo è un classico esercizio per imparare a programmare sistemi di AI è che il riconoscimento di oggetti è un compito relativamente facile da eseguire per gli esseri umani, ma è davvero difficile per noi dire come lo facciamo. Cioè quello che per noi è frutto di un apprendimento avvenuto in tenerissima età in maniera spontanea diventa difficilissimo da formalizzare come criteri. Cosa fa di quello che vedo un gatto. Ha 4 zampe? Si ma anche il cavallo e il cane. Ha due orecchie a punta? Si ma... E così via.



In altri termini noi riusciamo a dire con estrema facilità che immagini molto diverse per colore forma e prospettiva sono di aniamli dello stesso tipo ma se dovessimo metterci a scrivere cosa è la "gattità" (so che qualcuno sente delle reminescenze di dibattiti antichi quanto la filosofia tra Platone ed Aristotele) saremmo in seria difficoltà. Ecco riuscire a far questo è un ottimo compito da dare a uno studente per imparare l'AI e il ML.


Chi dei miei lettori è già avvezzo al mondo dell'AI o naviga questi temi da un po' di tempo sarà stufo di sentire parlare di esercizi gatto/non-gatto. Vi chiedo solo un po' di pazienza per permettermi di arrivare al punto che voglio trattare.


Torniamo all'esercizio che ci è stato assegnato: realizzare un sistema che riconosca i gatti quando li vede nelle foto.


Per "insegnare" questo alla macchina, abbiamo bisogno di fornire delle immagini etichettate al sistema. Quindi il primo passaggio del nostro esercizio ci chiede di essere noi "l'intelligenza" che nutrirà il sistema. Facciamolo con le sei immagini qui sotto. Ricordiamoci che l'esercizio è classificare le sei immagini di seguito. Possiamo scegliere solo tra due etichette -output- consentite:

  • Gatto

  • Non-gatto


Bene allora facciamolo! Assegnate una delle etichette consentite a ciascuna delle 6 immagini, proprio come farebbe un sistema AI:



Bene. Per quanto questo esempio sia limitato a sei immagini invece delle migliaia necessarie e per quanto, come ogni esempio, sia limitato, forse abbiamo iniziato a intuire un problema. Le immagini 1-5 erano relativamente facili da classificare, ma cosa abbiamo mugugnato dentro di noi per l'immagine 6? Abbiamo pensato che forse si sarebbe dovuto rispondere "grande gatto"? "Una specie di gatto"? "Forse gatto"? Tutte soluzioni intelligenti e forse in grado di aiutare il sistema. Però quelle non sono opzioni consentite! Noi stiamo addestrando un sistema programmato per produrre solo due etichette per ogni immagine "gatto" o "non-gatto". Allora qual è l'etichetta dell'immagine 6?


Pur se con la limitatezza di questo piccolo esempio, appare evidente quanto sia importante il decisore nella realizzazione di un progetto di AI/ML. La risposta giusta non è platonica e di certo non viene dal sistema di AI ... infatti, non esiste una risposta “giusta” . La risposta "giusta" dipende da ciò che il proprietario del sistema vuole che il sistema faccia.


L'intelligenza artificiale non può fissare l'obiettivo per noi: questo è il lavoro dell'uomo e quello che darà al sistema di AI/ML caratteristiche proprie e limiti.



Supponiamo che l'esercizio svolto serva alla realizzazione di un'app che, inquadrando con la fotocamera un animale, possa raccomandare quali animali domestici sono sicuri da coccolare nella loro tipica forma adulta. Se questo è il mio scopo la risposta corretta diventa chiara. Il mio scopo per questo sistema fa si che l'azione corretta sia etichettare l'immagine 6 come "non-gatto". Se a questo punto qualcuno è ancora convinto che lo dovrebbe etichettare ancora come "gatto", beh ... non penso che utilizzerò mai una vostra app e vi consiglio di assicurare bene la vostra società contro i danni a terzi.


Arriviamo così a un primo punto fondamentale: le risposte "giuste" nell'apprendimento automatico - AI e ML - sono solitamente negli occhi di chi guarda, quindi un sistema progettato per uno scopo potrebbe non funzionare per uno scopo diverso.


Qui troviamo una prima grande differenza tra l'intelligenza umana e i sistemi che stiamo sviluppando come intelligenza artificiale. Noi siamo dotati di facoltà intelligenti generali, cioè che indipendentemente da come abbiamo imparato ad acquisirle e del contesto dove le usiamo, queste possono essere comunque applicate. Se abbiamo intenzione di classificare i gatti per qualche altro scopo, forse la risposta "giusta" sarebbe stata diversa. Quindi i sistemi di AI si dicono "narrow" cioè sono in qualche certa misura "intelligenti" ma solo nello stretto - narrow - ambito in cui e per cui sono stati addestrati e pensati di essere utilizzati. Lo scopo o l'obiettivo del sistema viene dal decisore umano che li ha pensati e realizzati!


Mi spiace ma Platone non può insegnare una filosofia per l'AI: risposte diverse saranno appropriate per progetti diversi.



Nel mondo dell'AI e del ML, l'obiettivo per cui è stato realizzato il sistema è sempre frutto della scelta di un soggetto umano (o di una serie di soggetti quando i progetti sono complessi e interconnessi). Ma di certo mai neutrale o spontaneo.


Spetta al proprietario del progetto scegliere quali sono gli obiettivi e sta a tutti gli altri - decisori del business e politici - capire che i sistemi di intelligenza artificiale hanno molta soggettività incorporata.


I decisori devono fungere, mi si perdoni anche a me un po' di antropomorfismo di maniera, da genitori responsabili che scelgono i comportamenti che vogliono che i loro sistemi replichino ... e non c'è quasi mai un unico modo "giusto" per definire le categorie e fissare obiettivi su cui ogni decisore sarebbe d'accordo. Queste cose dipendono dalle singole persone. Persone diverse troveranno diversi insiemi di comportamenti appropriati da replicare e includere nei loro sistemi.


A questo punto ben capiamo che se ci mettiamo nei panni del decisore quello che dobbiamo aver cosciente è che ereditiamo dagli sviluppatori il ​loro sistema e se le nostre intenzioni sono diverse da quelle dello sviluppatore o se prevediamo di usare il sistema sviluppato per uno scopo diverso da quello per cui è stato progettato - per restare nell'esempio, se abbiamo opinioni diverse da quelle dello sviluppatore su quello che dovrebbe essere chiamato un gatto - potremmo scoprire che il sistema non funziona per noi o nella peggiore delle ipotesi contare le vittime di questo fraintendimento. Il mio sistema di classificazione dei gatti potrebbe anche ferirti, anche se ti ha reso felice facendoti accarezzare una tigre.


Se ciò accadesse, la colpa in prima istanza sarebbe del decisore, non dello sviluppatore. Il decisore è stato abbastanza ingenuo da ritenere che ci fosse un solo modo per definire le cose e i gatti...



Però qui risiede il mito che dobbiamo sfatare. Pensiamo forse che un sistema con una componente matematica non possa avere ambiguità e debolezze umane? Pensiamo che i dati e i numeri siano oggettivi?


A questo rispondo brevemente citando un famoso statistico, Gregg Easterbrook: "Se torturi i numeri abbastanza a lungo, confesseranno qualsiasi cosa".


Da un punto di vista operativo possiamo concludere che di fatto, come decisore del mondo del business o politico, abbiamo ottenuto e implementato una grande soluzione ma al problema sbagliato perché non era il nostro problema (era quello dello sviluppatore).


Suggerimento: si dovrebbe sempre testare un sistema di intelligenza artificiale sviluppato da qualcun altro, soprattutto se non sai come gli sviluppatori hanno definito i loro obiettivi.


Sto suggerendo che non si può usare sistemi sviluppati da altri team di ingegneri di intelligenza artificiale e che bisogna costruirne uno nostro da zero ogni volta? Affatto. Tuttavia, bisogna avere un'idea chiara di cosa significhi svolgere correttamente il compito che vogliamo il sistema esegua (ad esempio cosa fare se c'è una tigre) e bisogna testare attentamente il sistema che si sta pensando di implementare acquisendolo da qualcun altro con una nostra batteria esempi (come le foto che abbiamo etichettato a mano).


Il concetto chiave: la verità fondamentale

Forse qualcuno potrebbe aver sentito a questo proposito il termine "verità fondamentale" o "ground truth" aggirarsi come uno spettro nel modno del ML/AI.


Cosa significa?


Notizia bomba: la verità fondamentale non è vera.


La ground truth è un risultato atteso ideale (secondo i responsabili del progetto). In altre parole, è un modo per riassumere le opinioni dei proprietari del progetto creando una serie di esempi con etichette di output che tali proprietari hanno trovato desiderabili. Potrebbe comportare l'etichettatura manuale di punti dati di esempio o l'inserimento di sensori "a terra" (in una posizione desiderata e cercata nel corrispettivo mondo reale) per raccogliere dati di risposta desiderabili per l' addestramento del sistema.


Ad esempio, una serie di immagini potrebbe essere accuratamente etichettata a mano come gatto o non-gatto in base alle opinioni di chiunque fosse responsabile del progetto e quelle etichette gatto/non-gatto saranno chiamate "verità di base" o "ground truth" per il progetto.


Quando un set di dati di questo tipo viene utilizzato per addestrare sistemi di ML/AI, i sistemi basati su di esso erediteranno e amplificheranno i valori impliciti delle persone che hanno deciso quale fosse il comportamento del sistema ideale per loro.


Quando creiamo sistemi di macchine basati sui dati, insegniamo loro il senso dei nostri valori.



Visto che siamo in argomento, si deve tenere presente che la creazione di una "verità di base" chiedendo a persone di fiducia di svolgere il compito richiesto è soggetta a tutti i tipi di errori possibili, compreso l'errore umano. È una buona idea cercare di ridurre al minimo il potenziale di questo errore attraverso approcci come flussi di lavoro di raccolta dati basati sul consenso, monitoraggio dei tempi di reazione e l'introduzione di una serie di meccanismi intelligenti per l'esperienza utente (UX) che riducono la probabilità di errori di immissione dei dati.


È sempre una buona idea chiedere al decisore del progetto di esaminare un campione casuale per verificare che la qualità sia sufficientemente elevata.


Cosa succede se troviamo un set di dati su Internet e lo usiamo - non per risparmiare sui costi ovviamente... - invece di raccoglierne uno nostro?


Ogni applicazione bastata su AI e ML eredita i valori impliciti e i pregiudizi di chi ha creato il set di dati. Ci sono sempre scelte soggettive lungo la strada e chi li fa determina il “giusto” e lo “sbagliato” per l'applicativo. Bisogna avere ben chiaro che ci si sta fidando di qualcuno e quindi bisogna avere chiaro di chi è che ci stiamo fidando.


A questo livello c'è molto da fare per i responsabili delle decisioni che si prendono il tempo per eseguire l'attività da soli per comprendere meglio il problema che stanno cercando di risolvere, insieme ai dati, agli obiettivi e ai casi limite.


Le AI e il ML sono oggetti politici?

In un celebre articolo del 1980 Langdon Winner si chiedeva se gli artefatti tecnologici avessero una costituzione politica. Ne riportiamo un lungo estratto per mostrare cosa si gnifica che AI e ML abbiano una ground truth per una critica socio-politica di questi strumenti. Ecco cosa Winner fa notare:


In quanto segue proporrò due modi per descrivere e illustrare i due modi in cui i manufatti possono contenere proprietà politiche. In primo luogo sono i casi in cui l’invenzione, la progettazione o la disposizione di uno specifico dispositivo o sistema tecnico diventa un modo per risolvere un problema in una particolare comunità. Visti nella giusta luce, esempi di questo tipo sono abbastanza semplici e facilmente comprensibili. Secondo sono i casi di quelle che possono essere chiamate tecnologie intrinsecamente politiche, sistemi artificiali che sembrano richiedere, o essere fortemente compatibili con, particolari tipi di relazioni politiche. Le argomentazioni su casi di questo tipo sono molto più fastidiose e più vicine al cuore della questione. Per “politica” intendo gli accordi di potere e di autorità nelle associazioni umane, così come le attività che si svolgono all’interno di tali accordi. Per i miei scopi, per “tecnologia” qui si intende tutto l’artificio pratico moderno, ma per evitare confusione preferisco parlare di tecnologie, di pezzi più o meno grandi o di sistemi di hardware di un tipo specifico. La mia intenzione non è quella di risolvere una volta per tutte le questioni, ma di indicare le loro dimensioni e il loro significato.
Chiunque abbia percorso le autostrade d’America e si sia abituato all’altezza normale dei cavalcavia può trovare qualcosa di un po’ strano in alcuni dei ponti di Long Island, New York. Molti dei cavalcavia sono straordinariamente bassi, con solo tre metri e mezzo di spazio libero sul marciapiede. Anche chi si accorgesse di questa peculiarità strutturale non sarebbe incline ad attribuirle un significato particolare. Nel nostro modo abituale di vedere le cose come strade e ponti, vediamo i dettagli della forma come innocui, e raramente ci riflettiamo.


Si scopre, tuttavia, che i circa duecento cavalcavia sospesi a Long Island sono stati deliberatamente progettati per ottenere un particolare effetto sociale. Robert Moses, il capomastro costruttore di strade, parchi, ponti e altre opere pubbliche dagli anni Venti agli anni Settanta a New York, fece costruire questi cavalcavia secondo specifiche che avrebbero scoraggiato la presenza di autobus sui suoi viali. Secondo le prove fornite da Robert A. Caro nella sua biografia di Moses, le ragioni riflettono il pregiudizio di classe sociale e razziale di Moses. I bianchi di classe “alta” e “comoda classe media”, come li chiamava lui, che possedevano automobili, sarebbero stati liberi di usare i parcheggi per la ricreazione e il pendolarismo. I poveri e i neri, che normalmente usavano i mezzi pubblici, erano tenuti fuori dalle strade perché gli autobus alti dodici piedi non potevano attraversare i cavalcavia. Una truffa consisteva nel limitare l’accesso delle minoranze razziali e dei gruppi a basso reddito a Jones Beach, l’acclamato parco pubblico di Moses. Moses si è reso doppiamente sicuro di questo risultato ponendo il veto su una proposta di estensione della Long Island Railroad a Jones Beach.
Come storia della recente storia politica americana, la vita di Robert Moses è affascinante. I suoi rapporti con sindaci, governatori e presidenti, e la sua attenta manipolazione delle legislature, delle banche, dei sindacati, della stampa e dell’opinione pubblica sono tutte questioni che gli scienziati politici hanno potuto studiare per anni. Ma i risultati più importanti e duraturi del suo lavoro sono le sue tecnologie, i vasti progetti di ingegneria che danno a New York gran parte della sua forma attuale. Per generazioni, dopo che Moses se n’è andato e le alleanze che ha stretto sono andate in frantumi, le sue opere pubbliche, soprattutto le autostrade e i ponti che ha costruito per favorire l’uso dell’automobile rispetto allo sviluppo dei trasporti di massa, continueranno a dare forma a quella città. Molte delle sue monumentali strutture monumentali in cemento e acciaio incarnano una sistematica disuguaglianza sociale, un modo di ingegnerizzare i rapporti tra le persone che, dopo un certo tempo, diventa solo un’altra parte del paesaggio. Come il progettista Lee Koppleman ha raccontato a Caro dei ponti bassi sulla Wantagh Parkway: “Il vecchio figlio di buona donna si era assicurato che gli autobus non avrebbero mai potuto utilizzare le sue maledette autostrade”.


Le storie dell’architettura, dell’urbanistica e delle opere pubbliche contengono molti esempi di disposizioni fisiche che contengono scopi politici espliciti o impliciti. Si può indicare l’ampia viabilità parigina del barone Haussmann, progettata in direzione di Luigi Napoleone per evitare il ripetersi di scontri di strada come quelli avvenuti durante la rivoluzione del 1848. Oppure si può visitare un numero qualsiasi di grotteschi edifici in cemento armato e di enormi piazze costruite nei campus universitari americani tra la fine degli anni Sessanta e l’inizio degli anni Settanta per dare il via a dimostrazioni studentesche. Anche gli studi sulle macchine e gli strumenti industriali rivelano interessanti storie politiche, alcune delle quali violano le nostre normali aspettative sul motivo per cui le innovazioni tecnologiche vengono realizzate in primo luogo. Se supponiamo che le nuove tecnologie vengano introdotte per ottenere una maggiore efficienza, la storia della tecnologia dimostra che a volte rimarremo delusi. Il cambiamento tecnologico esprime una panoplia di motivazioni umane, non ultima la volontà di alcuni di avere il dominio su altri, anche se può richiedere un occasionale sacrificio di riduzione dei costi e una certa violenza per ottenere di più da meno.
[...]
Nessuno degli argomenti e degli esempi considerati finora affronta un’affermazione più forte, più preoccupante, spesso formulata in scritti sulla tecnologia e sulla società: la convinzione che alcune tecnologie sono per loro stessa natura politiche in un modo specifico. Secondo questo punto di vista, l’adozione di un dato sistema tecnico porta inevitabilmente con sé condizioni per rapporti umani che hanno una caratteristica politica distintiva - per esempio, centralizzata o decentralizzata, egualitaria o inegalitaria, repressiva o liberatoria.
[...]
Se esaminiamo gli schemi sociali che compongono gli ambienti dei sistemi tecnici, troviamo alcuni dispositivi e sistemi quasi invariabilmente legati a specifici modi di organizzare il potere e l’autorità. La domanda importante è: Questo stato di cose deriva da una risposta sociale inevitabile a legami propri intrattabili nelle cose stesse, o è invece un modello imposto in modo indipendente da un organo di governo, da una classe dirigente o da qualche altra istituzione sociale o culturale per promuovere i propri scopi?


Prendendo l’esempio più ovvio, la bomba atomica è un artefatto intrinsecamente politico. Finché esiste, le sue proprietà letali richiedono che sia controllata da una catena di comando centralizzata, rigidamente gerarchica e chiusa a tutte le influenze che potrebbero rendere imprevedibile il suo funzionamento. Il sistema sociale interno della bomba deve essere autoritario; non c’è altro modo. Lo stato delle cose si pone come una necessità pratica indipendente da qualsiasi sistema politico più ampio in cui la bomba è incorporata, indipendente dal tipo di regime o dal carattere dei suoi governanti. Infatti, gli Stati democratici devono cercare di trovare il modo di garantire che le strutture sociali e la mentalità che caratterizzano la gestione delle armi nucleari non “si propaghino” o “si riversino” nel sistema politico nel suo complesso.
La bomba è, ovviamente, un caso speciale. Le ragioni per cui sono necessari rapporti molto rigidi di autorità nella sua immediata presenza dovrebbero essere chiare a chiunque. Se, tuttavia, cerchiamo altri casi in cui particolari varietà di tecnologia sono ampiamente percepite per la necessità di mantenere uno speciale modello di potere e di autorità, la storia tecnica moderna contiene un gran numero di esempi.

Applicando queste considerazioni ad AI e ML appare evidente come il modo stesso di costruire questi elementi ne faccia degli strumenti politici. Non è solo il modo con cui il decisore del business o il decisore politico decide di utilizzarne. Non c'è una fittizia divisione teorica tra technè e praxis.


Ogni forma tecnologica è costitutivamente una forma di gestione e organizzazione del potere. La ground truth è il livello in cui questo presupposto politico divien tecnologico e acquisisce la forza e la pervasività dell'algoritmo.


Ora che è chiaro la matrice soggettiva dell'AI e del ML e che tutto si fonda su una scelta arbitraria a cui si da il nome di "ground truth" alla luce anche di quanto detto appare eveidente che la domanda chiave è: come essere un cittadino migliore in una società sempre più intrisa di AI?


Il primo passo comincia dal non prendere soluzioni preconfezionate come se fossere fedeli a un "dato di targa" ma chiedendosi:

  • Chi ha costruito questo sistema?

  • Quali erano i loro obiettivi (soggettivi)?

  • Come hanno definito le risposte giuste?

  • La maggior parte delle persone avrebbe trovato definizioni simili?

  • Come viene creato il set di dati di verità di base?

  • Di quali persone dovrebbe beneficiare questo sistema?

  • Quanto possono essere dolorosi gli errori?

  • Sono incorporate reti di sicurezza adeguate ? (I creatori del sistema hanno avuto l'umiltà di prevedere la possibilità che le loro scelte potessero essere imprudenti e pianificare di conseguenza?)


Una lettura spirituale

All'inizio di questo post avevo accennato anche a un elemento spirituale. Mi piace affrontarlo a conclusione di questo percorso come apertura a una ulteriorità possibile nella lettura del fenomeno.


Nella Genesi, il primo libro del canone biblico, leggiamo:


"E il Signore Dio disse: «Non è bene che l’uomo sia solo: voglio fargli un aiuto che gli corrisponda». Allora il Signore Dio plasmò dal suolo ogni sorta di animali selvatici e tutti gli uccelli del cielo e li condusse all’uomo, per vedere come li avrebbe chiamati: in qualunque modo l’uomo avesse chiamato ognuno degli esseri viventi, quello doveva essere il suo nome. Così l’uomo impose nomi a tutto il bestiame, a tutti gli uccelli del cielo e a tutti gli animali selvatici, ma per l’uomo non trovò un aiuto che gli corrispondesse" (Gen 2,18-20).



Commentiamo questo celeberrimo brano con l'aiuto di un testo uscito su Doppiozero a firma Nunzio La Fauci.


Chi vuole accostarsi alla lingua senza pregiudizi e con il desiderio di capirci qualcosa trova una fiera resistenza nel senso comune dei dotti. La lingua vi ha infatti un gran rilievo ed è tema di molte idee ricevute. Non solo tra profani che son dotti perché praticano dottamente altre contrade dell'umano, ma anche tra dotti specifici.
Del resto, quando è questione della lingua, una distinzione tra profani e specialisti è già essa stessa un'idea ricevuta. In proposito vale un criterio aureo. Sulla lingua, provare a capire ciò che fa chi la parla è in linea di massima più ragionevole che provare a capire le speculazioni che la riguardano (questa inclusa). Sempre che si sia sufficientemente magnanimi, per dirla col Dante del Convivio, da intendere ciò che fa chi la parla. La faccenda è spinosa, però, e non è nemmeno quella di cui qui si vuole dire. La si toccherà, caso mai, un'altra volta.
Tra le idee ricevute sulla lingua ce n'è una, generalissima e di gran peso, le cui radici stanno addirittura nella Bibbia: “Allora il Signore Dio plasmò dal suolo ogni sorta di bestie selvatiche e tutti gli uccelli del cielo e li condusse all'uomo, per vedere come li avrebbe chiamati: in qualunque modo l'uomo avesse chiamato ognuno degli esseri viventi, quello doveva essere il suo nome. Così l'uomo impose nomi a tutto il bestiame, a tutti gli uccelli del cielo e a tutte le bestie selvatiche” (Genesi 2,19-20).
Non è proprio il principio, ma il principio c'è stato da poco. Ciò che vi si narra ha avuto e ha rilievo per discussioni di non poco momento.
[...]
A Umberto Eco capitò appunto una volta di evocare il passo biblico nel modo che segue: “L'interpretazione di questo brano è estremamente delicata. Infatti qui certamente si propone il tema, comune ad altre religioni e mitologie, del Nomoteta, e cioè del primo creatore del linguaggio, ma non è chiaro su quali basi Adamo abbia nominato gli animali, né in ogni caso la versione della Vulgata, quella su cui si è formata la cultura europea, fa nulla per risolvere l'ambiguità, perché anzi essa prosegue dicendo che Adamo ha chiamato i vari animali nominibus suis, e a tradurre «coi loro nomi» non si risolve nulla: significa che Adamo li ha nominati coi nomi che loro spettavano per qualche diritto extralinguistico o coi nomi che ora noi (in base alla convenzione adamica) attribuiamo loro? Ogni nome dato da Adamo è il nome che doveva avere l'animale a causa della sua natura o quello che il Nomoteta ha deciso arbitrariamente di assegnargli, ad placitum, instaurando così una convenzione?” (La ricerca della lingua perfetta, Laterza, Bari 1993, p. 14).
Il rapporto tra i nomi e le cose: ecco enunciata e riproposta la faccenda che si considera di fondamentale portata e di massima importanza quando è questione di lingua. In tale prospettiva, la lingua vi è posta anzitutto in funzione della realtà che sta lì, fuori, e che la lingua e la sua esistenza medesima presuppongono. Anche prendendola alla lontana, tenere per cruciale, in un modo o nell'altro, il rapporto tra realtà e lingua è un tratto caratteristico del senso comune sulla lingua: realtà, a fare da base, e lingua, a fare da suo accessorio denominativo. Se poi si è anche un po' (o molto) filosofi, ci si può anche interrogare sulla natura di tale rapporto: è per natura o per convenzione?

Nel compito dato ad Adamo possiamo vedere un mandato all'uomo, ogni uomo. Cercare la verità (il nome) di ciò che esiste. La verità come ricerca e come compito allora è una dimensione dell'umano che non può essere surrogato in una ground truth che vorrebbe sospendere tale ricerca senza fine. Il problema dell'AI e ML è spiritualmente proprio qui. Alcune delle profezie oracolari cui affidiamo le decisioni automatizzate hanno la pecca di fondarsi non sulla mimesi dell'umano ma nella sua negazione surrogata con uno strato di fondo ideologico (ground truth). Lo spirituale ci chiede di essere uomini per saper dare il giusto posto alla macchina.

461 visualizzazioni2 commenti