Un'AI che ragiona? L'idea (fragile) di Facebook

July 22, 2019

Yann LeCun, capo ricercatore dell'intelligenza artificiale di Facebook, ritiene che l'apprendimento senza supervisione porterà alla prossima rivoluzione nell'AI. Cerchiamo di approfondire le sue idee e vedere se sono consistenti.

A sei mesi, un bambino non strabuzza gli occhi se un camion giocattolo partisse da una piattaforma e sembrasse librarsi nell'aria. Ma se si eseguisse lo stesso esperimento solo due o tre mesi dopo e il giovane soggetto del nostro test riconoscerebbe immediatamente che qualcosa non va. Ha già imparato il concetto di gravità.

 

 

"Nessuno dice al bambino che gli oggetti dovrebbero cadere", ha detto Yann LeCun, il capo ricercatore nell'intelligenza artificiale di Facebook e professore alla New York University, durante un webinar di giovedì 18 luglio 2019, giovedì scorso al momento della stesura di questo post, organizzato dall'Association for Computing Machinery, un'associazione internazionale accademica e senza scopo di lucro dedicata a scienziati ed educatori dell'informatica. E poiché i bambini non hanno un controllo motorio molto sofisticato, LeCun ipotizza che "molto di quello che apprendono sul mondo è attraverso l'osservazione".

 

Questa teoria potrebbe avere importanti implicazioni per tutti i ricercatori che sperano di far avanzare i confini operativi e di capacità dell'intelligenza artificiale.

 

Il deep learning, quella categoria di algoritmi di intelligenza artificiale che si basa su diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli di basso, che ha dato il via alla rivoluzione più recente nelle AI, ha fatto passi da gigante nel dare alle macchine capacità percettive come la visione. Ma non è riuscito a dar loro un ragionamento sofisticato, basato su un modello concettuale della realtà.

 

In altre parole, le macchine funzionano e ci danno il potere di controllare degli esiti e di adattarsi a dei contesti variabili ma in realtà non capiscono veramente il mondo che li circonda, il che le rende incapaci di interagire con esse. Nuove tecniche stanno aiutando a superare questa limitazione, ad esempio dando alle macchine una sorta di memoria di lavoro in modo che, mentre imparano e traggano fatti e principi di base, possano accumularli per attingere nelle interazioni future.

 

Ma LeCun crede che sia solo un pezzo del puzzle che gli ingegneri vogliono risolvere. "Ovviamente ci manca qualcosa", ha detto. Un bambino può sviluppare la comprensione di un elefante dopo aver visto due foto, mentre gli algoritmi di deep-learning devono vederne migliaia, se non milioni. Un adolescente può imparare a guidare in sicurezza dopo una pratica di circa 20 ore e riesce a evitare incidenti senza prima sperimentarne uno, mentre gli algoritmi di apprendimento per rinforzo (una sottocategoria del deep learning) devono superare decine di milioni di prove, compresi molti gravi fallimenti.

 

La risposta a tutto questo, secondo LeCun, è nella sottocategoria di algoritmi del deep learning, molto sottovalutata e sottostimata, conosciuta come apprendimento non supervisionato. Mentre agli algoritmi basati sull'apprendimento supervisionato e per rinforzo gli viene insegnato a raggiungere un obiettivo attraverso l'input umano, quelli non supervisionati estraggono i pattern nei dati interamente da soli.

 

LeCun nel suo webinar ha preferito il termine "apprendimento autonomo" perché, a suo giudizio, utilizza essenzialmente parte dei dati di addestramento per prevedere il resto dei dati di addestramento.

 

Negli ultimi anni, tali algoritmi hanno acquisito una significativa serie di successi nell'elaborazione del linguaggio naturale grazie alla loro capacità di trovare le relazioni tra miliardi di parole. Questo si rivela utile per costruire sistemi di previsione del testo come il completamento automatico delle frasi o per generare un testo in prosa convincente.

 

 

 

Ma la stragrande maggioranza della ricerca sull'intelligenza artificiale in altri settori si è concentrata sull'apprendimento supervisionato o per rinforzo.

 

LeCun nel suo webinar ritiene che l'enfasi dovrebbe essere capovolta. "Tutto ciò che impariamo come esseri umani - quasi tutto - viene appreso attraverso l'apprendimento auto-supervisionato. C'è uno strato sottile che apprendiamo attraverso l'apprendimento supervisionato, e una piccola quantità che apprendiamo attraverso l'apprendimento di rinforzo", ha più volte ripetuto. "Se l'apprendimento automatico, o l'AI, fosse una torta, la stragrande maggioranza della torta è l'apprendimento auto-supervisionato".

 

Che aspetto ha questo in pratica? Secondo LeCun i ricercatori dovrebbero iniziare concentrandosi sulla previsione temporale. In altre parole, addestrare reti neurali di grandi dimensioni per prevedere la seconda metà di un video quando viene dato il primo. Anche se non tutto ciò che nel nostro mondo può essere previsto, questa è l'abilità fondamentale dietro l'abilità di un bambino di rendersi conto che un camion giocattolo dovrebbe cadere. "Questa è una specie di simulazione di quello che sta succedendo nella nostra testa, se volete vederla così", ha detto LeCun.

 

Una volta che i ricercatori svilupperanno tecniche che raffinano quelle abilità, avranno anche importanti usi pratici. "È una buona idea fare previsioni video nel contesto di auto a guida autonoma, perché potresti voler sapere in anticipo che cosa faranno le altre auto nelle strade", ha detto in un esempio di applicazione del modello proposto.

 

 

In definitiva, secondo LeCun l'apprendimento senza supervisione aiuterà le macchine a sviluppare l'equivalente di un modello del mondo che possa quindi prevedere futuri stati del mondo, ha affermato.

 

È un'ambizione ambiziosa elusa fin'ora dalla ricerca di intelligenza artificiale, ma aprirebbe una nuova schiera di capacità. LeCun è fiducioso: "La prossima rivoluzione dell'IA non sarà supervisionata".

 

Se il webinar di LeCun suona come una chiamata alle armi per il mondo dell'AI dobbiamo qui rilevare che il tema di un'AI radicalmente autonoma non può saltare una domanda che sempre più diviene fondamentale nello sviluppo di AI future. La questione non è solo di potenza ma di natura dell'intelligenza.

 

Fin'ora l'idea di AI nasce connessa al pensiero di Alan Touring. Il test di Turing è un criterio per determinare se una macchina sia in grado di pensare. Tale criterio è stato suggerito da Alan Turing nell'articolo Computing machinery and intelligence, apparso nel 1950 sulla rivista Mind.

 

Nell'articolo Turing prende spunto da un gioco, chiamato "gioco dell'imitazione", a tre partecipanti: un uomo A, una donna B, e una terza persona C. Quest'ultima è tenuta separata dagli altri due e tramite una serie di domande deve stabilire qual è l'uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A deve ingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinché C non possa disporre di alcun indizio (come l'analisi della grafia o della voce), le risposte alle domande di C devono essere dattiloscritte o similarmente trasmesse.

 

Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui C indovina chi sia l'uomo e chi la donna è simile prima e dopo la sostituzione di A con la macchina, allora la macchina stessa dovrebbe essere considerata intelligente, dal momento che - in questa situazione - sarebbe indistinguibile da un essere umano.

 

Per macchina intelligente Turing ne intende una in grado di pensare, ossia capace di concatenare idee e di esprimerle. Per Turing, quindi, tutto si limita alla produzione di espressioni non prive di significato. Nell'articolo, riprendendo il Cogito cartesiano, si legge:

 

«Secondo la forma più estrema di questa opinione, il solo modo per cui si potrebbe essere sicuri che una macchina pensa è quello di essere la macchina stessa e sentire se si stesse pensando. [...] Allo stesso modo, la sola via per sapere che un uomo pensa è quello di essere quell'uomo in particolare. [...] Probabilmente A crederà "A pensa, mentre B no", mentre per B è l'esatto opposto "B pensa, ma A no". Invece di discutere in continuazione su questo punto, è normale attenersi alla educata convenzione che ognuno pensi.»

 

Se tutta la questione è una questione di imitazione dell'umano, a mio giudizio il limite intrinseco è proprio qui. Stiamo, se mi si permette il paragone, lavorando con la prospettiva del falsario. Stiamo dicendoci, nella metafora che suggerisco, che il giorno che la nostra banconota "falsa" sarà indistinguibile da una vera, supponiamo 20 euro, allora proprio in forza del suo essere indistinguibile sarà il suo valore.

 

 

Passando all'AI ci diciamo che se una macchina sarà indistinguibile dall'umano allora varrà come l'uomo. Ma qui non è questione di sembrare ma di fornire espressioni in grado di valere, cioè di essere intelligenti, non solo di sembrarle.

 

Allora il futuro dell'AI dovrà prima fare un salto qualitativo di natura filosofica. Il problema è cosa sia una persona, cosa voglia dire ragione e intelligenza e non solo imitarne alcune caratteristiche. Non sembrare umana ma chiedersi cosa fa noi umani tali. Solo tornando alle domande di fondo sulla nostra natura sapremo chiederci cosa significa fare una macchina intelligente e quale sarà il suo posto rispetto all'uomo.

 

La domanda filosofica ed etica non è una domanda evitabile e non è rinchiudendo la ricerca nel mero funzionalismo, cioè secondo quell'indirizzo di ricerca in psicologia, inaugurato negli Stati Uniti alla fine dell'Ottocento da William James e John Dewey, che interpreta i fenomeni psichici non come elementi disgiunti fra loro, ma come funzioni mediante le quali l'organismo si adatta all'ambiente sociale e fisico.

 

Essere uomini ed essere intelligenti, creativi e passionali significa innanzitutto rispondere a una domanda su chi sia l'uomo e solo poi su come funzioniamo nei diversi ambiti della nostra vita.

 

Serve una filosofia ed un etica della tecnologia per guidare l'innovazione tecnologica verso un'autentico sviluppo umano. 

 

 

 

 

Share on Facebook
Share on Twitter
Please reload