• Paolo Benanti

Alla ricerca della causalità perduta: robot AI e ML

La correlazione è il modello che spinge il mercato dell'intelligenza artificiale ma per una serie di soluzioni che vogliano poter essere adattati a modelli diversi serve un passaggio formale alla causazione. Qui una piccola ricerca sul tema.



"La causalità è molto importante per i prossimi passi del progresso del machine learning", ha affermato Yoshua Bengio , uno scienziato vincitore del Turing Award noto per il suo lavoro nel deep learning, in un'intervista con IEEE Spectrum nel 2019.


Finora, il deep learning ha compreso apprendere da set di dati statici, il che rende l'IA davvero brava nelle attività relative a correlazioni e associazioni. Tuttavia, le reti neurali non interpretano la causa-effetto o il motivo per cui esistono queste associazioni e correlazioni. Né sono particolarmente bravi in ​​compiti che implicano immaginazione, ragionamento e pianificazione.


Questo, a sua volta, limita l'IA dalla capacità di generalizzare il proprio apprendimento e trasferire le proprie abilità in un altro ambiente correlato.



La mancanza di generalizzazione è un grosso problema, afferma Ossama Ahmed, uno studente di master all'ETH di Zurigo che ha lavorato con il team di Bengio per sviluppare uno strumento di benchmarking robotico per la causalità e l'apprendimento del trasferimento. “I robot sono [spesso] addestrati alla simulazione e poi quando si tenta di dispiegarli nel mondo reale ... di solito non riescono a trasferire le loro abilità apprese. Uno dei motivi è che le proprietà fisiche della simulazione sono molto diverse dal mondo reale ", afferma Ahmed. Lo strumento del gruppo, chiamato CausalWorld , dimostra che con alcuni dei metodi attualmente disponibili, le capacità di generalizzazione dei robot non sono abbastanza buone, almeno non nella misura in cui "possiamo dispiegarli in sicurezza in qualsiasi situazione arbitraria nel mondo reale mondo ", dice Ahmed.


Il documento su CausalWorld, disponibile come preprint, descrive i benchmark in un ambiente di manipolazione robotica simulata utilizzando la piattaforma robotica TriFinger open source . Lo scopo principale di CausalWorld è quello di accelerare la ricerca sulla struttura causale e trasferire l'apprendimento utilizzando questo ambiente simulato, in cui le abilità apprese potrebbero essere potenzialmente trasferite nel mondo reale. Ad agenti robotici possono essere assegnati compiti che comprendono spingere, impilare, posizionare e così via, informati da come i bambini sono stati osservati mentre giocano con i blocchi e imparano a costruire strutture complesse. Esiste un ampio set di parametri, come peso, forma e aspetto dei blocchi e del robot stesso, su cui l'utente può intervenire in qualsiasi momento per valutare le capacità di generalizzazione del robot.



Nel loro studio, i ricercatori hanno assegnato ai robot una serie di compiti che vanno da semplici a estremamente impegnativi, basati su tre diversi curricula. Il primo non ha comportato cambiamenti ambientali; il secondo aveva modifiche a una singola variabile; e il terzo ha permesso la randomizzazione completa di tutte le variabili nell'ambiente. Hanno osservato che man mano che i programmi di studio diventavano più complessi, gli agenti mostravano una minore capacità di trasferire le loro abilità alle nuove condizioni.


"Se continuiamo ad aumentare la formazione e le architetture di rete oltre gli esperimenti che riportiamo, i metodi attuali potrebbero potenzialmente risolvere più ambienti di block stacking che proponiamo con CausalWorld", sottolinea Frederik Träuble , uno dei contributori allo studio. Träuble aggiunge che "Ciò che è veramente interessante è che noi umani possiamo generalizzare molto, molto più velocemente [e] non abbiamo bisogno di una quantità così vasta di esperienza ... Possiamo imparare dalle regole condivise di base di [certi] ambienti ... [e] utilizzare questo per generalizzare meglio ad altri ambienti che non abbiamo visto ".


Una rete neurale standard, d'altra parte, richiederebbe una quantità folle di esperienza con una miriade di ambienti per fare lo stesso. "Avere un'architettura o un metodo modello in grado di apprendere queste regole sottostanti o meccanismi causali e utilizzarli potrebbe [aiutare] a superare queste sfide", afferma Träuble.



I protocolli di valutazione di CausalWorld, dicono Ahmed e Träuble, sono più versatili di quelli di studi precedenti a causa della possibilità di “districare” le capacità di generalizzazione. In altre parole, gli utenti sono liberi di intervenire su un gran numero di variabili nell'ambiente e quindi di trarre conclusioni sistemiche su ciò che l'agente generalizza o non fa. La prossima sfida, dicono, è usare effettivamente gli strumenti disponibili in CausalWorld per costruire sistemi più generalizzabili.


Nonostante quanto siamo abbagliati dalla capacità dell'IA di svolgere determinati compiti, Yoshua Bengio, nel 2019, ha stimato che il deep learning dei giorni nostri è meno intelligente di un bambino di due anni. Sebbene la capacità delle reti neurali di elaborare parallelamente su larga scala ci abbia fornito scoperte nella visione artificiale, nella traduzione e nella memoria, la ricerca si sta ora spostando verso lo sviluppo di nuove architetture profonde e strutture di formazione per affrontare compiti come il ragionamento, la pianificazione, la cattura della causalità, e ottenere una generalizzazione sistematica. "Credo che sia solo l'inizio di un diverso stile di calcolo ispirato al cervello", ha detto Bengio, aggiungendo: "Penso che abbiamo molti strumenti per iniziare".

325 visualizzazioni1 commento