top of page
  • Immagine del redattorePaolo Benanti

Dubito ergo sum: insegnare il dubbio alle AI


ย 

Google e altri stanno sviluppando sistemi di intelligenza artificiale che dubitano di se stessi.

L'idea รจ che le AI sapranno prendere decisioni migliori abbracciando l'incertezza.

ย 

Uno degli approcci piรน potenti di cui disponiamo oggi nel campo dell'intelligenza artificiale รจ il il deep learning. L'apprendimento profondo - in inglese deep learning - รจ quel campo di ricerca dell'apprendimento automatico - machine learning - e dell'intelligenza artificiale che si basa su diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli di basso.

Un sistema di deep learning รจ una rete neurale con tantissimi strati. Il sistema informatico imita alcuni aspetti della struttura del cervello umano, con una rete di unitร , o neuroni artificiali, collegate tra loro con connessioni, proprio come i neuroni veri sono collegati da sinapsi. Ogni nodo riceve un segnale in entrata, lo modifica, lo trasmette ad altri nodi, che a loro volta fanno lo stesso. I nodi della rete non sono programmati in nessun modo, non sanno nulla del compito che devono svolgere. Semplicemente, la rete riceve un input (per esempio, la foto di un gatto) e deve restituire un output (scrivere โ€œgattoโ€ nella didascalia). Un sistema di deep learning non si programma. Si addestra. All'inizio, non produce risultati esatti. Ma dopo ogni tentativo ricalibra le connessioni tra i suoi nodi (ovvero il modo in cui ogni neurone artificiale modifica e trasmette ad altri il suo segnale), e riprova nel compito, fino a che lโ€™output non si avvicina a quello atteso.

Il successo piรน eclatante del deep learning lo dobbiamo a DeepMind, societร  del gruppo Alphabet - Google, e al suo AlphaGo, un sistema di deep learning che gioca a Go: antico gioco da tavola cinese in cui si dispongono pedine bianche e nere su una scacchiera, e si muovono con lo scopo di circondare le pedine avversarie. Nella semplicitร  delle sue regole, Go รจ un gioco di enorme complessitร  matematica. Molto, molto superiore a quella degli scacchi, tanto รจ vero che, se Deep Blue di IBM giร  nel 1996 batteva Kasparov, GO รจ stato a lungo considerato un banco di prova e un obiettivo irraggiungibile per lโ€™AI.

Nella primavera del 2016, quando AlphaGo ha battuto Lee Sedol, campione coreano, al meglio delle cinque partite. Per allenare Alpha Go gli sono stati forniti i dati su migliaia di partite giocate da umani, imparando da solo sia le regole, sia la strategia. La vittoria รจ stata sorprendente e celebrata, ma con un limite: lโ€™apprendimento di AlphaGo era del tipo supervised, basato sulla disponibilitร  di un grande database di esempi opportunamente "etichettati", cioรจ rendendo intellegibile alla macchine le mosse vincenti, le mosse perdenti, le partite vinte dal bianco o dal nero, e cosรฌ via.

Quindi la vittoria di AlphaGo non ha molto di nuovo: questo tipo di apprendimento esiste in letteratura fin dagli anni Novanta, qui la novitร , e la possibilitร  di vittoria, รจ data da una enorme nuova potenza di calcolo e la grandissima disponibilitร  di dati.

La potenza del deep learning ci consente di pensare di applicare le AI a problemi generali come guidare una macchina o risolvere problemi complessi della vita ordinaria. Perรฒ passando dai giochi alla vita reale un sistema che apprende e che lo fa dai suoi errori รจ problematico. Le scelte nel mondo reali non sono prive di conseguenze e possono portare a esiti negativi: in ballo non c'รจ solo la perdita di una partita ma beni e valori reali e in alcune ipotesi di utilizzo, come le auto a guida autonoma, anche vite umane. Come risolvere questa fragilitร  delle AI migliorando la loro potenzialitร ?

Come riporta il MIT Technology Review, un'autorevole pubblicazione del Massachusetts Institute of Technology, Google e altri stanno sviluppando sistemi di intelligenza artificiale che hanno una nuova capacitร : dubitare di se stessi. L'idea รจ che le AI potranno prendere decisioni migliori se dotate di incertezza. Per questo i sistemi di AI stanno per essere dotati di una nuova funzione acquisendo una nuova capacitร : il senso dell'incertezza.

I ricercatori di Uber e Google stanno lavorando alle modifiche di due framework di deep-learning molto popolari che consentiranno alle AI di gestire le probabilitร . Questo consente ai programmi di intelligenza artificiale di avere una sorta di misura la fiducia che possono porre in una previsione o in una decisione. In sostanza questi sistemi consentirebbero alla macchina, per utilizzare una metafora umana, di sapere quando dovrebbero dubitare di se stessa.

Il deep learning funziona fornendo dati di esempio a una rete neurale ampia e potente, e i successi che conosciamo richiedono molti dati di addestramento e potenza di calcolo. Un sistema cosรฌ potente di fatto puรฒ essere sorprendentemente fragile se usato in senari di vita quotidiana.

In maniera che sembrerebbe un po' controintuitiva, dotare un sistema di AI di questa funzione di dubbio offre una soluzione a questo problema. Quello di cui sono convinti i ricercatori e gli sviluppatori รจ che questo nuovo approccio potrebbe essere utile in scenari critici che coinvolgono per esempio le auto a guida autonoma e altre forme di macchine autonome.

Dustin Tran, uno sviluppatore che sta lavorando a questo problema per Google al MIT Review ha detto: "Se un'auto a guida autonoma non conosce il suo livello di incertezza, puรฒ fare un errore fatale e questo puรฒ essere catastrofico".

Di fatto l'idea riflette la consapevolezza che l'incertezza รจ un aspetto chiave del ragionamento umano e dell'intelligenza. Rendere questo processo computabile e trasferirlo algoritmicamente ai programmi di intelligenza artificiale potrebbe renderli piรน "intelligenti" e meno inclini a errori grossolani, come sostiene ad esempio Zoubin Ghahramani, uno dei leader nella ricerca sull'intelligenza artificiale all'Universitร  di Cambridge e capo ricercatore di Uber.

Questa nuova funzione potrebbe rivelarsi di vitale importanza poichรฉ i sistemi di AI sono utilizzati in scenari sempre piรน critici.

I ricercatori vogliono realizzare una struttura solida per il deep learning che renda piรน facile per gli utenti rappresentare l'incertezza. Per implementare questo sviluppo รจ stato realizzato Pyro, un nuovo linguaggio di programmazione rilasciato da Uber che fonde il deep learning con programmazione probabilistica. Pyro รจ un linguaggio di programmazione probabilistico universale (PPL) scritto in Python e supportato da PyTorch che consente una modellazione probabilistica che viene definita dai suoi creatori profonda flessibile ed espressiva.

ย 

La capacitร  di incertezza di fatto non consente di implementare un libero arbitrio - free will - ma almeno di rendere pensabile implementare un free won't.

ย 

Noah Goodman, un professore di Stanford che lavora al laboratorio di intelligenza artificiale di Uber, sostiene che dare l'apprendimento profondo la capacitร  di gestire le probabilitร  puรฒ renderlo piรน "intelligente" in diversi modi. Ad esempio, potrebbe aiutare un programma a riconoscere le cose con un ragionevole grado di certezza dopo essere stato addestrato con pochi esempi piuttosto che da molte migliaia. Una AI che fosse in grado di offrire una misura di certezza piuttosto che una risposta secca sรฌ o no potrebbe in futuro aiutare a progettare dei sistemi complessi.

Mentre un sistema di deep learning convenzionale impara solo dai dati con cui viene alimentato, Pyro puรฒ anche essere usato per costruire un sistema preprogrammato con delle forme di conoscenza. Questo potrebbe essere utile in quasi tutti gli scenari in cui potrebbe attualmente verificarsi l'apprendimento automatico.

Oltre a Pyro รจ stato sviluppato anche Edward un ulteriore altro linguaggio di programmazione (per essere precisi si tratta di una libreria di modellazione probabilistica per Python, che abbraccia la prospettiva dell'incertezza. Edward รจ stato sviluppato dalla Columbia University con finanziamenti della DARPA. Sia Pyro che Edward sono ancora alle prime fasi di sviluppo, ma non รจ difficile capire perchรฉ Uber e Google siano cosรฌ tanto interessati a questi prodotti.

Uber utilizza l'apprendimento automatico in innumerevoli aree, dai sistemi di routing all'impostazione dei prezzi e, naturalmente, nelle auto a guida autonoma che l'azienda sta giร  testando. L'azienda ha investito molto in AI, assumendo un certo numero di esperti che lavorano su nuove idee. Google ha ricostruito il suo intero business intorno all'IA e il deep learning negli ultimi tempi. Come osserva Goodman Pyro ed Edward sono strumenti importanti perchรฉ uniscono due scuole concorrenti nell'intelligenza artificiale, una focalizzata sulle reti neurali e l'altra sulla probabilitร . Negli ultimi anni, la scuola della rete neurale รจ stata cosรฌ dominante che le altre prospettive sono state tralasciate. L'evoluzione delle intelligenze artificiali richiede di abbracciare queste nuove idee.

L'idea di includere l'incertezza nelle intelligenze artificiali non รจ interessante solo da un punto di vista funzionale. Non siamo interessati solo a sistemi che possono ottenere risultati migliori e piรน efficienti. L'idea che la macchina possa essere dotata di una funzione di incertezza potrebbe essere anche un'importante framework con cui pensare di implementare sistemi di AI dotati di controllo etico e uomo-centrici. L'idea che la macchina possa avere una computabilitร  dell'incertezza permette di pesare e gestire le questioni in modo da tutelare i valori e impedire scenari indesiderati. La capacitร  di incertezza di fatto non consente di implementare un libero arbitrio - free will - ma almeno di rendere pensabile implementare un free won't.

#Tecnologia #BigData #AI #etica

188 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page