La macchina batte di nuovo l'uomo: DeepMind e Starcraft II

January 28, 2019

A fine dicembre 2018, a Londra un team della DeepMind, una sussidiaria di Alphabet, cioè Google, con sede nel Regno Unito specializzata nella ricerca sull'intelligenza artificiale, ha silenziosamente spostato in avanti il confine nel confronto tra umani e computer.

Il 24 gennaio, giovedì scorso rispetto a quando scriviamo, ha svelato la cosa rendendo disponibile uno streaming di tre ore su YouTube delle partite umano-computer fatte a StarCraft II: un match in cui alieni e robot hanno combattuto fino alla morte.

 

 

Lo stream di DeepMind fa vedere come il suo bot AI, AlphaStar, riesca a sconfiggere un giocatore professionista di Starcraft II, un complesso videogioco di strategia in tempo reale.  StarCraft II è un gioco infinitamente più complesso degli scacchi o di Go: richiede che il giocatore compia diverse scelte strategiche allo stesso momento e le “pedine” si possono spostare per uno spazio enormemente più vasto di una semplice scacchiera. Inoltre, a differenza degli scacchi e Go dove le mosse dei giocatori sono palesi a tutti, in StarCraft II un giocatore non sa cosa l’avversario sta facendo e non può costruire la sua strategia basandosi sulle scelte del rivale. 

 

 

Per capire da un punto di visto computativo la difficoltà di implementare una strategia per il gioco basta guardare la tabella qui sotto che riassumeva le difficoltà di calcolo dei diversi giochi di strategia. La tabella, fatta lo scorso anno vedeva Starcraft II come troppo difficile (la complessità è di ordini di grandezza esponenziali maggiore degli altri giochi!!). Il calcolo della complessità di un gioco, cioè di un'attività che segue delle regole e delle possibilità precise di azione orientata ad un obiettivo chiaro, la vittoria, si può calcolare matematicamente secondo una diemnsione che prende il nome di state-space complexity. 

 

 

Le partite, organizzate insieme a Blizzard e disponibili in streaming, hanno stupito i commentatori e gli esperti di StarCraft per le complesse strategie che ha adottato l’AI, del tutto simili a quelle sviluppate dagli umani. 

 

Il lato umano umano della sfida era rappresentato dal venticinquenne Grzegorz Komincz, un polacco che fa il giocatore professionista, ha perso 5-0 nella sfida con AlphaStar. Il software che ha sfidato l'uomo è basato sul deep learning e sembra aver scoperto strategie sconosciute ai professionisti umani. Il mondo dei videogiochi conosce una serie di giocatori PRO che competono per milioni di dollari in premi offerti ogni anno da quello che è uno dei giochi più redditizi degli e-sport. Komincz, conosciuto nel mondo dei gamers come MaNa, alla fine della sfida ha detto: "Era diverso da qualsiasi partita a StarCraft che ho giocato".

 

L'impresa di DeepMind è la più complessa fin'ora realizzata ma al tempo stesso un altro passo in una lunga serie di gare in cui i computer hanno battuto i migliori umani nel gioco. La dama ha visto l'uomo sconfitto nel 1994, gli scacchi nel 1997 e il precedente software di DeepMind, AlphaGo, è diventato il primo a battere un campione umano a Go nel 2016. Oggi il bot di StarCraft è il più potente giocatore al mondo ed è una AI e non un uomo. Tuttavia potrebbe anche essere il campione meno inaspettato.

 

 

AlphaStar è arrivato a circa sei anni dal boom delle intelligenze artificiali, reso possibile e catalizzato da miglioramenti nella tecnologia del deep learning, compresi alcuni introdotti proprio dai ricercatori di DeepMind. La vittoria di AlphaGo nel 2016 era sbalorditiva perché gli esperti di Go avevano pensato che quel momento fosse ad almeno un decennio di distanza. La vittoria di AlphaStar sembra invece un evento più o meno in programma. Ormai è chiaro che con abbastanza dati e potenza di calcolo, il machine learning può gestire problemi complessi, ma, per non illuderci, sempre di tipo specifico e non di natura generale come un'intelligenza umana.

 

AlphaStar è un caso particolarmente interessante perché la macchina non ha vinto per velocità - anzi, il team di DeepMind l’aveva appositamente “rallentata” -, ma in forza della strategia: è stata più lenta dei giocatori umani e ha compiuto meno azioni per minuto, ma ha comunque vinto tutti i match eccetto uno.

 

L’AI che ha sfidato i campioni umani era il risultato di un processo di ottimizzazione e di competizione tra sistemi diversi. In una serie di partite di allenamento DeepMind aveva sviluppato più sistemi di AI concorrenti tra loro, addestrandole - cioè facendole lavorare - per una settimana su replay di partite. Il tempo di una settimana corrisponde a circa 200 anni di gioco in tempo reale di StarCraft II. Ha fatto poi competere i sistemi prima contro giocatori reali e poi tra di loro: AlphaStar, che ha vinto 10 match su 11, era il vincitore di questo lungo allenamento.

 

Mark Riedl, un professore associato al Georgia Tech, ha trovato entusiasmanti le notizie di DeepMind ma non stupefacenti. Infatti secondo la sua opinione: "Eravamo praticamente arrivati al punto in cui era solo questione di tempo. In un certo senso, battere gli umani ai giochi è diventato noioso".

 

 

Videogiochi come StarCraft sono matematicamente più complessi di scacchi o di Go. Il numero di posizioni valide su una scheda Go è un 1 seguito da 170 zeri, l'equivalente per StarCraft è stimato essere un 1 con almeno 270 zeri. Costruire e controllare unità militari in StarCraft richiede ai giocatori di scegliere e fare molte più azioni, e prendere decisioni senza essere in grado di vedere ogni mossa di un avversario.

 

DeepMind ha superato quelle più impreviste con l'aiuto dei robusti chip in TPU che Google ha inventato per mettere più potenza di calcolo dietro il machine learning. Ha adattato algoritmi specifici sviluppati originariamente per elaborare il testo al fine di sviluppare delle strategie cioè intraprendere quelle azioni che sul campo di battaglia portano alla vittoria. AlphaStar è stato istruito in StarCraft con basi di dati estratti da mezzo milione di giochi tra umani, quindi, in maniera evolutiva, riproducendo copie successive migliorate di se stesso in una "lega virtuale", come se ci si trovasse di fronte a una forma di evoluzione digitale. I migliori robot che sono emersi da questo campionato tra AI hanno accumulato, come dicevamo, l'esperienza equivalente a circa 200 anni di gioco.

 

L'AlphaStar che ha sconfitto MaNa è lungi dall'essere, anche solo dal poter essere considerato, un suo pari a tutto tondo. Per ora, il bot può giocare come solo una delle tre razze aliene disponibili in StarCraft. Oltre alla sua esperienza "disumana" di gameplay, il software di DeepMind ha percepito il gioco in modo molto diverso da quello che fa un umano. La sua vista comprendeva tutto ciò che era visibile nel gioco in una sola volta, mentre MaNa doveva spostarsi sulla mappa per vedere cosa stava succedendo. Inoltre AlphaStar è anche in grado di avere maggiore precisione durante la guida e la mira delle unità rispetto a un umano che si interfaccia al computer con un mouse, sebbene il suo tempo di reazione fosse più lento di quello di un giocatore professionista.

 

 

Nonostante queste precauzioni epistemologiche, Riedl e altri esperti del campo si sono profondamente rallegrati per il lavoro di DeepMind. "È stato davvero impressionante", afferma Jie Tang, ricercatrice presso l'istituto di ricerca indipendente OpenAI che lavora su robot che giocano a Dota 2 , l'e-sport più redditizio al mondo. Tali "magie" e capacità dei videogame possono avere spin-off potenzialmente utili. Gli algoritmi e il codice che OpenAI aveva usato per sfidare i professionisti del videogame Dota l'anno scorso, con un successo non assoluto, sono stati adattati per rendere le mani robotiche più agili.

 

Allo stesso tempo, AlphaStar è importante perché rende evidente una fondamentale limitazione dei moderni sistemi di machine learning altamente specializzati, come ricorda Julian Togelius, professore alla New York University e autore di un recente libro sui giochi e l'intelligenza artificiale. A differenza del suo avversario umano, il nuovo campione di DeepMind non può giocare a pieno ritmo su diverse mappe di gioco, o come diverse razze aliene nel gioco, senza ulteriore addestramento. Né può giocare a scacchi, dama o versioni precedenti di StarCraft.

 

Questa incapacità di gestire anche piccole sorprese è una sfida per molte applicazioni dell'AI, come la guida autonoma o i robot adattabili che i ricercatori chiamano intelligenza artificiale generale o GAI. "Per arrivare alla G in GAI dobbiamo andare oltre i singoli giochi", dice Togelius.

 

 

I limiti dell'AI altamente specializzata sembravano essere in mostra quando MaNa ha giocato un gioco dimostrativo live contro una versione sperimentale di AlphaStar che si limita a visualizzare la mappa di gioco in modo simile a quello che fa un giocatore umano, cioè ingrandendo un'area alla volta. I dati di DeepMind mostrano che è quasi buono quanto la versione che ha battuto MaNa su cinque giochi.

 

Il nuovo robot ha rapidamente ammassato un esercito abbastanza potente da schiacciare il suo rivale umano, ma MaNa ha usato manovre intelligenti ed esperienza dal suo 5-0 in campo per far finta di forzare le forze. Il ritardo gli ha fatto guadagnare tempo per costruire le sue unità e vincere. 

 

Questa adattabilità e creatività umana è qualcosa che non vediamo ancora dai sistemi di apprendimento automatico. A questo livello si pongono anche le questioni più interessanti. Se continuiamo a vedere le AI come attori sociali assoluti dobbiamo riconoscere che l'essere umano con il suo sistema cognitivo analogico e ridondante è assolutamente più adattabile e performante di qualsivoglia AI (senza neanche entrare nell'abissale qualitativa differenza tra la persona soggetto e la macchina con funzioni cognitive dette intelligenti).

 

Se invece guardiamo all'interazione sintetica, cioè mista tra naturale e artificiale e realizzata a livelli radicali e profondi, che può avvenire tra l'uomo e un mondo che ha subito un enhancement tecnologico, una realtà resa cioè intelligente dalle AI, le domande si fanno più interessanti.

 

Se un campione umano è imbattibile da una macchina, tuttavia i campioni sono tali anche perché rari. Un sistema sintetico uomo-macchina, specie in attività di strategia e pianificazione, potrebbe democratizzare le performance cognitive, generando dei simbionti in grande numero molto più sofisticati e e numerosi.

 

Potremmo assistere alla creazione di nuove elites sociali basate non su caratteristiche intellettuali ma su upgrade di software. Se da un lato questo potrebbe portare a grandi e veloci passi in avanti nel mondo della ricerca potremmo anche generare degli esiti tutt'altro che desiderabili: cosa succederà a un essere cognitivamente così "potente" e "delicato" come l'uomo? Come cambierà il nostro modo di pensare e di innovare? Che spazio avremo per il "semplicemente" umano in un mondo che dovesse cedere al fascino dell'enhancement cognitivo?

 

Se questa vittoria della macchina ci sorprende perché ci sembra di assistere all'avvento di una macchina che ogni giorno si umanizzi di più, non dobbiamo smettere di chiederci se questo non avvenga a spese di un uomo che ogni giorno si macchinizza sempre più.

Share on Facebook
Share on Twitter
Please reload