L'intelligenza artificiale di Google, DeepMind, è in grado di battere 49 videogiochi dell'Atari. Un traguardo che, incredibilmente, ha raggiunto da sola: l'IA ha imparato a giocare senza che nessuno la programmasse per vincere o seguire determinate istruzioni.
La tecnologia, acquistata da Google lo scorso anno, ha da subito attirato l'interesse degli appassionati. Le abilità di apprendimento dimostrate grazie a questo studio, pubblicato all'interno della rivista Nature, permetteranno ai computer di scoprire dei pattern e dei comportamenti particolari all'interno dei dati.
"L'approccio ha dimostrato un'adattabilità impressionante" ha commentato Bernhard Schölkopf, direttore dell'Institute for Intelligent System "Sebbene ogni sistema sia stato istruito su un solo gioco, tutti hanno imparato a giocare ai restanti 48 in maniera autonoma e indipendente".
L'importanza di questa ricerca è costituita dal fatto che i giochi con i quali si è cimentata l'intelligenza artificiale risultano essere più rappresentativi del caos presente nella vita quotidiana rispetto ai software utilizzati in passato, come gli scacchi.
Una notizia che rende ancora più radioso il futuro dei sistemi indipendenti ed autonomi, particolarmente importante per settori come quello delle macchine che si guidano da sole, dove le IA dovranno saper interagire con il mondo che li circonda in maniera sensata e senza soccombere al caos e alla complessità delle situazioni.
Il metodo di apprendimento utilizzato è in realtà basato su una vecchia tecnica: il rinforzo positivo. In poche parole, ogni volta che un computer batteva il punteggio più alto, esso veniva ricompensato. In questo modo l'intelligenza artificiale è riuscita a superare quelle passate in 43 giochi e persino a battere avversari umani in 29 di essi. Secondo i ricercatori, l'utilizzo di tecniche "biologiche" potrebbe essere il prossimo grande passo verso la creazione di un'intelligenza artificiale completa.