A Google DeepMind desenvolveu um sistema de inteligência artificial que é capaz de aprender a jogar videogames vendo vídeos de gameplays realizados por outros jogadores e publicados no YouTube.

O sistema de IA aprende as pautas e ações que os jogadores realizam nos vídeos, algo que gerou polêmica pelo fato se o sistema realmente aprende alguma coisa, ou se imita tudo o que os outros fazem.

Na prática, a IA copia os vídeos dos jogadores que recebe como métodos de aprendizagem, mas com uma base muito mais complexa, o que o transforma em algo a mais que um simples imitador.

O Google DeepMind desenvolveu algoritmos e modelos que são capazes de reconhecer o estado e o entorno do jogo, identificar as recompensas que se obtém ao passar por determinados pontos e tomar as decisões corretas para obter essas recompensas.

O clássico sistema de trabalho-recompensa está presente, e as pautas que contam com inteligência artificial são fiéis às realizadas pelos jogadores, com uma aprendizagem real e uma base mais complexa. O sistema teve que mapear as ações a sere realizadas, de acordo com duas técnicas diferentes: classificação de distância temporal (TDC) e classificação de distância temporal intermodal (CDC).

A primeira identifica as ações a serem realizadas pela distância entre cada fotograma, enquanto que a segunda faz o mesmo, mas associando tudo a sons específicos.

O resultado foi impressionante, mas as suas possíveis utilidades práticas não vão além do que superar jogos do Atari.

Vídeo demonstrativo a seguir.

 

 

 

Via The Register