A Google DeepMind desenvolveu um sistema de inteligência artificial que é capaz de aprender a jogar videogames vendo vídeos de gameplays realizados por outros jogadores e publicados no YouTube.
O sistema de IA aprende as pautas e ações que os jogadores realizam nos vídeos, algo que gerou polêmica pelo fato se o sistema realmente aprende alguma coisa, ou se imita tudo o que os outros fazem.
Na prática, a IA copia os vídeos dos jogadores que recebe como métodos de aprendizagem, mas com uma base muito mais complexa, o que o transforma em algo a mais que um simples imitador.
O Google DeepMind desenvolveu algoritmos e modelos que são capazes de reconhecer o estado e o entorno do jogo, identificar as recompensas que se obtém ao passar por determinados pontos e tomar as decisões corretas para obter essas recompensas.
O clássico sistema de trabalho-recompensa está presente, e as pautas que contam com inteligência artificial são fiéis às realizadas pelos jogadores, com uma aprendizagem real e uma base mais complexa. O sistema teve que mapear as ações a sere realizadas, de acordo com duas técnicas diferentes: classificação de distância temporal (TDC) e classificação de distância temporal intermodal (CDC).
A primeira identifica as ações a serem realizadas pela distância entre cada fotograma, enquanto que a segunda faz o mesmo, mas associando tudo a sons específicos.
O resultado foi impressionante, mas as suas possíveis utilidades práticas não vão além do que superar jogos do Atari.
Vídeo demonstrativo a seguir.
Via The Register