Deep Fakes são vídeos manipulados por Inteligência Artificial, onde vemos pessoas fazer coisas que nunca fizeram na realidade.

Tudo começou no final de 2017, quando vídeos pornográficos manipulados com celebridades começaram a aparecer, e o próximo alvo pode ser a manipulação política.

Um estudo do Center for a New American Security (CNAS) adverte que os Deep Fakes políticas poderão ser tão reais a ponto de enganar os humanos em um prazo de cinco anos.

Tais vídeos entram na categoria de propaganda computacional, que se aproveita das redes sociais para difundir conteúdo falso, enganoso ou hiper partidista.

A IA pode gerar gravações de voz sintéticas realistas de qualquer pessoa, através de um conjunto de dados de voz grande o suficiente. O mesmo acontece com o vídeo, que pode evoluir para enganar os olhos e ouvidos mais treinados em médio prazo.

Os Deep Fakes atuais ainda contam com limitações tecnológicas que permitem a sua identificação como falsos, mas os avanços farão com que seja impossível distinguir o fake do real.

Tudo isso tem um objetivo claro: manipular os eleitores. E pode ser um problema global. O realismo dos Deep Fakes é um exemplo do princípio da queda da máxima do ‘ver para crer’, e felizmente algumas plataformas já se preparam para bloquear esse tipo de conteúdo.

Também é recomendado que os desenvolvedores e engenheiros de IA levem a sério o uso dúbio que pode ser dado aos seus trabalhos, e que isso influencie nas prioridades de desenvolvimento.

 

 

Os Deep Fakes começaram a ficar populares a partir da TensorFlow, biblioteca de machine learning de código aberto criada por engenheiros da Google. Eles treinavam a IA para ser capaz de colocar nas pessoas de um vídeo o rosto de famosos realizando os mesmos gestos.

Poucos meses depois, apareceu a variante Deep Video Portait, que manipulavam os vídeos para fazer com que as pessoas que aparecem neles digam o que os seus criadores querem. Um exemplo disso é o vídeo manipulado de Barack Obama, que explica justamente os perigos dos vídeos manipulados.

Esse vídeo mostra claramente que ali aconteceu um tratamento digital, mas o relatório da CNAS alerta que, em poucos anos, as tecnologias e algoritmos serão muito mais eficientes na arte da enganação. Especialmente com a variante Deep Voice, que usa a mesma aprendizagem profunda para imitar vozes.

 

 

 

Via CNAS