Investigadores da Universidade de Berkeley desenvolveram um sistema de deep learning que pega nos passos de dança de um vídeo fonte e aplica-os a pessoas com poucas aptidões para esse tipo de movimentos. Um algoritmo cria um esqueleto virtual que mapeia as poses, enquanto dois outros algoritmos trabalham na criação de uma imagem realista enquanto se dança, explica a Motherboard. Para se obter material de referência, é necessário que a pessoa dance (ou se desloque livremente pelo espaço) sozinha no início.
O sistema ainda está numa fase inicial, como é comprovável no vídeo onde se dá uma amostra da tecnologia. É que, nessas imagens, é possível ver que a movimentação ainda não está totalmente fluida e, em algumas ocasiões, até se nota a falta de um antebraço ou de outras partes do corpo. Além disso, as danças replicadas são relativamente simples, pois entrar em mundos como o breakdance levanta outro tipo de desafios, como salienta o Engadget.
Resta saber se esta tecnologia será capaz de resistir a um destino semelhante ao das deepfakes, em que algo que permitia trocar os rostos de atores em filmes foi usado de forma abusiva para criar falsa pornografia com celebridades.
Pode saber um pouco mais sobre o trabalho dos investigadores de Berkeley no vídeo abaixo.