Blog Gutemberg Cardoso

Todo cuidado é pouco
Primeira deepfake da campanha eleitoral aponta Bolsonaro à frente das pesquisas; entenda essa técnica

Deepfake eleições

Foi dada a largada para as campanhas eleitorais, mas a preocupação com as fake news seguem sendo um fator e tanto para que as pessoas possam se informar cada vez com ainda mais responsabilidade. Na última quarta-feira, por exemplo, a primeira deepfake deste período oficial apareceu e foi publicada pela jornalista Cristina Tardáguila, em sua coluna, no UOL.

Desde a manhã da última quarta-feira, um vídeo circula pelo Whatsapp, Twitter e Youtube, com uma montagem que mistura a voz da apresentadora do Jornal Nacional, Renata Vasconcellos, em que ela diz o resultado de uma falsa pesquisa de intenção de votos para presidente da República.

O vídeo, inclusive, é uma alteração da edição do dia 15 de agosto do Jornal Nacional, principal telejornal da Globo. Inicialmente, a gravação mostra Renata na bancada, informando sobre uma nova pesquisa referente ao primeiro turno. Posteriormente, uma tela com um gráfico idêntico ao usado pelo programa.

No entanto, a pesquisa apresentava o rosto do presidente Jair Bolsonaro em primeiro lugar, com 44% das intenções de voto, enquanto o ex-presidente e candidato, Luiz Inácio Lula da Silva, aparece na segunda colocação, com 32%. Quem tem acompanhado as pesquisas eleitorais, rotineiramente, pode notar a alteração, já que, por exemplo, a última pesquisa divulgada pelo Ipec mostra exatamente o inverso. (CONFIRA O VÍDEO AO FIM DESTA MATÉRIA)

O que são deepfakes?

Essa prática é feita através de uma tecnologia que usa inteligência artificial (IA) para criar vídeos falsos, porém realistas, de pessoas fazendo coisas que elas nunca fizeram na vida real.

Uma das habilidades dessa técnica pode ser feita com o rosto do vídeo original e com o novo rosto, até que o programa seja capaz de encontrar um ponto comum entre as duas faces e “costurar” uma sobre a outra.

Por se tratar de um programa televisivo, é possível analisar fatores como a coloração da imagem e checar se a fala está coordenada com o movimento da boca. No entanto, no momento em que foi mostrada a pesquisa, a imagem fechou tão somente no gráfico (adulterado), sem poder interpretar, por exemplo, a leitura labial da apresentadora.