Deepfake: a tecnologia que pode ter sido usada em suposto vídeo íntimo de João Doria

PUBLICIDADE

No filme A.I. – Inteligência Artificial, de 2001, David é um menino-robô programado para amar. Em seu lançamento, a internet ainda caminhava no Brasil e esse termo não fazia muito sentido para os brasileiros.

Dezessete anos depois, a inteligência artificial pode ter desdobramentos nas eleições brasileiras. Desde terça-feira (23), circula pelas redes sociais um vídeo em que um homem aparece deitado em uma cama de motel, acompanhado de cinco mulheres.

Este homem seria, supostamente, o candidato ao governo de São Paulo, João Doria (PSDB). Ele nega e gravou um vídeo ao lado da esposa, Bia Doria, para dizer que pediu a peritos para investigarem as imagens.

O cenário político brasileiro pode estar vivendo um caso de uso de deepfake, tecnologia que utiliza inteligência artificial e consegue criar vídeos falsos, utilizando a imagem de pessoas conhecidas.

O termo deepfake surgiu em dezembro de 2017, quando um usuário da rede social Reddit começou a postar vídeos com conteúdo pornográficos, utilizando rostos de pessoas famosas. Em um deles, por exemplo, ele utilizou o rosto da atriz Gal Gadot. Emma Watson também foi vítima deste tipo de vídeo.

Pessoas menos atentas nem percebem que é uma montagem. Para piorar a situação, utilizar as machines learning para criar um deepfake é algo relativamente simples para quem tem conhecimento em algoritmos, um bom processador gráfico, conhecimento em deep learning, além de um grande acervo de imagens.

No Facebook, um internauta publicou um vídeo, afirmando que a gravação em que supostamente aparece João Doria é fake.