Dinossauros e dragões “reais”, naves espaciais perfeitas e convincentes, ficção científica, mundo paralelo – essas não são mais a sensação do avanço da era digital. A nova onda de deepfake, um novo estágio tecnológico das fake news, está mais focada em manipular a realidade de um vídeo “autêntico” para gerar novas formas de mentir.
A técnica de deepfake usa inteligência artificial para fazer edições profundas no conteúdo. Com ela, é possível, por exemplo, trocar digitalmente o rosto de uma pessoa ou simular sua voz, fazendo com que ela faça o que não fez ou diga o que não disse.
Um caso que ficou famoso foi dos apresentadores William Bonner e Renata Vasconcellos, Jornal Nacional. No vídeo, eles mostravam os resultados de uma pesquisa de intenção de votos para a Presidência, mas os dados estavam invertidos sobre quem era o candidato favorito, tanto nos gráficos quanto nas falas dos apresentadores, e mostravam uma projeção com Bolsonaro à frente de Lula (o que nunca aconteceu).
No dia seguinte, o telejornal esclareceu que se tratava de fake news, mas o estrago já havia sido feito: milhões de bolsonaristas acreditaram naquela montagem.
Outro caso aconteceu no início da guerra entre a Rússia e a Ucrânia: o presidente ucraniano, Volodymyr Zelensky, também foi vítima desse tipo de manipulação. Um vídeo em que ele parecia pedir aos ucranianos que largassem as armas e voltassem para suas casas, como se o país estivesse se rendendo, circulou nas redes sociais, obrigando o Facebook e o YouTube a removê-lo assim que se constatou que era falso.
A ciência a favor da verdade
No entanto, nem tudo são más notícias. Mais uma vez, a pesquisa e a ciência têm se colocado ao lado do interesse público. Anderson Rocha, diretor do Instituto de Computação da Unicamp, onde coordena o Laboratório de Inteligência Artificial (Recod.ai), tem estudado maneiras de detectar adulterações maliciosas em fotos e vídeos, inclusive em deepfakes, também chamadas de mídia sintética.
Com colegas da Universidade de Hong Kong, Rocha desenvolveu um algoritmo que ajuda a detectar, de forma simultânea nos vídeos, se houve manipulação de rostos e, em caso positivo, a localizar quais regiões foram mudadas.
Segundo o pesquisador, é possível identificar se houve alteração na face inteira ou apenas a boca, a região dos olhos ou o cabelo. Em um universo de 112 mil faces testadas, a média de acertos foi de 88% para vídeos de baixa resolução e de 95% para vídeos com resolução maior. O método também indica se a imagem foi criada do zero, ou seja, sem ter como base uma fotografia existente. Os resultados foram publicados em abril de 2022 na revista Transactions on Information Forensics and Security.
Para que tecnologias importantes como essa sejam desenvolvidas e tenham prosseguimento é fundamental investimento público e priorização do governo, pilares sobre os quais definitivamente não atua o governo Bolsonaro.
O esforço do governo e da sociedade civil devem estar sempre voltados à produção de conhecimento e pesquisa que priorizem o interesse público e o esclarecimento da população. Essa é a esperança dos brasileiros para o novo governo que se inicia em janeiro de 2023.
Fonte: APUB