Como os pesquisadores estão se preparando para a próxima onda de propaganda Deepfake
Os detectores com IA são as melhores ferramentas para detectar vídeos falsos gerados por IA.
O Washington Post via Getty Images

Um jornalista investigativo recebe um vídeo de um denunciante anônimo. Mostra um candidato a presidente admitindo atividades ilegais. Mas esse vídeo é real? Se assim for, seria uma grande notícia - o furo de uma vida - e poderia reverter completamente as próximas eleições. Mas a jornalista passa o vídeo por meio de uma ferramenta especializada, que diz a ela que o vídeo não é o que parece. Na verdade, é um “deepfake, ”Um vídeo feito usando inteligência artificial com deep learning.

Jornalistas de todo o mundo logo poderão usar uma ferramenta como essa. Em alguns anos, uma ferramenta como essa pode até ser usada por qualquer pessoa para erradicar conteúdo falso em seus feeds de mídia social.

As pesquisadores que têm estudado a detecção de deepfake e desenvolvendo uma ferramenta para jornalistas, vemos um futuro para essas ferramentas. Eles não resolverão todos os nossos problemas, porém, e serão apenas uma parte do arsenal na luta mais ampla contra a desinformação.

O problema com deepfakes

A maioria das pessoas sabe que você não pode acreditar em tudo o que vê. Ao longo das últimas décadas, consumidores experientes de notícias se acostumaram a ver imagens manipuladas por software de edição de fotos. Os vídeos, porém, são outra história. Os diretores de Hollywood podem gastar milhões de dólares em efeitos especiais para compor uma cena realista. Mas, usando deepfakes, os amadores com alguns milhares de dólares em equipamentos de informática e algumas semanas para gastar poderiam tornar algo quase tão verdadeiro.


innerself assinar gráfico


Os Deepfakes tornam possível colocar as pessoas em cenas de filmes nas quais elas nunca estiveram - pense em Tom Cruise interpretando o Homem de Ferro - o que torna os vídeos divertidos. Infelizmente, também torna possível criar pornografia sem o consentimento das pessoas retratadas. Até agora, essas pessoas, quase todas mulheres, são as maiores vítimas quando a tecnologia deepfake é mal utilizada.

Deepfakes também pode ser usado para criar vídeos de líderes políticos dizendo coisas que nunca disseram. O Partido Socialista Belga lançou um vídeo de baixa qualidade, não falso, mas ainda falso, de Presidente Trump insultando a Bélgica, que teve uma reação suficiente para mostrar os riscos potenciais de deepfakes de alta qualidade.

{vembed Y = poSd2CyDpyA}
Hany Farid, da Universidade da Califórnia, em Berkeley, explica como os deepfakes são feitos.

Possivelmente mais assustador de tudo, eles podem ser usados ​​para criar dúvida sobre o conteúdo de vídeos reais, sugerindo que eles podem ser falsos profundos.

Dados esses riscos, seria extremamente valioso poder detectar deepfakes e rotulá-los com clareza. Isso garantiria que vídeos falsos não enganassem o público e que vídeos reais pudessem ser recebidos como autênticos.

Identificando falsificações

A detecção de deepfake como um campo de pesquisa começou um pouco depois há três anos. Os primeiros trabalhos focaram na detecção de problemas visíveis nos vídeos, como deepfakes que não piscam. Com o tempo, no entanto, o as falsificações ficaram melhores em imitar vídeos reais e se tornar mais difícil de detectar para as pessoas e ferramentas de detecção.

Existem duas categorias principais de pesquisa de detecção de deepfake. O primeiro envolve olhando para o comportamento das pessoas nos vídeos. Suponha que você tenha muitos vídeos de alguém famoso, como o presidente Obama. A inteligência artificial pode usar este vídeo para aprender seus padrões, desde seus gestos com as mãos até suas pausas na fala. Pode então assistir a um deepfake dele e observe onde não corresponde a esses padrões. Essa abordagem tem a vantagem de funcionar mesmo se a qualidade do vídeo em si for essencialmente perfeita.

{vembed Y = gsv1OsCEad0}
Aaron Lawson da SRI International descreve uma abordagem para detectar deepfakes.

Outros pesquisadores, incluindo nossa equipe, têm se concentrado em diferenças que todos os deepfakes têm em comparação com vídeos reais. Vídeos Deepfake são freqüentemente criados pela fusão de quadros gerados individualmente para formar vídeos. Levando isso em consideração, os métodos de nossa equipe extraem os dados essenciais dos rostos em quadros individuais de um vídeo e os rastreiam por meio de conjuntos de quadros simultâneos. Isso nos permite detectar inconsistências no fluxo de informações de um quadro para outro. Usamos uma abordagem semelhante para nosso sistema de detecção de áudio falso também.

Esses detalhes sutis são difíceis de serem vistos pelas pessoas, mas mostram como os deepfakes não são exatamente perfeito ainda. Detectores como esses podem funcionar para qualquer pessoa, não apenas para alguns líderes mundiais. No final, pode ser que os dois tipos de detectores de deepfake sejam necessários.

Os sistemas de detecção recentes funcionam muito bem em vídeos especificamente coletados para avaliar as ferramentas. Infelizmente, mesmo os melhores modelos fazem mal em vídeos encontrados online. Melhorar essas ferramentas para serem mais robustas e úteis é a próxima etapa principal.

Quem deve usar detectores de deepfake?

Idealmente, uma ferramenta de verificação deepfake deve estar disponível para todos. No entanto, essa tecnologia está nos estágios iniciais de desenvolvimento. Os pesquisadores precisam melhorar as ferramentas e protegê-las contra hackers antes de disponibilizá-las amplamente.

Ao mesmo tempo, porém, as ferramentas para fazer deepfakes estão disponíveis para qualquer pessoa que queira enganar o público. Ficar sentado à margem não é uma opção. Para a nossa equipe, o equilíbrio certo foi trabalhar com os jornalistas, pois eles são a primeira linha de defesa contra a disseminação da desinformação.

Antes de publicar histórias, os jornalistas precisam verificar as informações. Eles já têm métodos testados e comprovados, como verificar as fontes e fazer com que mais de uma pessoa verifique os fatos importantes. Então, ao colocar a ferramenta em suas mãos, damos a eles mais informações, e sabemos que eles não vão contar apenas com a tecnologia, pois ela pode cometer erros.

Os detectores podem vencer a corrida armamentista?

É encorajador ver equipes de Facebook e Microsoft investindo em tecnologia para entender e detectar deepfakes. Este campo precisa de mais pesquisas para acompanhar a velocidade dos avanços na tecnologia de deepfake.

Os jornalistas e as plataformas de mídia social também precisam descobrir a melhor forma de alertar as pessoas sobre falsificações profundas quando são detectados. A pesquisa mostrou que as pessoas lembram da mentira, mas não o fato de que era mentira. O mesmo acontecerá com vídeos falsos? Simplesmente colocar “Deepfake” no título pode não ser suficiente para conter alguns tipos de desinformação.

Deepfakes estão aqui para ficar. Gerenciar a desinformação e proteger o público será mais desafiador do que nunca, à medida que a inteligência artificial fica mais poderosa. Fazemos parte de uma crescente comunidade de pesquisa que está assumindo essa ameaça, na qual a detecção é apenas o primeiro passo.A Conversação

Sobre os autores

John Sohrawardi, aluno de doutorado em ciências da computação e da informação, Rochester Institute of Technology e Matthew Wright, professor de segurança da computação, Rochester Institute of Technology

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o original artigo.