golpes de voz deepfake 7 18
 Clonar a voz de alguém está mais fácil do que nunca. D-Keine/iStock via Getty Images

Você acabou de voltar para casa depois de um longo dia de trabalho e está prestes a se sentar para jantar quando de repente seu telefone começa a tocar. Do outro lado está um ente querido, talvez um pai, um filho ou um amigo de infância, implorando para que você envie dinheiro imediatamente.

Você faz perguntas a eles, tentando entender. Há algo estranho em suas respostas, que são vagas ou fora do personagem, e às vezes há um atraso peculiar, quase como se estivessem pensando um pouco devagar demais. No entanto, você tem certeza de que é definitivamente o seu ente querido falando: é a voz dele que você ouve e o identificador de chamadas está mostrando o número dele. Atribuindo a estranheza ao pânico deles, você obedientemente envia o dinheiro para a conta bancária que eles fornecem a você.

No dia seguinte, você liga de volta para saber se está tudo bem. Seu ente querido não tem ideia do que você está falando. Isso porque nunca ligaram para você – você foi enganado pela tecnologia: uma voz deepfake. Milhares de pessoas foram enganado desta forma em 2022.

A capacidade de clonar a voz de uma pessoa está cada vez mais ao alcance de qualquer pessoa com um computador.


innerself assinar gráfico


 

As segurança informática pesquisadores, vemos que os avanços contínuos em algoritmos de aprendizado profundo, edição e engenharia de áudio e geração de voz sintética significam que é cada vez mais possível simular de forma convincente a voz de uma pessoa.

Pior ainda, chatbots como o ChatGPT estão começando a gerar scripts realistas com respostas adaptáveis ​​em tempo real. Por combinando essas tecnologias com geração de voz, um deepfake passa de uma gravação estática para um avatar ao vivo e realista que pode ter uma conversa telefônica de forma convincente.

clonando uma voz

Criar um deepfake convincente de alta qualidade, seja vídeo ou áudio, não é a coisa mais fácil de fazer. Requer uma riqueza de habilidades artísticas e técnicas, hardware poderoso e uma amostra bastante robusta da voz de destino.

Há um número crescente de serviços que oferecem produzir clones de voz de moderada a alta qualidade por uma taxa, e algumas ferramentas deepfake de voz precisam de uma amostra de apenas um minuto de duração, ou mesmo apenas alguns segundos, para produzir um clone de voz que pudesse ser convincente o suficiente para enganar alguém. No entanto, para convencer um ente querido – por exemplo, a usar em um golpe de representação – provavelmente seria necessária uma amostra significativamente maior.

Os pesquisadores conseguiram clonar vozes com apenas cinco segundos de gravação.

 

Proteção contra golpes e desinformação

Com tudo isso dito, nós do Projeto DeFake do Rochester Institute of Technology, da University of Mississippi e da Michigan State University, e outros pesquisadores estão trabalhando duro para detectar deepfakes de vídeo e áudio e limitar os danos que causam. Existem também ações diretas e cotidianas que você pode realizar para se proteger.

Para começar, phishing de voz, ou “vishing”, golpes como o descrito acima são os deepfakes de voz mais prováveis ​​que você pode encontrar na vida cotidiana, tanto no trabalho quanto em casa. Em 2019, um empresa de energia foi enganada em US$ 243,000 quando criminosos simulavam a voz do patrão de sua controladora para mandar um funcionário repassar recursos a um fornecedor. Em 2022, as pessoas foram roubado de cerca de US $ 11 milhões por vozes simuladas, incluindo conexões pessoais próximas.

O que você pode fazer?

Esteja atento a ligações inesperadas, mesmo de pessoas que você conhece bem. Isso não quer dizer que você precise agendar todas as chamadas, mas ajuda pelo menos enviar um e-mail ou mensagem de texto com antecedência. Além disso, não confie no identificador de chamadas, pois isso também pode ser falsificado. Por exemplo, se você receber uma ligação de alguém que afirma representar seu banco, desligue e ligue diretamente para o banco para confirmar a legitimidade da ligação. Certifique-se de usar o número que você anotou, salvou em sua lista de contatos ou que você pode encontrar no Google.

Além disso, tenha cuidado com suas informações de identificação pessoal, como número do Seguro Social, endereço residencial, data de nascimento, número de telefone, nome do meio e até mesmo os nomes de seus filhos e animais de estimação. Os golpistas podem usar essas informações para se passar por você para bancos, corretores de imóveis e outros, enriquecendo enquanto levam você à falência ou destroem seu crédito.

Aqui está outro conselho: conheça a si mesmo. Especificamente, conheça seus preconceitos e vulnerabilidades intelectuais e emocionais. Este é um bom conselho de vida em geral, mas é fundamental para se proteger de ser manipulado. Os golpistas geralmente procuram descobrir e depois se aproveitar de suas ansiedades financeiras, suas ligações políticas ou outras inclinações, sejam elas quais forem.

Esse estado de alerta também é uma defesa decente contra a desinformação usando deepfakes de voz. Deepfakes podem ser usados ​​para tirar vantagem do seu viés de confirmação, ou o que você está inclinado a acreditar sobre alguém.

Se você ouvir uma pessoa importante, seja de sua comunidade ou do governo, dizendo algo que parece muito incomum para ela ou confirma suas piores suspeitas sobre ela, seria prudente ser cauteloso.A Conversação

Sobre os Autores

Matthew Wright, Professor de Segurança da Computação, Rochester Institute of Technology e Cristóvão Schwartz, Pesquisador Associado de Pós-Doutorado em Segurança da Computação, Rochester Institute of Technology

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.