Chamadas de golpe usando IA para imitar vozes de pessoas que você pode conhecer estão sendo usadas para explorar membros do público desprevenidos.
Essas chamadas utilizam o que é conhecido como IA generativa, que se refere a sistemas capazes de criar texto, imagens ou qualquer outro tipo de mídia, como vídeo, com base em instruções de um usuário.
Deepfakes ganharam notoriedade nos últimos anos com uma série de incidentes de alto perfil, como o uso da semelhança da atriz Emma Watson em uma série de anúncios sugestivos que apareceram no Facebook e Instagram.
Também houve o vídeo amplamente compartilhado - e desmascarado - de 2022, no qual o presidente ucraniano Volodymyr Zelensky parecia pedir aos ucranianos para "deixarem as armas".
Agora, a tecnologia para criar um deepfake de áudio, uma cópia realista da voz de uma pessoa, está se tornando cada vez mais comum. Para criar uma cópia realista da voz de alguém, é necessário ter dados para treinar o algoritmo.
Isso significa ter muitas gravações de áudio da voz do alvo pretendido. Quanto mais exemplos da voz da pessoa você puder fornecer aos algoritmos, melhor e mais convincente será a cópia final.
Muitos de nós já compartilham detalhes de nossas vidas diárias na internet. Isso significa que os dados de áudio necessários para criar uma cópia realista de uma voz podem estar prontamente disponíveis nas redes sociais.
Mas o que acontece quando uma cópia está disponível? O que é o pior que pode acontecer? Um algoritmo de deepfake pode permitir que qualquer pessoa que tenha acesso aos dados faça com que "você" diga o que quiser.
Na prática, isso pode ser tão simples quanto escrever algum texto e fazer o computador dizê-lo em voz alta com o som da sua voz.
Principais desafios
Essa capacidade aumenta o risco de prevalência de desinformação e informações falsas de áudio. Pode ser usado para tentar influenciar a opinião pública internacional ou nacional, como visto nos "vídeos" de Zelensky.
Mas a ubiquidade e a disponibilidade dessas tecnologias apresentam desafios significativos também em nível local, especialmente na crescente tendência de "chamadas de golpe de IA".
Muitas pessoas já receberam chamadas de golpe ou phishing que nos dizem, por exemplo, que nosso computador foi comprometido e que devemos fazer login imediatamente, potencialmente dando ao chamador acesso aos nossos dados.
Muitas vezes, é fácil identificar que isso é uma fraude, especialmente quando o interlocutor faz solicitações que alguém de uma organização legítima não faria.
No entanto, agora imagine que a voz do outro lado da linha não é de um estranho, mas parece exatamente como a de um amigo ou ente querido. Isso introduz um novo nível de complexidade e pânico para o infeliz destinatário.
Uma história recente relatada pela CNN destaca um incidente em que uma mãe recebeu uma ligação de um número desconhecido. Quando ela atendeu o telefone, era sua filha. A filha supostamente havia sido sequestrada e estava telefonando para a mãe para transmitir uma exigência de resgate.
Na verdade, a menina estava segura e saudável. Os golpistas haviam feito um deepfake de sua voz. Esse não é um incidente isolado, com variações do golpe incluindo um suposto acidente de carro, em que a vítima liga para a família pedindo dinheiro para ajudá-la após um acidente.
Truque antigo usando nova tecnologia
Esse golpe em si não é novo, o termo "golpe de sequestro virtual" existe há vários anos. Pode assumir várias formas, mas uma abordagem comum é enganar as vítimas para que paguem um resgate para libertar um ente querido que elas acreditam estar sendo ameaçado.
O golpista tenta estabelecer uma obediência inquestionável, para que a vítima pague um resgate rápido antes que o engano seja descoberto.
No entanto, o surgimento de tecnologias de IA poderosas e disponíveis aumentou significativamente a aposta e tornou as coisas mais pessoais.
É uma coisa desligar a ligação de um interlocutor anônimo, mas é preciso ter confiança real em seu julgamento para desligar uma ligação de alguém que soa exatamente como seu filho ou parceiro.
Existem softwares que podem ser usados para identificar deepfakes e criar uma representação visual do áudio chamada espectrograma.
Ao ouvir a ligação, pode parecer impossível distinguir da pessoa real, mas as vozes podem ser diferenciadas quando os espectrogramas são analisados lado a lado. Pelo menos um grupo ofereceu software de detecção para download, embora tais soluções possam ainda exigir algum conhecimento técnico para serem utilizadas.
A maioria das pessoas não será capaz de gerar espectrogramas, então o que você pode fazer quando não tem certeza se está ouvindo a coisa real? Assim como com qualquer outra forma de mídia com a qual você possa se deparar: seja cético.
Se você receber uma ligação repentina de um ente querido e eles pedirem dinheiro ou fizerem solicitações que pareçam fora de caráter, ligue de volta para confirmar ou envie uma mensagem de texto para garantir que você realmente esteja falando com eles.
À medida que as capacidades da IA se expandem, as fronteiras entre realidade e ficção ficarão cada vez mais turvas. E é improvável que possamos colocar a tecnologia de volta na caixa. Isso significa que as pessoas precisarão se tornar mais cautelosas.
Oliver Buckley, Professor Associado de Segurança Cibernética, Universidade de East Anglia
Este artigo é republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original.