O que há de mais recente em golpes por telefone: IA que imita as vozes de conhecidos –

São cada vez mais os casos de usuários que supostamente recebem telefonemas de um ente querido ou amigo solicitando sua ajuda e dinheiro para sair de uma situação urgente e, diante da incerteza, a primeira coisa que pensam é ajudar em vez de que estão sendo vítimas de um golpe que usa inteligência artificial (IA) para imitar vozes de parentes e conseguir dinheiro.

Golpes por telefone são um método muito recorrente para atores mal-intencionados ao tentar enganar os usuários, seja para obter dinheiro ou para roubar dados relevantes, como senhas ou chaves bancárias.

As técnicas para esses golpes telefônicos estão evoluindo cada vez mais tentando evitar as barreiras de proteção que se interpõem entre os criminosos e seus objetivos. Acima de tudo, agregando ao seu modus operandi as mais novas funções oferecidas pela tecnologia, como a IA generativa.

Os golpistas estão usando programas de geração de voz com inteligência artificial para se passar por pessoas próximas às vítimas por meio de ligações e tentar obter dinheiro.

Na ligação, os atores maliciosos, se passando por um ente querido, contam que estão em situação de perigo e pedem ajuda urgente e dinheiro às vítimas. Por exemplo, os golpistas podem se passar por um neto que ficou sem dinheiro durante uma viagem e precisa urgentemente que seus avós lhe emprestem uma certa quantia para voltar para casa.

Normalmente, os golpistas se escondem atrás de parentes que imitam ou pessoas muito próximas da vítima, como filhos ou irmãos, para que haja menos resistência em dar dinheiro ou haja menos dúvidas sobre a legitimidade dessas ligações.

Assim, embora durante a ligação a vítima seja surpreendida e existam detalhes que ela não consegue entender sobre a história, esses tipos de golpistas usam o elemento definitivo para convencer a vítima de que é uma pessoa próxima a ela e que ela deve ajudar: a voz . Para fazer isso, os golpistas usam programas geradores de fala baseados em IA.

Segundo dados da Federal Trade Commission (FTC) recolhidos pelo The Washington Post, as burlas telefónicas causaram perdas até 11 milhões de dólares (cerca de 10,2 milhões de euros) durante o ano de 2022, tornando as burlas impostoras no segundo tipo mais comum no Estados Unidos.

Esses programas de IA analisam a voz da pessoa que você deseja imitar e procuram padrões que reforcem as nuances e o som único da pessoa em questão ao falar. Ou seja, os programas são treinados para imitar o tom, o sotaque e até mesmo a idade e depois recriá-los.

Além disso, esses programas são capazes de aprender a imitar vozes em questão de segundos. Para fazer isso, eles precisam apenas de uma pequena amostra de áudio como base. Por exemplo, em alguns programas basta usar 30 segundos da pessoa que fala para poder imitá-la.

Esses áudios podem ser obtidos em qualquer vídeo em que a pessoa que você deseja imitar esteja falando, por exemplo, em publicações pessoais em redes sociais como Instagram ou TikTok, ou mesmo em vídeos ou podcasts do YouTube.

A ascensão desse método fraudulento pode ser baseada no fato de que, além de sua eficácia, a imitação de voz é simples e barata. Por exemplo, uma das empresas que desenvolve este software é a ElevenLabs e, dependendo dos benefícios pretendidos, o seu serviço pode ser gratuito ou custar entre 5 dólares (4,65 euros) e 330 dólares por mês (279 euros).

No entanto, existem outras empresas que também desenvolvem este tipo de tecnologia como a Murf.ai; Play.ht; e Respeecher, cujo preço varia entre 20 e 30 dólares por mês (cerca de 18 ou 27 euros por mês). Por exemplo, no caso de Respeecher, inclui uma função para converter a voz em tempo real. Ou seja, conforme o usuário fala, a IA muda o tom para a voz imitada instantaneamente.

Como evitar o golpe

Antes da existência desses programas avançados de imitação de voz, os usuários podiam observar alguns sinais para identificar se uma chamada estava sendo feita por um programa de geração de voz de inteligência artificial.

Por exemplo, de acordo com Marc Rivero, analista de segurança cibernética da Kaspersky, um desses sinais era a linguagem forçada ou “robótica” da voz usada pelo programa. Outro sinal poderia ser uma pequena pausa após uma intervenção do usuário, já que o sistema deveria processar a informação.

Segundo Rivero, também pode ser identificada a “falta de interação humana típica”, como a capacidade de responder a perguntas imprevistas.

Perante estes novos esquemas, em que são utilizados programas de IA que imitam a voz pretendida, o diretor técnico da Check Point Software para Espanha e Portugal, Eusebio Nieva, sugere alguns cuidados.

Embora reconheça que é cada vez mais difícil realizar verificações “devido ao grau de especialização e competência destes programas de IA”, deve assumir-se “uma filosofia de desconfiança” relativamente a algumas chamadas, sobretudo se forem de origem desconhecida e envolvem transações monetárias, “mesmo que a voz seja identificável”.

Nesse sentido, como explica Eusebio Nieva, no caso de receber uma chamada com essas características, assim que o usuário identificar uma suspeita mínima, ele deve “estabelecer algum tipo de identificação para determinar sem dúvida a identidade do locutor do outro extremo”.

Algumas opções levantadas por Nieva são tentar falar sobre um assunto que só a pessoa real sabia ou levantar “pequenas armadilhas” durante a conversa que indicam que há algum tipo de tentativa de engano.

Seguindo este tópico, outra maneira de proteger essas chamadas é “configurar um protocolo de autenticação dupla para o chamador para evitá-lo”. Por exemplo, solicitar uma chamada de volta ao chamador para determinar se ele realmente é um ser conhecido.

Essas sugestões valem também para ambientes de trabalho, sobretudo, “sabendo que o alvo do golpe será um administrativo ou gerente do departamento financeiro”, diz Nieva.

Eloise Schuman

"Fã de café. Especialista em viagens freelance. Pensador orgulhoso. Criador profissional. Organizador certificado."

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *