Golpista falsificou voz de CEO e fez outro executivo transferir 220 mil euros

0

Pedido de 220 mil euros foi feito por um fraudador que utilizou uma voz sintetizada do CEO de uma empresa britânica por inteligência artificial.


A reportagem do Wall Street Journal indica que o executivo acreditava estar falando com o CEO da empresa-mãe, baseada na Alemanha. A pessoa que ligou tinha um sotaque alemão e disse que ele precisava transferir € 220 mil (mais de R$ 1 milhão) para um fornecedor na Hungria dentro de uma hora.

A companhia de seguros da empresa, Euler Hermes Group SA, compartilhou informações sobre o crime com o WSJ, mas não revelou o nome das empresas envolvidas.

O especialista em fraudes da Euler Hermes, Rüdiger Kirsch, disse ao WSJ que vítima reconheceu a voz de seu superior porque havia um pouco de sotaque alemão e a mesma “melodia” da voz. Essa foi a primeira vez que a Euler Hermes lidou com clientes que sofreram fraudes que usaram imitação via inteligência artificial, uma espécie de deepfake de voz.

Kirsch disse à reportagem que o fraudador ligou para a companhia da vítima três vezes. Depois que a transferência foi realizada, o agente mal-intencionado fez uma segunda chamada e disse que o dinheiro tinha sido reembolsado. O hacker ainda ligou uma terceira vez para pedir outro pagamento.

Embora a mesma voz falsa tenha sido usada, a última chamada foi realizada com um número de telefone da Áustria e o “reembolso” não tinha se concretizado, então a vítima levantou suspeitas sobre a autenticidade do autor da chamada e não obedeceu.

A tecnologia de voz gerada por IA tem se tornado bastante realista nos últimos meses. Kirsch disse ao WSJ que acredita que um software disponível comercialmente tenha sido usado para facilitar a imitação do executivo.

Em maio, a empresa de IA Dessa liberou um deepfake de voz do podcaster Joe Rogan que era uma réplica quase perfeita do seu timbre grave. A imitação era tão parecida que um ouvinte de longa data teria dificuldade em distinguir entre o Joe Rogan real e o falso.

Quanto à grana roubada, aparentemente o dinheiro foi enviado para uma conta bancária na Hungria, transferido para uma conta no México e depois distribuído em vários outros locais. Nenhum suspeito foi identificado.

A Dessa demonstrou a tecnologia em uma publicação em seu blog que discutia as implicações sociais da tecnologia e sugeriu alguns exemplos de como as vozes falsas podem ser usadas, incluindo manipulação eleitoral, personificação de membros de famílias e obtenção de autorização de segurança.

O blog da companhia afirma:

“Nos próximos anos (ou até mais cedo), veremos a tecnologia avançar ao ponto em que apenas alguns segundos de áudio serão necessários para criar uma réplica fiel da voz de qualquer pessoa no planeta”.

O CEO da empresa de energia foi enganado dois meses antes do post da Dessa sobre deepfake de voz ter sido publicado.

Notícia anteriorFacebook cogita acabar com a contagem de curtidas
Próxima notíciaBanco Central quer substituir DOCs e TEDs por pagamentos instantâneos