Sexta-feira, 15 de novembro de 2024, às 18:36:34- Email: [email protected]



Golpistas usam inteligência artificial para clonar vozes e extorquir dinheiro de vítimas

Em um dos casos, uma senhora pensou estar falando com o neto, que dizia estar preso e precisava de dinheiro para fiança

Golpistas começaram a utilizar inteligência artificial para enganar vítimas e ganhar milhares de dólares. Em um dos casos mais assustadores, criminosos utilizaram um software avançado para imitar a voz do neto de uma senhora de 73 anos e quase conseguiram extorquir dinheiro dela.

A canadense Ruth Card recentemente recebeu a ligação de alguém que dizia ser Brandon, um neto dela, que contou estar preso e precisava de dinheiro para fiança. Quase sem pensar, ela e o marido Greg correram para o banco.

Conseguiram sacar 3.000 dólares canadenses (R$ 11,2 mil, na cotação atual) de uma agência de Regina, no Canadá, e só não tiraram mais porque o gerente de uma segunda agência havia falando com um cliente que dissera ter recebido uma ligação semelhante, mas percebera que a voz era falsificada a tempo.

“Estávamos realmente convencidos de que conversamos com Brandon”, disse Ruth Card, em entrevista ao jornal Washington Post.

Assim como no Brasil, golpes que usam identidade de conhecidos são comuns nos Estados Unidos e Canadá. Mas, recentemente, eles começaram a ficar mais sofisticados graças ao uso de inteligência artificial generativa.

Programas relativamente baratos permitem imitar vozes com pequenas amostras de áudio que podem ser obtidas de vídeos publicados online. A IA identifica características únicas da voz, como sotaque e entonação, e o que não consegue estabelecer com precisão, é preenchido com vozes semelhantes pesquisadas em imensos bancos de dados que alimentam tais programas.

Em uma ligação, basta ao golpista digitar que o programa “fala” com a vítima.


spot_imgspot_imgspot_imgspot_img
spot_img


Veja outras notícias aqui ▼