ENTRETENIMENTO


Clonagem de voz por IA avança e impulsiona novos tipos de golpe 

Com poucos segundos de áudio, criminosos imitam vozes reais; especialistas indicam medidas simples para reduzir riscos 

Foto: reprodução/ Vidnoz

O uso de inteligência artificial para clonar vozes tem avançado rapidamente e já está sendo explorado em golpes cada vez mais sofisticados. Com apenas alguns segundos de gravação, criminosos conseguem reproduzir a voz de uma pessoa com alto grau de fidelidade, tornando fraudes mais difíceis de detectar. 

Essa prática, conhecida como ‘deepfake de áudio’, vem sendo utilizada para enganar familiares, simular pedidos urgentes de dinheiro e até contornar sistemas de autenticação baseados em voz. 

Diante desse cenário, especialistas recomendam medidas preventivas simples, mas eficazes. Entre elas, está a criação de códigos ou palavras-chave combinadas entre familiares para confirmar a identidade em situações suspeitas. Outra orientação importante é evitar a divulgação excessiva de áudios pessoais em redes sociais ou aplicativos públicos. 

Embora a tecnologia continue evoluindo, a conscientização e a adoção de cuidados básicos ainda são as principais formas de proteção contra esse tipo de fraude.