Alerta: criminosos podem estar usando sua voz para aplicar golpes com inteligência artificial

Uma nova modalidade de golpe, envolvendo clonagem de voz por inteligência artificial (IA), tem preocupado a população e mobilizado autoridades de segurança em todo o país. Segundo investigações preliminares, criminosos estariam captando trechos da fala das vítimas durante ligações telefônicas e utilizando ferramentas de IA para simular vozes reais em fraudes contra familiares e amigos.
Como o golpe funciona
Em São Paulo, a Polícia Civil relata casos em que os golpistas fazem chamadas “mudas” – quando o telefone toca, mas ninguém fala – apenas para gravar a voz da vítima no momento em que ela atende. Bastam poucas palavras para que a voz seja replicada artificialmente.
No Rio de Janeiro, os criminosos se passam por representantes de órgãos públicos, conduzindo conversas rápidas com o objetivo de capturar trechos da fala. Com esse material, criam áudios falsos, que soam idênticos à voz verdadeira da pessoa gravada.
Situação na Bahia
Em Salvador, a Delegacia de Repressão a Crimes Cibernéticos (DRCC) informou não haver registros oficiais desse tipo de golpe até o momento. O delegado Bruno Oliveira, titular da unidade, confirmou que há apenas um caso recente envolvendo deepfake de imagem, mas nenhum com clonagem de voz.
Mesmo assim, o delegado alerta para a necessidade de prevenção e cautela. “A orientação é sempre desconfiar, confirmar identidades e evitar exposição desnecessária da voz em ligações ou redes sociais”, reforça.
Dicas para se proteger
-
Desconfie de pedidos urgentes: golpes costumam apelar para o medo e a pressa.
-
Confirme a identidade: crie uma palavra-código entre familiares e valide ligações por outros canais.
-
Evite falar com números desconhecidos: o simples ato de atender pode fornecer material para clonagem.
-
Não publique áudios abertos nas redes: qualquer pessoa pode baixar e usar sua voz.
-
Proteja seus dados pessoais: quanto menos informações circularem, mais difícil será personalizar golpes.
-
Oriente idosos e familiares: são os principais alvos.
-
Bloqueie e denuncie ligações suspeitas.
Especialistas divergem sobre a facilidade da clonagem
Há divergência entre os especialistas sobre o tempo necessário para copiar uma voz. Alguns afirmam que segundos bastam para gerar uma simulação convincente. Outros, como o especialista em tecnologia Luis Gaban, pedem cautela:
“É impossível clonar uma voz apenas com um ‘alô’. As IAs precisam de um volume grande de gravações, com diferentes entonações e situações para criar uma reprodução realista”, explica.
Gaban afirma que, embora ainda não seja simples clonar vozes com poucos segundos de áudio, o avanço acelerado da tecnologia pode mudar esse cenário em breve:
“No futuro, pode ser possível gerar cópias com apenas 10 ou 20 segundos de gravação. Mas, por enquanto, isso ainda exige muito mais material.”
Enquanto as autoridades investigam, o alerta é claro: redobre a atenção e cuide da sua voz — ela pode ser usada por criminosos sem que você perceba.
(77) 98884-0020









