IA reconfigura o crime: salto de deepfakes e golpes com voz clonada pressiona segurança pública
Ferramentas de IA impulsionam fraudes com deepfakes, clonagem de voz e identidades sintéticas. Relatórios de 2025 apontam aumento de 126% desses ataques no Brasil, enquanto novas regras eleitorais buscam conter desinformação nas eleições de 2026.
IA reconfigura o crime e eleva o risco para a segurança pública
A popularização de ferramentas de inteligência artificial está redesenhando o cenário criminal, com golpes mais rápidos, baratos e difíceis de detectar. De deepfakes a clonagem de voz, a sofisticação dos ataques cresce e pressiona autoridades, empresas e cidadãos a reverem protocolos de proteção.
Contexto: onde, quando, quem está envolvido
Entre 2025 e o início de 2026, avaliações oficiais na Europa e na América Latina descreveram a expansão do uso de IA por redes criminosas, com foco em fraudes financeiras, desinformação e ataques digitais. No Brasil, o tema ganha contornos adicionais por envolver eleições gerais em 2026 e novas regras para propaganda com uso de IA.
Dados e evolução da situação
Relatórios publicados em 2025 indicam que grupos criminosos passaram a empregar modelos de IA para criar mensagens em múltiplos idiomas, automatizar golpes e produzir mídia sintética para extorsão e fraude. No Brasil, o Identity Fraud Report 2025–2026 apontou crescimento de 126% em ataques com deepfakes e identidades sintéticas, apesar da queda em fraudes digitais mais rudimentares. Especialistas também alertam para a escalada de golpes por clonagem de voz — inclusive a tática da “ligação muda”, usada para capturar amostras vocais e viabilizar impersonação em pedidos de transferência de dinheiro.
Impactos para pessoas, setores e regiões
Para indivíduos, aumentam tentativas de sequestro de contas, golpes contra familiares e fraudes de investimento embaladas por vídeos e áudios falsos. Empresas enfrentam maior risco de abertura de contas e onboarding com identidades sintéticas, exigindo verificação biométrica robusta e monitoramento contínuo. Na esfera pública, autoridades eleitorais brasileiras aprovaram a Resolução TSE 23.732/2024, que proíbe deepfakes em campanhas e exige transparência no uso de IA, buscando mitigar desinformação nas eleições de 2026.
Próximos passos
Especialistas recomendam: autenticação multifatorial e biometria comportamental no varejo financeiro; validação de mídia (detecção de conteúdos sintéticos) em plataformas; educação digital para reconhecer golpes com voz clonada; e cooperação internacional entre segurança pública, reguladores e setor privado. No Brasil, a aplicação das regras eleitorais e o avanço de propostas para regulamentar IA serão pontos de atenção ao longo de 2026.
Compartilhar
Qual é a sua reação?
Curtir
0
Não Gostei
0
Amei
0
Engraçado
0
Com Raiva
0
Triste
0
Uau
0
