Inteligência artificial inaugura era em que não acreditaremos em mais nada
A popularização da IA generativa amplia a incerteza sobre o que é autêntico online, acelera o “dividendo do mentiroso” e pressiona governos, plataformas e cidadãos a adotarem rotulagem, marcas d’água e novas regras. UE aplica o AI Act em 2026; Brasil já proíbe deepfakes na propaganda eleitoral e discute marco regulatório.
IA acelera a crise de confiança: quando ver e ouvir já não bastam
A popularização da inteligência artificial generativa inaugura uma fase em que imagens, áudios e textos podem ser fabricados com realismo e velocidade inéditos — e, como consequência, a confiança pública nas evidências digitais entra em xeque. O fenômeno conhecido como “dividendo do mentiroso” ganha força: basta alegar que algo é “feito por IA” para semear dúvida, mesmo diante de registros autênticos.
Contexto: onde, quando e quem está envolvido
O alerta se intensifica às vésperas de 2026, ano em que a União Europeia passa a aplicar amplamente seu regulamento de IA. O AI Act entrou em vigor em 1º de agosto de 2024; proibiu práticas de alto risco e estabeleceu obrigações de alfabetização a partir de 2 de fevereiro de 2025; trouxe regras para modelos de uso geral e governança desde 2 de agosto de 2025; e tem aplicação majoritária prevista para 2 de agosto de 2026, com etapas adicionais até 2 de agosto de 2027.
Nos Estados Unidos, a autoridade de comunicações decidiu em 8 de fevereiro de 2024 que robocalls com vozes geradas por IA são ilegais. O caso que impulsionou a discussão ocorreu na primária de New Hampshire, em 23 de janeiro de 2024, quando milhares de eleitores receberam uma ligação com voz sintética imitando um candidato. Em 13 de junho de 2025, o consultor acusado foi absolvido criminalmente, mas segue sujeito a sanções administrativas e civis.
Dados e evolução: de padrões de rotulagem a marcas d’água
Plataformas digitais e empresas de tecnologia passaram a adotar camadas de transparência. Desde março de 2024, serviços de vídeo exigem que criadores informem quando um conteúdo realista foi gerado ou alterado por IA, com rótulos mais visíveis em temas sensíveis como notícias, saúde e eleições. Em maio de 2024, uma grande rede social de vídeos passou a rotular automaticamente conteúdos produzidos com IA externa por meio de padrões abertos de proveniência (C2PA) e a incorporar “Content Credentials” nos arquivos baixados, permitindo que outros serviços verifiquem origem e histórico de edição.
Ferramentas de marca d’água invisível também avançaram. Em 2025, foram disponibilizados portais e recursos capazes de identificar marcas imperceptíveis inseridas em imagens, áudios e vídeos produzidos por modelos populares, além de destacar trechos com maior probabilidade de terem sido gerados por IA. No mesmo período, empresas como OpenAI e Meta aderiram à governança do padrão C2PA, e provedores de infraestrutura passaram a preservar “Content Credentials” ao otimizar ou transformar imagens, ampliando o alcance da verificação.
Pesquisas de 2024 e 2025 apontam que cerca de dois terços dos adultos nos EUA não confiam em informações eleitorais fornecidas por sistemas de IA, e que a preocupação com imprecisões e manipulações é majoritária. Em buscas na web, apenas cerca de metade dos usuários que veem resumos produzidos por IA dizem confiar ao menos um pouco nesses resultados. Os dados reforçam o risco de erosão da confiança e a necessidade de rotulagem padronizada e verificável.
Impactos para cidadãos, setores e instituições
Para a sociedade, a consequência imediata é a incerteza: golpes e fraudes com vozes clonadas, imagens fabricadas e “prints” verossímeis desafiam a verificação cotidiana. Para a mídia e o ecossistema de informação, cresce o perigo da invisibilidade — quando resumos automatizados e respostas instantâneas reduzem a exposição ao conteúdo de origem. Marcas e órgãos públicos enfrentam novas exigências de transparência, auditoria e comunicação de risco, com potencial de litígios e danos reputacionais em cascata.
No Brasil, a Justiça Eleitoral moveu-se cedo: em 27 de fevereiro de 2024, proibiu deepfakes na propaganda, impôs aviso explícito quando houver uso de IA e restringiu chatbots que simulem diálogo com candidatas(os). As regras, que também responsabilizam plataformas pela remoção rápida de conteúdos ilícitos, pautam a preparação para as eleições gerais de 2026. No Congresso, o PL 2.338/2023 (marco da IA) avançou após aprovação no Senado, e o governo encaminhou em 9 de dezembro de 2025 um projeto que cria o Sistema Nacional para Desenvolvimento, Regulação e Governança de IA, com a Autoridade Nacional de Proteção de Dados em papel central de coordenação regulatória.
O que observar a seguir
— Regulamentação: a partir de 2 de agosto de 2026, a UE inicia a aplicação ampla do AI Act, com fiscalização nacional e europeia, transparência obrigatória e sandboxes regulatórios. No Brasil, a tramitação legislativa de 2025–2026 e a implementação das resoluções eleitorais definirão a baliza de transparência até o pleito.
— Tecnologias de autenticidade: expansão do uso de Content Credentials (C2PA), marcas d’água invisíveis e verificação integrada em apps populares; consolidação de padrões entre plataformas distintas.
— Governança e educação midiática: políticas públicas e programas de letramento digital para mitigar o “dividendo do mentiroso”, treinar o público a checar procedência e incentivar veículos e instituições a publicar trilhas de edição e contexto de captação.
Em um ambiente em que qualquer registro pode ser questionado, confiança passa a ser construída com camadas verificáveis de origem, contexto e auditoria — e com regras que acompanhem o ritmo da tecnologia.
Compartilhar
Qual é a sua reação?
Curtir
0
Não Gostei
0
Amei
0
Engraçado
0
Com Raiva
0
Triste
0
Uau
0
