predio-tse_mcamgo_abr_22062023-6.webp.webp

A eleição presidencial de 2026 promete ser dissemelhante de todas as anteriores, não somente pelo cenário político, mas também pelo nível de vigilância sobre o que circula na internet. No dia 4 de outubro, mais de 155 milhões de brasileiros escolherão seus representantes sob regras mais rigorosas do Tribunal Superior Eleitoral (TSE), que decidiu restringir o cerco contra fake news, manipulações digitais e o uso descontrolado da perceptibilidade sintético nas campanhas.

As novas diretrizes surgiram ainda nas eleições municipais de 2024 e agora passam a valer uma vez que padrão para o pleito vernáculo. Na prática, elas mudam a forma de fazer campanha em um país onde redes sociais, vídeos curtos e conteúdos altamente emocionais se tornaram tão ou mais relevantes do que o tradicional horário eleitoral na televisão.

O que muda nas campanhas

O ponto que mais labareda atenção é a proibição explícita dos chamados deepfakes — vídeos, áudios ou imagens criados por perceptibilidade sintético para simular falas e situações que nunca existiram. A Justiça Eleitoral considera esse tipo de material uma ameaço direta à lisura da disputa e ao recta de escolha do votante.

Quem recorrer a esse tipo de instrumento pode tolerar punições severas, que vão desde a cassação do registro ou do procuração até a responsabilização com base na legislação eleitoral. Outrossim, qualquer uso de perceptibilidade sintético em peças de campanha deverá ser informado de forma clara ao público.

A solução também fecha o cerco contra robôs e sistemas automatizados usados para simular conversas com eleitores. Essa prática se tornou geral em aplicativos de mensagens e redes sociais para inflar o engajamento e fabricar a sensação de proximidade sintético. Para o TSE, esse tipo de estratégia distorce o debate e desequilibra a disputa.

Por que o TSE apertou as regras

O endurecimento das normas reflete a própria evolução da desinformação no Brasil. Em 2018, boatos e notícias falsas se espalharam sobretudo em grupos de mensagens. Em 2022, o fenômeno ganhou novas camadas, com atuação em várias plataformas e o uso crescente de ferramentas de perceptibilidade sintético, o que dificultou separar teor verdadeiro de material manipulado.

Organizações internacionais, uma vez que a Unesco, vêm alertando para o papel de influenciadores políticos que misturam entretenimento, opinião e informação distorcida. Esses perfis alcançam grandes audiências e operam com reles proporção de responsabilização, muitas vezes ocupando um espaço semelhante ao da prelo, mas sem compromisso com checagem ou apuração.

Nas últimas semanas, a circulação de vídeos hiper-realistas produzidos com perceptibilidade sintético voltou a inflamar o alerta na Justiça Eleitoral. Técnicos do tribunal avaliam que a combinação entre ferramentas cada vez mais acessíveis e a lógica de viralização das plataformas pode fabricar um envolvente de poderoso instabilidade informacional durante a campanha de 2026.

Pressão sobre plataformas e big techs

Diante desse cenário, a presidente do TSE, ministra Cármen Lúcia, criou um grupo de trabalho com especialistas para atualizar regras e substanciar os instrumentos de controle. Um dos focos é fortalecer o Sistema de Alertas de Desinformação Eleitoral, que procura agilizar a informação entre o tribunal e as plataformas digitais para a retirada de conteúdos fraudulentos.

As decisões recentes ampliam de forma significativa a responsabilidade das empresas de tecnologia durante o período eleitoral. A solução prevê responsabilização solidária das plataformas que não retirarem rapidamente conteúdos ilegais, uma vez que desinformação, oração de ódio, apologia ao nazismo ou mensagens antidemocráticas.

O texto também proíbe a circulação de conteúdos fabricados ou manipulados para distorcer fatos de forma grave quando houver risco ao estabilidade da eleição. Caso não haja ação imediata das plataformas, a Justiça Eleitoral poderá impor sanções e até mandar a divulgação de informações corretivas ao votante.

Porquê os eleitores consomem política

As novas regras surgem em meio a uma mudança estrutural no consumo de informação política. Pesquisa do DataSenado, de 2024, indica que 72% dos eleitores se informam sobre política pelas redes sociais, enquanto somente 18% citam televisão ou rádio uma vez que principal natividade.

Esse deslocamento alterou profundamente a lógica das campanhas. O tempo de TV perdeu centralidade e o engajamento do dedo passou a ser decisivo. O votante deixou de ser somente receptor e passou a atuar uma vez que multiplicador e, em muitos casos, pai de mensagens políticas.

Nas eleições municipais de 2024, esse movimento ficou evidente. Tapume de 81% dos mais de 460 milénio candidatos declararam possuir perfis em redes sociais, segundo dados do TSE. Instagram e Facebook concentraram a maioria dessas contas, enquanto plataformas uma vez que TikTok ampliaram sua presença.

Impactos sociais e o repto de 2026

Além da integridade do processo eleitoral, o tribunal tem realçado os efeitos sociais da desinformação. Cármen Lúcia demonstrou preocupação próprio com o uso da perceptibilidade sintético na disseminação de ataques contra mulheres na política.

Segundo a ministra, prefeitas com altos índices de aprovação desistiram da reeleição posteriormente campanhas de desmoralização do dedo amplificadas por algoritmos.

Ao mesmo tempo, o grupo de trabalho do TSE discute usos positivos da perceptibilidade sintético, uma vez que suporte à identificação de conteúdos falsos, fortalecimento de sistemas de checagem e ampliação do letramento do dedo do votante.

O conjunto de medidas aponta para um novo padrão de campanha em 2026, marcado por mais vigilância, maior transparência e responsabilização ampliada de candidatos, partidos e plataformas.

The post IA, fake news e eleições: o que o TSE mudou na propaganda eleitoral appeared first on InfoMoney.