Por Ana Marcela Almeida, especialista em Direito Eleitoral
A ideia de que o processo eleitoral funciona como um jogo, com regras claras e árbitro institucional, ganha novos contornos em 2026. O que antes se concentrava na regulação de condutas humanas e estratégias tradicionais de campanha agora se desloca para um ambiente digital profundamente transformado pela inteligência artificial. Nesse cenário, o Tribunal Superior Eleitoral assume, como já apontado por Michel Bertoni, professor de Direito Eleitoral da USP, um papel ainda mais sensível: preservar a integridade do pleito em meio a uma inovação tecnológica acelerada. O que está em disputa não é apenas a lisura das eleições, mas a própria autonomia do eleitor em um ambiente cada vez mais mediado por algoritmos.
A desinformação atinge um novo patamar. Diferentemente das eleições anteriores, o cenário atual é dominado por ferramentas capazes de produzir conteúdos com alto grau de realismo. A proibição da circulação de materiais gerados por inteligência artificial no período crítico que antecede e sucede o pleito busca evitar impactos irreversíveis no comportamento do eleitorado. É uma tentativa de conter manipulações de última hora, talvez as mais difíceis de neutralizar.
Outro ponto sensível é a proibição de que sistemas de inteligência artificial recomendem candidatos ou orientem o voto. A medida reconhece o poder dos algoritmos na formação de preferências políticas e tenta frear a ampliação das bolhas informacionais. Plataformas digitais, operando com base em dados comportamentais, tendem a reforçar crenças preexistentes. Ao impedir essa atuação direta, o TSE busca preservar algum grau de autonomia na formação da vontade do eleitor.
No campo regulatório, o principal redesenho das regras do jogo está na tentativa de enquadrar o uso da inteligência artificial dentro de parâmetros mínimos de transparência. A autorização para uso da tecnologia na propaganda, condicionada à obrigatoriedade de rotulagem, procura reduzir o potencial de engano. Ainda assim, há limites evidentes: conteúdos sintéticos cada vez mais sofisticados continuam capazes de influenciar o eleitor, mesmo quando identificados como artificiais.
A vedação ao impulsionamento de propaganda negativa e a proibição de remuneração de influenciadores digitais seguem a mesma lógica de contenção de distorções. Ao impedir que críticas a adversários sejam patrocinadas e que perfis pessoais sejam monetizados para fins eleitorais, a Justiça Eleitoral tenta reequilibrar a disputa. O desafio, no entanto, permanece em fiscalizar um ambiente fragmentado, veloz e descentralizado.
A possibilidade de suspensão de perfis falsos, automatizados ou apócrifos, somada à responsabilização das plataformas pela não remoção de conteúdos manipulados, indica um avanço importante. Ao mesmo tempo, abre um debate inevitável sobre os limites da intervenção estatal e os riscos de restrições indevidas à liberdade de expressão.
Entre as medidas mais controversas está a previsão de inversão do ônus da prova em casos envolvendo conteúdos gerados por inteligência artificial. A lógica é pragmática: quem produz ou divulga esse material tem melhores condições de comprovar sua origem. Ainda assim, a regra tensiona garantias processuais clássicas ao transferir ao acusado o dever de provar a regularidade de sua conduta.
A responsabilização do candidato pelo conteúdo que veicula, mesmo quando produzido por terceiros, reforça a lógica de “quem se beneficia, responde”. Em um ambiente digital no qual conteúdos circulam rapidamente e nem sempre têm origem clara, a Justiça Eleitoral tende a considerar o grau de proveito obtido, exigindo que o candidato demonstre a licitude do material.
No plano das sanções, o uso indevido da inteligência artificial pode ser enquadrado como abuso de poder econômico ou uso indevido dos meios de comunicação. As consequências são severas, incluindo a cassação de registro ou diploma, e deixa claro que o desequilíbrio eleitoral não decorre apenas de dinheiro, mas também do acesso a tecnologias de manipulação informacional.
O conjunto dessas mudanças revela um esforço real de adaptação institucional, mas também expõe os limites do Direito diante de transformações tecnológicas rápidas. As normas ainda operam, em grande medida, de forma reativa, correndo atrás de problemas já materializados.
As eleições de 2026, portanto, não são apenas um teste de novas regras. São um teste das próprias instituições. Em um ambiente moldado por algoritmos, preservar a legitimidade democrática passa, inevitavelmente, por garantir que a autonomia do eleitor não seja absorvida de forma silenciosa pelas tecnologias que estruturam o debate público

Advogada
Pós-graduanda em Direito Eleitoral
Graduada e pós-graduada em direito processual civil pela Universidade Federal de Goiás






















Deixe um Comentário