O Brasil caminha para as eleições de 2026 sob uma perigosa névoa de autocomplacência institucional. A recente movimentação do Tribunal Superior Eleitoral (TSE) em estabelecer diretrizes para o uso da Inteligência Artificial é, à primeira vista, um esforço louvável de preservação do rito democrático
| Por Marcelo Senise* |
No entanto, para quem compreende as engrenagens profundas da tecnologia e da neurociência aplicada ao marketing político, as atuais normativas não passam de uma linha de defesa obsoleta, desenhada para conter uma ameaça que já evoluiu para formas muito mais letais e invisíveis.
O foco quase obsessivo das resoluções na proibição de deepfakes e na exigência de rotulagem de conteúdos gerados por IA cria na sociedade uma falsa sensação de segurança. Estamos tentando apagar um incêndio florestal com borrifadores de jardim, enquanto o verdadeiro poder de destruição da IA não reside na imagem falsa que se vê, mas na verdade emocional que se fabrica.
O erro fundamental das normativas atuais é tratar a Inteligência Artificial como um mero instrumento de criação de conteúdo — a chamada IA generativa. Ao punir o uso de vídeos manipulados ou áudios simulados, o TSE ataca apenas o sintoma mais grosseiro da doença.
O poder inquestionável e verdadeiramente malicioso da tecnologia hoje habita o campo da IA preditiva e da engenharia comportamental. Enquanto os juízes se preocupam com a "maquiagem" da desinformação, algoritmos de alta precisão estão operando livremente no mapeamento psicográfico do eleitorado, identificando gatilhos subconscientes e explorando vulnerabilidades na área límbica do cérebro. Essa IA não precisa mentir para manipular; ela entrega a verdade exata que o eleitor deseja ouvir, ou o medo preciso que o fará rejeitar um adversário.
É uma forma de controle que não deixa rastros nas métricas tradicionais de fiscalização eleitoral, pois não se trata de uma peça publicitária estática, mas de uma arquitetura invisível de influência que molda a percepção da realidade sem que o cidadão perceba que sua vontade foi sequestrada.
A insuficiência das normas torna-se dramática quando percebemos que a justiça eleitoral brasileira ainda opera sob o paradigma do "fato". As leis e resoluções buscam o que é falso ou verdadeiro, o que é permitido ou proibido na superfície do discurso. Contudo, a IA preditiva não opera com fatos; ela opera com frequências emocionais. Como penalizar um algoritmo que não propaga uma mentira, mas que seleciona e prioriza informações reais de forma a induzir um estado de pânico ou euforia em um nicho específico da população?
O poder desses modelos preditivos é, hoje, inquestionável e virtualmente imune ao poder de polícia do TSE, pois a velocidade do processamento de dados e a sofisticação do microdirecionamento superam em anos-luz a capacidade de reação do sistema judiciário. O que temos é um cenário onde a democracia é mantida apenas na forma, enquanto seu conteúdo é esvaziado por sistemas que tratam o eleitor não como um cidadão soberano, mas como uma variável estatística a ser manipulada por quem detém o melhor poder de processamento.
A omissão do Congresso Nacional em legislar de forma estrutural sobre a IA lança o processo eleitoral em um estado de vulnerabilidade absoluta. Resoluções administrativas, por mais modernas que pareçam, são frágeis diante da magnitude do desafio. Elas são incapazes de alcançar a infraestrutura opaca das Big Techs ou de regular a extração predatória de dados psíquicos que alimenta os sistemas de manipulação.
Precisamos encarar a realidade: sem uma regulamentação que alcance a essência algorítmica e que exija transparência nos modelos de predição comportamental, as próximas eleições não serão um duelo de propostas, mas uma guerra fria tecnológica. O maior risco não é o eleitor acreditar em uma mentira fabricada; é ele acreditar que a decisão que está tomando é sua, quando na verdade ela foi meticulosamente plantada em seu inconsciente por uma inteligência que a justiça eleitoral sequer começou a compreender.
A proteção da democracia em 2026 exige menos foco na estética do conteúdo e mais coragem para enfrentar o poder invisível da engenharia social algorítmica.
*Marcelo Senise - Sociólogo e marqueteiro Político - Presidente do IRIA - Instituto Brasileiro orla Regulamentação da IA.
Tags
Política




