O uso de inteligência artificial está transformando as campanhas eleitorais de 2026. Equipes usam ferramentas de IA para enviar mensagens cada vez mais segmentadas e marqueteiros substituem pesquisas qualitativas por “eleitores sintéticos” para testar a eficácia. Vídeos e publicações na internet que levavam um dia e meio para ficar prontos agora são finalizados em poucas horas.

    Ao mesmo tempo, as campanhas tomam cuidado por causa da resolução do TSE (Tribunal Superior Eleitoral) que restringe o uso de IA. Está claro que deepfakes eleitorais estão proibidos, mas existem dúvidas sobre a legalidade de certos recursos.

    A Folha conversou com integrantes das equipes de Lula (PT), Flávio Bolsonaro (PL) e Ronaldo Caiado (PSD), pré-candidatos à Presidência, de Tarcísio de Freitas (Republicanos) e Fernando Haddad (PT), pré-candidatos ao Governo de São Paulo, e de deputados federais e estaduais. Alguns pediram para não se identificar, afirmando serem informações estratégicas.

    Uma das campanhas majoritárias conta com uma equipe de 54 pessoas dedicadas a fazer impulsionamento com nanosegmentação. A campanha consegue customizar uma mensagem do candidato para atingir mulheres da zona oeste de São Paulo sem plano de saúde e que têm probabilidade de passar a apoiar o político.

    Softwares que usam IA monitoram a chamada “sentimentalização” — como as contas de redes sociais reagem a cada conteúdo. Milhões de perfis são “tagueados” para mapear os temas que mais reverberam e como ressoam conteúdos do candidato e dos concorrentes.

    Todas as campanhas ressaltam que é importante ter humanos no relacionamento direto com eleitores, porque as pessoas não gostam de interagir com robôs. Uma campanha quis avaliar a repercussão do embate entre Romeu Zema, pré-candidato do Novo à Presidência, com o STF. Em cinco segundos, conseguiu mapear potenciais detratores e apoiadores, as teses-chave e ter sugestões de resposta.

    Todas as principais pré-candidaturas têm IAs treinadas com discursos, reportagens, entrevistas e materiais do candidato e rivais. “A IA vai ‘aprendendo’ o tom do discurso do candidato, suas expressões, como ele se posiciona em relação a temas”, diz Nara Alves, sócia-diretora da Ela Marketing Político, que trabalha para candidatos de vários partidos.

    Isso é usado para os briefings e roteiros, determinando o que seria adequado para falar em determinada cidade. Eles conseguem ter versões do candidato mais irônico, sério ou agressivo e depois testam o que funciona melhor usando software de “social listening”.

    “A IA vem revolucionando cada processo das campanhas, da criação de conteúdo à segmentação de mensagens e mobilização de apoiadores”, diz Bruno Bernardes, sócio da PLTK, agência do marqueteiro Pablo Nobel, responsável pela campanha de Tarcísio.

    Os deepfakes, proibidos por resolução do TSE desde 2024, são criticados por todos os marqueteiros. Segundo Bernardes, a última eleição presidencial argentina mostrou o perigo. Vídeos falsos usando deepfake com a ex-primeira-ministra britânica Margareth Thatcher contestando Javier Milei e o candidato peronista Sergio Massa cheirando cocaína viralizaram a duas semanas do segundo turno em 2023. As contas que produzem e disseminam esses conteúdos não são diretamente ligadas aos candidatos.

    Para o advogado eleitoral Hélio Silveira, esse deve ser um dos principais problemas da eleição. Ele espera um uso massivo de contas falsas para distribuir mensagens atacando candidatos, muitas delas com IA.

    Apesar de os deepfakes serem a faceta mais visível, é nos bastidores que a tecnologia vem fazendo transformações. A criação de conteúdo ganhou agilidade. Um vídeo de Ronaldo Caiado abre com uma imagem de IA de uma bandeira do Brasil tomando tiros e começa a sangrar. “O Brasil assiste indignado, assustado e impotente à morte de milhares de filhos seus, vítimas da criminalidade”, diz o pré-candidato no vídeo. Segundo o marqueteiro Paulo Vasconcelos, sem IA levaria quatro dias; com IA demorou algumas horas. Os locutores e a geração de imagens de apoio foram 100% substituídos por IA.

    Durante a campanha, segundo a resolução do TSE, será preciso informar que o conteúdo foi manipulado. No período entre 72 horas antes e 24 horas depois do pleito, serão proibidos conteúdos alterados por IA que usem imagem ou voz de candidato ou pessoa pública, mesmo que rotulados.

    Algumas campanhas recorrem a chatbots para poupar gastos com pesquisas qualitativas. O “eleitor sintético” da SVA Solutions–Galaxies cria, usando dados de grupos reais de eleitores, perfis que reúnem características de determinados segmentos, como “viúvas do PSDB” ou esquerdistas frustrados com o PT. Esses perfis servem para testar mensagens ou gerenciar crises. “Quando temos pouca verba para fazer uma pesquisa ampla, é uma opção”, diz Andrés Benedykt, marqueteiro do candidato a deputado federal José Dirceu (PT). Uma pesquisa qualitativa com mil entrevistados pode sair R$ 150 mil; o eleitor sintético custa R$ 65 mil por mês.

    A customização de mensagens usando IA, com adaptação de vídeo ou áudio para chamar eleitores pelo nome ou mencionar suas cidades, ainda é zona cinzenta. Alguns advogados acreditam que, com aviso de uso de IA e autorização do candidato, não há problema. Outros acham que se trata de deepfake. A resolução do TSE veda o uso “para prejudicar ou para favorecer candidatura” de conteúdo sintético para criar, substituir ou alterar imagem ou voz de uma pessoa. Muitos marqueteiros advertem que certos usos de IA podem sair pela culatra. “Acho arriscado fazer customização com áudio, qualquer estranhamento pode acabar gerando rejeição no eleitor”, diz o marqueteiro Felipe Pimentel.

    Share.
    Nilson Tales

    Formado em Engenharia de Alimentos pela UEFS, Nilson Tales trabalhou durante 25 anos na indústria de alimentos, mais especificamente em laticínios. Depois de 30 anos, decidiu dedicar-se ao seu livro, que está para ser lançado, sobre as Táticas Indústrias de grandes empresas. Encara como hobby a escrita dos artigos no Universo NEO e vê como uma oportunidade de se aproximar da nova geração.