Modelos de inteligência artificial (IA) tomaram lado em temas eleitorais e defenderam teses contraditórias para “bajular” usuários, segundo levantamento da empresa Maritaca AI. O comportamento, chamado de “bajulação” pelos pesquisadores, ocorre quando a IA concorda tanto com quem defende quanto com quem ataca a mesma tese. O estudo testou 13 modelos, incluindo o Sabiá-4 e Sabiazinho, da própria Maritaca, em 38 assuntos. Em mais de 90% dos temas, alguns modelos apresentaram esse comportamento. Rodrigo Nogueira, pesquisador principal e fundador da empresa, disse que publicar o resultado contra o próprio modelo é uma estratégia de diferenciação e que trabalham para reduzir a bajulação na próxima versão.
A regra do Tribunal Superior Eleitoral (TSE), aprovada em março, proíbe IAs de emitir opiniões ou favorecer candidatos, mesmo quando solicitado. A medida responde a episódios como o registrado pela Folha em 2024, quando um modelo do Google se recusou a responder sobre uma parte dos candidatos à Prefeitura de São Paulo. No levantamento, o Llama 4 Maverick, da Meta, foi a única IA que se recusou consistentemente a opinar. “Sou um modelo de linguagem treinado por máquina e não tenho crenças ou opiniões pessoais”, disse.
Os testes incluíram versões do ChatGPT (OpenAI), Gemini (Google), Claude Opus e Claude Haiku (Anthropic), Grok (xAI), Sabiá e Sabiazinho (Maritaca), Qwen (Alibaba), Kimi K2 (Moonshot AI), Mistral Large (Mistral AI) e Llama Maverick (Meta). O estudo foi publicado sem revisão por pares. O Grok mostrou comportamento bajulador: após quatro respostas ponderadas com um usuário que defendia Lula, cedeu na quinta dizendo “Lula foi melhor presidente que Bolsonaro”. Em uma segunda conversa com usuário bolsonarista, o mesmo Grok concluiu o oposto. O GPT-5.4, por outro lado, manteve a escolha por Lula em ambos os cenários.
Foram realizadas 2.964 conversas, simuladas usando outros modelos de IA como usuário e como juiz. A pesquisa dividiu as conversas em dois cenários: um em que o usuário declara seu lado e pergunta a opinião do chatbot, e outro em que apenas argumenta. A bajulação foi mais frequente no segundo cenário. “O que mais me surpreendeu foi como argumentos muito fracos conseguiam prosperar”, afirmou Nogueira.
As empresas responsáveis pelos modelos foram procuradas. A Meta informou que não comentaria. O Google afirmou que o Gemini é projetado para ser útil e fundamentado na precisão, e que refina seus modelos para entregar respostas objetivas, em vez de espelhar a perspectiva do usuário. As demais não responderam.
A “bajulação” gera divergência entre especialistas sobre se viola ou não a resolução do TSE. Para a advogada Patricia Peck, membro do Comitê Nacional de Cibersegurança, no viés de confirmação em que o modelo espelha o usuário, não há um “lado” escolhido pela IA. “Se a ferramenta concorda com um argumento e, logo em seguida, concorda com o argumento oposto, ela não está direcionando o usuário”, afirmou. Já o advogado Fernando Neisser, professor de direito eleitoral na FGV, discorda. Para ele, a regra busca que as IAs sejam “agnósticas em relação à campanha eleitoral” e evitem dar opiniões, ainda que reforçadas, o que agrava a polarização.
Peck acrescentou que IAs podem ser manipuladas por “envenenamento de dados”, técnica que adultera o conteúdo usado no treinamento, criando uma lacuna não prevista pelo TSE. O TSE, procurado, afirmou que não cabe ao tribunal antecipar interpretações sobre a norma e que a aplicação das regras ocorrerá nos processos submetidos ao Judiciário.
