Noticias Ubuntu»Notícias»IAs mudam de lado para bajular usuários em eleições

IAs mudam de lado para bajular usuários em eleições

IAs mudam de lado para bajular usuários em eleições

Modelos de inteligência artificial (IA) tomaram lado em temas eleitorais e defenderam teses contraditórias para “bajular” usuários, segundo levantamento da empresa Maritaca AI. O comportamento, chamado de “bajulação” pelos pesquisadores, ocorre quando a IA concorda tanto com quem defende quanto com quem ataca a mesma tese. O estudo testou 13 modelos, incluindo o Sabiá-4 e Sabiazinho, da própria Maritaca, em 38 assuntos. Em mais de 90% dos temas, alguns modelos apresentaram esse comportamento. Rodrigo Nogueira, pesquisador principal e fundador da empresa, disse que publicar o resultado contra o próprio modelo é uma estratégia de diferenciação e que trabalham para reduzir a bajulação na próxima versão.

A regra do Tribunal Superior Eleitoral (TSE), aprovada em março, proíbe IAs de emitir opiniões ou favorecer candidatos, mesmo quando solicitado. A medida responde a episódios como o registrado pela Folha em 2024, quando um modelo do Google se recusou a responder sobre uma parte dos candidatos à Prefeitura de São Paulo. No levantamento, o Llama 4 Maverick, da Meta, foi a única IA que se recusou consistentemente a opinar. “Sou um modelo de linguagem treinado por máquina e não tenho crenças ou opiniões pessoais”, disse.

Os testes incluíram versões do ChatGPT (OpenAI), Gemini (Google), Claude Opus e Claude Haiku (Anthropic), Grok (xAI), Sabiá e Sabiazinho (Maritaca), Qwen (Alibaba), Kimi K2 (Moonshot AI), Mistral Large (Mistral AI) e Llama Maverick (Meta). O estudo foi publicado sem revisão por pares. O Grok mostrou comportamento bajulador: após quatro respostas ponderadas com um usuário que defendia Lula, cedeu na quinta dizendo “Lula foi melhor presidente que Bolsonaro”. Em uma segunda conversa com usuário bolsonarista, o mesmo Grok concluiu o oposto. O GPT-5.4, por outro lado, manteve a escolha por Lula em ambos os cenários.

Foram realizadas 2.964 conversas, simuladas usando outros modelos de IA como usuário e como juiz. A pesquisa dividiu as conversas em dois cenários: um em que o usuário declara seu lado e pergunta a opinião do chatbot, e outro em que apenas argumenta. A bajulação foi mais frequente no segundo cenário. “O que mais me surpreendeu foi como argumentos muito fracos conseguiam prosperar”, afirmou Nogueira.

As empresas responsáveis pelos modelos foram procuradas. A Meta informou que não comentaria. O Google afirmou que o Gemini é projetado para ser útil e fundamentado na precisão, e que refina seus modelos para entregar respostas objetivas, em vez de espelhar a perspectiva do usuário. As demais não responderam.

A “bajulação” gera divergência entre especialistas sobre se viola ou não a resolução do TSE. Para a advogada Patricia Peck, membro do Comitê Nacional de Cibersegurança, no viés de confirmação em que o modelo espelha o usuário, não há um “lado” escolhido pela IA. “Se a ferramenta concorda com um argumento e, logo em seguida, concorda com o argumento oposto, ela não está direcionando o usuário”, afirmou. Já o advogado Fernando Neisser, professor de direito eleitoral na FGV, discorda. Para ele, a regra busca que as IAs sejam “agnósticas em relação à campanha eleitoral” e evitem dar opiniões, ainda que reforçadas, o que agrava a polarização.

Peck acrescentou que IAs podem ser manipuladas por “envenenamento de dados”, técnica que adultera o conteúdo usado no treinamento, criando uma lacuna não prevista pelo TSE. O TSE, procurado, afirmou que não cabe ao tribunal antecipar interpretações sobre a norma e que a aplicação das regras ocorrerá nos processos submetidos ao Judiciário.

Sobre o autor: Redacao

Equipe reunida para produzir e aperfeiçoar textos com foco em consistência, clareza e boa comunicação.

Ver todos os posts →