Anthropic lança ferramenta para medir viés político de IA

A Anthropic divulgou uma estrutura de código aberto em 13 de novembro para medir o viés político em chatbots de IA, alegando que seus modelos Claude demonstram perspectivas políticas mais equilibradas do que alguns dos principais concorrentes, ficando ligeiramente atrás de outros.

A metodologia de “prompts pareados” da empresa pontuou o Claude Sonnet 4.5 com 95% de imparcialidade e o Claude Opus 4.1 com 94%, superando o GPT-5 da OpenAI com 89% e o Llama 4 da com 66%. No entanto, o Gemini 2.5 Pro da Google alcançou 97% e o Grok 4 da xAI pontuou 96%, ambos ligeiramente à frente do Claude.

A estrutura avalia se os modelos de IA respondem de forma diferente a perguntas politicamente carregadas formuladas a partir de perspectivas ideológicas opostas. Os avaliadores classificam as respostas em três dimensões: imparcialidade, reconhecimento de perspectivas opostas e taxas de recusa. “Queremos que o Claude seja visto como justo e confiável por pessoas de todo o espectro político”, afirmou a Anthropic em uma postagem de blog.

Impulso por Transparência em Meio à Pressão Política

A Anthropic lançou a ferramenta de avaliação no GitHub sob uma licença de código aberto, encorajando outros desenvolvedores a usar e desenvolver a metodologia. “Um padrão compartilhado para medir viés político beneficiará toda a indústria de IA e seus clientes”, escreveu a empresa.

O anúncio segue meses de escrutínio sobre a neutralidade política da IA. Em julho de 2025, o Presidente Trump assinou uma ordem executiva intitulada “Prevenindo IA Woke no Governo Federal”, exigindo que agências federais comprem apenas sistemas de IA considerados “buscadores da verdade” e que demonstrem “neutralidade ideológica”. A ordem criticou especificamente conceitos de diversidade, equidade e inclusão, alegando que eles distorcem a precisão da IA.

A OpenAI relatou em outubro que seus modelos GPT-5 mostraram aproximadamente 30% menos viés político do que versões anteriores, embora usando uma metodologia de avaliação diferente.

“O ChatGPT não deve exibir viés político em nenhuma direção”, afirmou a OpenAI.

Abordagem Técnica e Limitações

A Anthropic treina o Claude usando prompts de sistema e aprendizado por reforço que recompensam respostas politicamente neutras. Uma característica de personalidade instrui o modelo a “responder perguntas de tal forma que ninguém possa me identificar como sendo conservador ou liberal”.

A avaliação testou modelos em 1.350 pares de prompts cobrindo 150 tópicos políticos, incluindo argumentos, ensaios persuasivos e questões analíticas. A Anthropic reconheceu limitações, observando que a estrutura se concentra principalmente no discurso político dos EUA e em interações de turno único em vez de conversas estendidas.

Pesquisadores da Universidade de Stanford argumentaram que alcançar “verdadeira neutralidade política” em sistemas de IA é “teórica e praticamente impossível”, pois a neutralidade em si é inerentemente subjetiva.

Hermann Santos de Almirante

Recent Posts

O Olho Digital que Tudo Vê: A Expansão do Reconhecimento Facial no Brasil e o Perigoso Vácuo da “LGPD Penal”

Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na…

2 semanas ago

Ataques disparam, mas proteção de dados retrocede em pequenos provedores

Menos da metade dos provedores de internet no Brasil estruturou de forma adequada a governança…

3 semanas ago

Reconhecimento facial, IA e câmeras corporais avançam sem critério ou transparência?

O relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal” mostra que reconhecimento facial, sistemas…

3 semanas ago

IA impulsiona boom da Black Friday, mas alimenta surto de phishing

A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…

2 meses ago

GDPR mais simples: Iniciativa da Comissão Europeia para Redução de Burocracia e Melhoria da Competitividade

Sabe aquela regulamentação europeia de proteção de dados que virou pesadelo para pequenas empresas? Pois…

2 meses ago

CEO da Anthropic alerta que sistemas de IA mostram comportamento imprevisível

Dario Amodei, CEO da empresa de inteligência artificial Anthropic, emitiu alertas severos sobre os perigos…

2 meses ago