Categories: LGPD em Notícias

Receita Federal blinda uso de IA com foco em ética e supervisão humana

Brasília – Em um movimento estratégico para modernizar a máquina tributária sem abrir mão do rigor jurídico, a Receita Federal do Brasil oficializou sua Política de Inteligência Artificial (IA).

A nova portaria, que estabelece o marco regulatório interno para o uso da tecnologia, impõe uma barreira clara: por mais avançado que seja o algoritmo, a palavra final será, obrigatoriamente, de um ser humano.

A norma surge em um momento de expansão da IA generativa e busca mitigar riscos éticos, técnicos e de privacidade. O texto define diretrizes para todo o ciclo de vida das soluções tecnológicas — do desenvolvimento à contratação e monitoramento —, garantindo que a inovação não atropele os direitos fundamentais do contribuinte.

O Fator Humano como Pilar Central

A diretriz mais contundente da nova política é a preservação da competência decisória exclusiva do agente público. Na prática, isso significa que:

  • Sistemas de IA não podem substituir decisões administrativas.
  • Modelos automatizados não podem condicionar ou vincular o entendimento do órgão.
  • Todo resultado gerado por IA deve ser revisado e validado por um servidor responsável.

Essa medida visa evitar o “apagão de responsabilidade”, garantindo que haja sempre um CPF vinculado às decisões que impactam a vida financeira e jurídica dos cidadãos.

Ética e Transparência Algorítmica

Para evitar que a “caixa-preta” dos algoritmos gere injustiças, a Receita estabeleceu princípios rígidos de explicabilidade e prevenção de vieses. A portaria proíbe explicitamente o uso de IA para:

  1. Vigilância massiva;
  2. Pontuação social (social scoring);
  3. Manipulação comportamental.

Além disso, a governança será compartilhada. Enquanto as áreas de negócio avaliam riscos operacionais, o braço de TI cuida da segurança técnica. O Comitê de Tecnologia e Segurança da Informação atuará como o tribunal ético da instituição, deliberando sobre projetos e riscos estratégicos.

Rigor com Dados e IA Generativa

Com o avanço de ferramentas como o ChatGPT, a Receita criou a figura do “curador” para sistemas de IA generativa. Este profissional terá a missão de monitorar “alucinações” (erros factuais da IA) e garantir que dados sigilosos não vazem para modelos de terceiros.

Regra de Ouro: Fica terminantemente proibido o uso de dados da Receita Federal para treinar modelos de empresas externas em contratos de fornecimento. A inserção de dados sensíveis só ocorrerá em ambientes controlados e homologados pelo próprio órgão.

Capacitação e Fiscalização

A Receita não quer apenas implementar a tecnologia, mas educar quem a opera. Um programa permanente de “alfabetização em IA” será lançado para capacitar servidores a identificar as limitações das ferramentas e mitigar riscos éticos.

Caso uma ferramenta apresente falhas ou comportamentos imprevistos, a portaria prevê a suspensão imediata do uso, baseada em relatórios de rastreabilidade e auditoria que devem documentar desde os dados utilizados até os incidentes registrados.

Contexto e Próximos Passos

A medida formaliza e organiza o que o órgão já vinha experimentando em nichos de análise de dados e detecção de fraudes. Ao alinhar-se às discussões globais de governança algorítmica, a Receita Federal tenta se posicionar como uma vanguarda tecnológica segura no setor público brasileiro, equilibrando eficiência arrecadatória com proteção de dados.

Hermann Santos de Almirante

Recent Posts

A IA Está Redefinindo a Privacidade? O Novo Cenário de Riscos e Responsabilidades na Era Digital

O avanço acelerado da inteligência artificial (IA) tem ampliado significativamente os desafios relacionados à proteção…

10 horas ago

O mosaico de leis de privacidade de dados nos EUA e o impacto para empresas e titulares de dados

A paisagem de leis de privacidade de dados nos Estados Unidos continua em rápida evolução,…

10 horas ago

OpenAI implementa verificação de URLs para bloquear roubo de dados por agentes de IA

A OpenAI publicou um post técnico em seu blog em 28 de janeiro de 2026,…

2 semanas ago

Quase 200 apps de IA para iOS encontrados vazando dados de usuários, dizem pesquisadores

A descoberta levanta questionamentos desconfortáveis para a Apple, que frequentemente cita seu rigoroso processo de…

3 semanas ago

O Olho Digital que Tudo Vê: A Expansão do Reconhecimento Facial no Brasil e o Perigoso Vácuo da “LGPD Penal”

Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na…

1 mês ago

Ataques disparam, mas proteção de dados retrocede em pequenos provedores

Menos da metade dos provedores de internet no Brasil estruturou de forma adequada a governança…

2 meses ago