Brasília – Em um movimento estratégico para modernizar a máquina tributária sem abrir mão do rigor jurídico, a Receita Federal do Brasil oficializou sua Política de Inteligência Artificial (IA).
A nova portaria, que estabelece o marco regulatório interno para o uso da tecnologia, impõe uma barreira clara: por mais avançado que seja o algoritmo, a palavra final será, obrigatoriamente, de um ser humano.
A norma surge em um momento de expansão da IA generativa e busca mitigar riscos éticos, técnicos e de privacidade. O texto define diretrizes para todo o ciclo de vida das soluções tecnológicas — do desenvolvimento à contratação e monitoramento —, garantindo que a inovação não atropele os direitos fundamentais do contribuinte.
O Fator Humano como Pilar Central
A diretriz mais contundente da nova política é a preservação da competência decisória exclusiva do agente público. Na prática, isso significa que:
- Sistemas de IA não podem substituir decisões administrativas.
- Modelos automatizados não podem condicionar ou vincular o entendimento do órgão.
- Todo resultado gerado por IA deve ser revisado e validado por um servidor responsável.
Essa medida visa evitar o “apagão de responsabilidade”, garantindo que haja sempre um CPF vinculado às decisões que impactam a vida financeira e jurídica dos cidadãos.
Ética e Transparência Algorítmica
Para evitar que a “caixa-preta” dos algoritmos gere injustiças, a Receita estabeleceu princípios rígidos de explicabilidade e prevenção de vieses. A portaria proíbe explicitamente o uso de IA para:
- Vigilância massiva;
- Pontuação social (social scoring);
- Manipulação comportamental.
Além disso, a governança será compartilhada. Enquanto as áreas de negócio avaliam riscos operacionais, o braço de TI cuida da segurança técnica. O Comitê de Tecnologia e Segurança da Informação atuará como o tribunal ético da instituição, deliberando sobre projetos e riscos estratégicos.
Rigor com Dados e IA Generativa
Com o avanço de ferramentas como o ChatGPT, a Receita criou a figura do “curador” para sistemas de IA generativa. Este profissional terá a missão de monitorar “alucinações” (erros factuais da IA) e garantir que dados sigilosos não vazem para modelos de terceiros.
Regra de Ouro: Fica terminantemente proibido o uso de dados da Receita Federal para treinar modelos de empresas externas em contratos de fornecimento. A inserção de dados sensíveis só ocorrerá em ambientes controlados e homologados pelo próprio órgão.
Capacitação e Fiscalização
A Receita não quer apenas implementar a tecnologia, mas educar quem a opera. Um programa permanente de “alfabetização em IA” será lançado para capacitar servidores a identificar as limitações das ferramentas e mitigar riscos éticos.
Caso uma ferramenta apresente falhas ou comportamentos imprevistos, a portaria prevê a suspensão imediata do uso, baseada em relatórios de rastreabilidade e auditoria que devem documentar desde os dados utilizados até os incidentes registrados.
Contexto e Próximos Passos
A medida formaliza e organiza o que o órgão já vinha experimentando em nichos de análise de dados e detecção de fraudes. Ao alinhar-se às discussões globais de governança algorítmica, a Receita Federal tenta se posicionar como uma vanguarda tecnológica segura no setor público brasileiro, equilibrando eficiência arrecadatória com proteção de dados.

