IA usa dados pessoais e têm de ser transparente nas decisões

Da sugestão do próximo vídeo à aprovação do empréstimo, os sistemas de inteligência artificial são cada vez mais comuns no dia a dia. Por isso, torna-se fundamental que as pessoas conheçam o porquê das decisões, especialmente quanto maior o risco envolvido.

“É uma questão de transparência e do que é um parâmetro suficientemente claro para explicar uma decisão”, disse a diretora da Autoridade Nacional de Proteção de Dados Miriam Wimmer, que nesta sexta, 30 de Julho de 2021, participou do seminário Inteligência Artificial, nas fronteiras de um novo paradigma, promovido pela ABDI, MCTI e Ministério da Economia. 

“Estamos em um contexto no qual a inteligência artificial se caracteriza como uma tecnologia cada vez mais pervasiva, presente em aplicações rotineiras, cotidianas, como tradutores simultâneos, aplicativos de rotas, recomendações em streamings e redes sociais, e que tem trazido promessas importantes no campo científico, industrial”, lembrou.

Mas IA também significa uso de informações pessoais. E não por menos, é lembrada na própria Lei Geral de Proteção de Dados (13.709/18). “É preciso ter presente que existe uma relação muito estreita entre IA e dados pessoais – porque a IA é potencializada pelo Big Data, consegue a partir das grandes bases de dados identificar padrões, fazer recomendações, sem necessariamente uma relação de causalidade E a LGPD atribui certas competências à ANPD, inclusive para regulamentar, fazer auditorias para investigar aspectos discriminatórios em decisões automatizadas. A questão chave é estabelecer um sistema jurídico que promova IA confiável”, disse Miriam Wimmer. 

A atenção com os recursos de inteligência artificial se deve ainda pela constatação prática de problemas, notadamente pelo viés ou discriminação em decisões automatizadas – como visto em sistemas de reconhecimento facial que são mais assertivos entre homens brancos, mas erram mais entre mulheres negras.

“Há risco de perpetuação de vieses sociais, como os algoritmos que não promovem mulheres, que não recrutam determinados grupos étnicos, raciais ou sociais. Esses problemas, que já são amplamente visualizados nos estudos, devem ser observados pelo principio da não discriminação, que está na LGPD. E nesse sentido a estratégia brasileira de IA foi feliz ao indicar que o nível de intervenção regulatória deve ser proporcional ao nível de risco gerado pelas aplicações.”

Hermann Santos de Almirante

Recent Posts

OpenAI implementa verificação de URLs para bloquear roubo de dados por agentes de IA

A OpenAI publicou um post técnico em seu blog em 28 de janeiro de 2026,…

5 dias ago

Quase 200 apps de IA para iOS encontrados vazando dados de usuários, dizem pesquisadores

A descoberta levanta questionamentos desconfortáveis para a Apple, que frequentemente cita seu rigoroso processo de…

1 semana ago

O Olho Digital que Tudo Vê: A Expansão do Reconhecimento Facial no Brasil e o Perigoso Vácuo da “LGPD Penal”

Enquanto milhões de brasileiros celebravam a chegada de 2026 nas areias de Copacabana ou na…

1 mês ago

Ataques disparam, mas proteção de dados retrocede em pequenos provedores

Menos da metade dos provedores de internet no Brasil estruturou de forma adequada a governança…

1 mês ago

Reconhecimento facial, IA e câmeras corporais avançam sem critério ou transparência?

O relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal” mostra que reconhecimento facial, sistemas…

1 mês ago

IA impulsiona boom da Black Friday, mas alimenta surto de phishing

A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…

2 meses ago