IA usa dados pessoais e têm de ser transparente nas decisões

Da sugestão do próximo vídeo à aprovação do empréstimo, os sistemas de inteligência artificial são cada vez mais comuns no dia a dia. Por isso, torna-se fundamental que as pessoas conheçam o porquê das decisões, especialmente quanto maior o risco envolvido.

“É uma questão de transparência e do que é um parâmetro suficientemente claro para explicar uma decisão”, disse a diretora da Autoridade Nacional de Proteção de Dados Miriam Wimmer, que nesta sexta, 30 de Julho de 2021, participou do seminário Inteligência Artificial, nas fronteiras de um novo paradigma, promovido pela ABDI, MCTI e Ministério da Economia. 

“Estamos em um contexto no qual a inteligência artificial se caracteriza como uma tecnologia cada vez mais pervasiva, presente em aplicações rotineiras, cotidianas, como tradutores simultâneos, aplicativos de rotas, recomendações em streamings e redes sociais, e que tem trazido promessas importantes no campo científico, industrial”, lembrou.

Mas IA também significa uso de informações pessoais. E não por menos, é lembrada na própria Lei Geral de Proteção de Dados (13.709/18). “É preciso ter presente que existe uma relação muito estreita entre IA e dados pessoais – porque a IA é potencializada pelo Big Data, consegue a partir das grandes bases de dados identificar padrões, fazer recomendações, sem necessariamente uma relação de causalidade E a LGPD atribui certas competências à ANPD, inclusive para regulamentar, fazer auditorias para investigar aspectos discriminatórios em decisões automatizadas. A questão chave é estabelecer um sistema jurídico que promova IA confiável”, disse Miriam Wimmer. 

A atenção com os recursos de inteligência artificial se deve ainda pela constatação prática de problemas, notadamente pelo viés ou discriminação em decisões automatizadas – como visto em sistemas de reconhecimento facial que são mais assertivos entre homens brancos, mas erram mais entre mulheres negras.

“Há risco de perpetuação de vieses sociais, como os algoritmos que não promovem mulheres, que não recrutam determinados grupos étnicos, raciais ou sociais. Esses problemas, que já são amplamente visualizados nos estudos, devem ser observados pelo principio da não discriminação, que está na LGPD. E nesse sentido a estratégia brasileira de IA foi feliz ao indicar que o nível de intervenção regulatória deve ser proporcional ao nível de risco gerado pelas aplicações.”

Hermann Santos de Almirante

Recent Posts

STJ valida software policial CRC (Child Rescue Coalition) que rastreia internet sem ordem judicial

A Sexta Turma do Superior Tribunal de Justiça decidiu, por unanimidade, que é lícito o…

3 dias ago

Como se proteger e reagir ao golpe do “WhatsApp falso” – orientações da Anatel

A Anatel alerta para a crescente incidência do chamado “golpe do WhatsApp falso”, em que…

1 semana ago

Inteligência Artificial agiliza 4 milhões de processos na Procuradoria Geral de São Paulo

A Procuradoria Geral do Estado de São Paulo (PGE-SP) já colhe frutos da migração para…

3 semanas ago

Justiça do Trabalho aciona PF e ANPD por acesso massivo e não autorizado em 21 tribunais

O Conselho Superior da Justiça do Trabalho (CSJT) informou a ocorrência de um incidente de…

1 mês ago

A Ilusão Digital: Deepfakes e a Nova Fronteira da Fraude Corporativa

A linha que separa o real do artificial está se tornando perigosamente tênue. Se antes…

1 mês ago

ANPD vira agência e ganhará 200 cargos de especialista em regulação de proteção de dados

No último dia 17 de setembro, foi assinado um pacote legislativo que redefine o papel…

2 meses ago