IA usa dados pessoais e têm de ser transparente nas decisões

Da sugestão do próximo vídeo à aprovação do empréstimo, os sistemas de inteligência artificial são cada vez mais comuns no dia a dia. Por isso, torna-se fundamental que as pessoas conheçam o porquê das decisões, especialmente quanto maior o risco envolvido.

“É uma questão de transparência e do que é um parâmetro suficientemente claro para explicar uma decisão”, disse a diretora da Autoridade Nacional de Proteção de Dados Miriam Wimmer, que nesta sexta, 30 de Julho de 2021, participou do seminário Inteligência Artificial, nas fronteiras de um novo paradigma, promovido pela ABDI, MCTI e Ministério da Economia. 

“Estamos em um contexto no qual a inteligência artificial se caracteriza como uma tecnologia cada vez mais pervasiva, presente em aplicações rotineiras, cotidianas, como tradutores simultâneos, aplicativos de rotas, recomendações em streamings e redes sociais, e que tem trazido promessas importantes no campo científico, industrial”, lembrou.

Mas IA também significa uso de informações pessoais. E não por menos, é lembrada na própria Lei Geral de Proteção de Dados (13.709/18). “É preciso ter presente que existe uma relação muito estreita entre IA e dados pessoais – porque a IA é potencializada pelo Big Data, consegue a partir das grandes bases de dados identificar padrões, fazer recomendações, sem necessariamente uma relação de causalidade E a LGPD atribui certas competências à ANPD, inclusive para regulamentar, fazer auditorias para investigar aspectos discriminatórios em decisões automatizadas. A questão chave é estabelecer um sistema jurídico que promova IA confiável”, disse Miriam Wimmer. 

A atenção com os recursos de inteligência artificial se deve ainda pela constatação prática de problemas, notadamente pelo viés ou discriminação em decisões automatizadas – como visto em sistemas de reconhecimento facial que são mais assertivos entre homens brancos, mas erram mais entre mulheres negras.

“Há risco de perpetuação de vieses sociais, como os algoritmos que não promovem mulheres, que não recrutam determinados grupos étnicos, raciais ou sociais. Esses problemas, que já são amplamente visualizados nos estudos, devem ser observados pelo principio da não discriminação, que está na LGPD. E nesse sentido a estratégia brasileira de IA foi feliz ao indicar que o nível de intervenção regulatória deve ser proporcional ao nível de risco gerado pelas aplicações.”

Hermann Santos de Almirante

Recent Posts

AGU Notifica Google para Remover Sites que Criam “Nudes” com IA

A Advocacia-Geral da União (AGU) tomou uma medida direta contra a proliferação de conteúdos abusivos…

5 dias ago

Agentes de IA: Cérebro e Braços da Nova Inteligência Artificial Corporativa

A adoção de Agentes de IA acelera em ritmo exponencial nas empresas, consolidando-os como a…

2 semanas ago

Brasil: Rigor contra Crimes Digitais e o Avanço do Marco Legal da Inteligência Artificial

O país atravessa uma virada regulatória sem precedentes: enquanto o Marco Legal da IA percorre…

2 semanas ago

Hackers Desviam R$ 100 Milhões em Novo Golpe contra Instituições Financeiras

O ecossistema do Pix, principal meio de pagamento do Brasil, sofreu um novo e severo…

2 semanas ago

Verificação de Idade na Internet: Ineficaz, Invasiva e Perigosa, Alertam 438 Cientistas de 32 Países

Documento internacional pede moratória imediata e aponta que as tecnologias disponíveis comprometem a privacidade, aprofundam…

3 semanas ago

ANPD estabelece diretrizes para verificação de idade em plataformas digitais e reforça exigências do ECA Digital

A Autoridade Nacional de Proteção de Dados (ANPD) divulgou suas primeiras orientações sobre mecanismos de…

3 semanas ago