- Tempo estimado para leitura deste texto: 3 minutos

Os membros do Parlamento Europeu votaram a favor da proibição total da vigilância biométrica da massa, afirmando que os indivíduos só devem ser monitorizados se forem suspeitos de um crime, e não de outra forma.

Essa vitória potencial para a privacidade pública acabaria com o reconhecimento automatizado de pessoas em espaços públicos por meio de seus recursos biométricos, e os legisladores da UE também estão sendo chamados a proibir o policiamento preditivo auxiliado por IA e o uso de bancos de dados privados de reconhecimento facial.

A resolução aprovada pelos eurodeputados, que foi aprovada com uma votação de 377: 248, traça uma linha clara na areia em termos de privacidade pública, e será discutida mais adiante durante as próximas negociações que informarão os detalhes da Lei de Inteligência Artificial.

Excluindo classificações

Além de proibir totalmente a vigilância biométrica de massa em espaços acessíveis ao público, os deputados europeus também têm a missão de descartar o uso de sistemas de pontuação social – uma ideia totalmente distópica que faria com que os indivíduos fossem avaliados com base em sua personalidade ou comportamento.

Em abril de 2021, uma tentativa foi feita pelo executivo da UE para proibir o uso de alto risco de tecnologia assistida por IA. Embora essa proibição também tivesse eliminado a pontuação social, vários deputados do Parlamento Europeu rapidamente ecoaram o sentimento civil e criticaram a legislação proposta por não ir longe o suficiente.

De olho em nossos direitos

A inteligência artificial não é mais o assunto de romances de ficção científica e thrillers de sucesso de bilheteria – é uma parte do nosso presente e já está sendo usada no (e no) público em toda a Europa, para preocupação dos defensores da privacidade.

Da mesma forma, os sistemas biométricos se tornaram cada vez mais comuns em nosso dia a dia, quer estejamos viajando, fazendo compras ou acessando nossos telefones e edifícios.

Os eurodeputados chegaram à conclusão de que os sistemas alimentados por IA devem ter sempre supervisão humana

Um dos aspectos mais preocupantes da tecnologia assistida por IA é seu potencial enviesamento algorítmico. Os eurodeputados destacaram casos condenáveis ​​de sistemas de identificação que identificam erroneamente pessoas de cor, indivíduos LGBTQ +, mulheres e idosos com mais frequência. Além disso, na Alemanha, os sistemas de reconhecimento facial foram implantados fora dos espaços LGBTQ +, locais religiosos, escritórios de advogados e consultórios médicos – e tudo sem motivo adequado.

Esse direcionamento sem tato de grupos marginalizados demonstra como a IA pode ser usada para suprimir a autoexpressão e sustentar a opressão social, e geralmente nos torna muito mais cautelosos em relação a nossas vidas de forma autêntica.

Como tal, os eurodeputados chegaram à conclusão de que os sistemas alimentados por IA devem ter sempre supervisão humana – e que um operador humano deve sempre dar a palavra final em contextos de aplicação da lei. Além disso, os eurodeputados também condenaram as decisões judiciais auxiliadas pela IA e pressionaram para proibir a prática e suprimir quaisquer tendências sistémicas automáticas que surgissem num sistema de justiça já repressivo.

Um retrocesso promissor

Em suma, é encorajador ver os eurodeputados assumirem uma posição tão firme em oposição à vigilância biométrica da massa. Alguns podem argumentar que essa tecnologia desempenha um papel importante no auxílio aos esforços de aplicação da lei e até mesmo torna nossas próprias vidas muito mais convenientes. Esses fatores, no entanto, não devem justificar os casos em que a biometria é usada para vigiar indiscriminadamente os indivíduos em espaços públicos ou tratar inocentes como suspeitos sem qualquer provocação.

Se não forem controlados e desafiados, órgãos governamentais, agências de aplicação da lei e corporações privadas podem usar sistemas de vigilância biométrica e alimentados por IA para destruir a privacidade pública e sustentar uma sociedade baseada na discriminação automática e injustificada – o que seria desastroso para nós todos.

Tags: