Categories: LGPD em Notícias

Brasil: Rigor contra Crimes Digitais e o Avanço do Marco Legal da Inteligência Artificial

O país atravessa uma virada regulatória sem precedentes: enquanto o Marco Legal da IA percorre o Congresso Nacional, medidas imediatas já protegem crianças de algoritmos manipulativos e vítimas de pornografia falsa gerada por IA.

O Marco Legal da IA em Construção

O debate sobre inteligência artificial no Brasil ganhou contornos mais definidos com o avanço do PL 2338/2023, de autoria do então presidente do Senado, senador Rodrigo Pacheco. O texto busca garantir segurança jurídica e ética no uso da tecnologia, além de proteger os direitos fundamentais — com destaque para os direitos autorais.

A proposta adota uma classificação de risco inspirada no modelo europeu (EU AI Act). Sistemas classificados como de alto risco — com impacto direto sobre direitos fundamentais nas áreas de saúde, justiça, segurança, crédito, emprego, educação, infraestrutura crítica, veículos autônomos e identificação biométrica — ficam sujeitos a medidas rigorosas de governança, incluindo avaliações públicas de impacto algorítmico, testes de segurança e mecanismos de supervisão humana.

Do ponto de vista da responsabilização, em casos de alto risco, a responsabilidade civil será objetiva — ou seja, as empresas podem ser responsabilizadas sem necessidade de comprovação de culpa —, com inversão do ônus da prova em favor da parte afetada.

Um dos pontos de maior inovação reside na transparência algorítmica. As desenvolvedoras de IA de alto risco serão obrigadas a explicar como e por que a IA tomou uma decisão ou gerou determinado resultado. Além disso, as grandes empresas de tecnologia deverão informar, já no treinamento dos sistemas de IA, quais conteúdos protegidos por direitos autorais foram utilizados — e os autores terão a prerrogativa de vetar o uso de suas obras por esses sistemas.

O Debate sobre Proporcionalidade e Impacto Econômico

Não há consenso sobre o texto. Especialistas e representantes de empresas de TI defendem um modelo flexível, que adote abordagem assimétrica: quanto maior o risco da aplicação, maior a carga regulatória. A crítica central é que o PL, ao se aproximar de um modelo de compliance ex ante, impõe carga desproporcional que pode sufocar a inovação, especialmente para startups e pequenas empresas.

Há também preocupações de fundo constitucional. O sistema de governança previsto no PL 2338 envolve criação de despesas e autoridades — o que, constitucionalmente, só pode ser iniciado pelo Poder Executivo. Para suprir essa lacuna, o Executivo enviou projeto complementar criando o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial (SIA), com a ANPD designada como autoridade responsável por estabelecer normas gerais e regular e fiscalizar setores hoje sem autoridade reguladora própria.

O risco do vácuo regulatório é concreto: a ausência de uma regulação de IA construída com participação social pode intensificar a desinformação e aprofundar desigualdades no processo eleitoral de 2026.

ECA Digital: Fim da Rolagem Infinita para Crianças e Adolescentes

Enquanto o Marco Legal da IA avança no Congresso, o Poder Executivo já agiu em uma frente específica e urgente. Em 18 de março de 2026, o presidente Lula assinou o decreto regulamentador da Lei do Estatuto Digital da Criança e do Adolescente (ECA Digital).

O decreto proíbe algumas práticas consideradas manipulativas do público infantil embutidas no design de produtos e serviços de ambientes virtuais. Uma delas é a chamada rolagem infinita — recurso que carrega novos conteúdos automaticamente, sem solicitação, à medida que o usuário rola a página para baixo, eliminando a necessidade de clicar para ver postagens mais antigas.

A reprodução automática de vídeos (autoplay), presente em aplicativos de vídeos, também é outro exemplo de recurso que deverá ser proibido a crianças e adolescentes.

O secretário nacional de Direitos Digitais do Ministério da Justiça e Segurança Pública, Victor Fernandes, explicou a lógica: os chamados design manipulativos são escolhas de arquitetura de produtos digitais que podem explorar vulnerabilidades de crianças e adolescentes, gerando sensações de angústia e urgência — a exemplo das notificações compulsórias, que criam sensação de escassez e imediatismo.

Verificação Etária e Papel da ANPD

A ANPD assume papel central na implementação. A entidade vai promover consultas públicas ao longo dos próximos meses para consolidar modelos mais definitivos sobre os novos requisitos de segurança para o público infantojuvenil nos ambientes digitais. A verificação de idade é uma das exigências mais importantes do ECA Digital — e a lei já define que tal aferição não deve violar a proteção de dados das pessoas que usam produtos e serviços virtuais.

Do ponto de vista institucional policial, destaca-se a criação do Centro Nacional de Proteção à Criança e ao Adolescente, estrutura vinculada à Polícia Federal, com a atribuição de centralizar denúncias e investigações de crimes digitais detectados e reportados pelas plataformas.

Câmara Aprova Sanções contra Deepfake Pornográfico

Em resposta ao crescimento exponencial de crimes sexuais mediados por IA, a Comissão de Comunicação da Câmara dos Deputados aprovou, em 23 de março de 2026, o substitutivo ao PL 2688/2025, que impõe sanções severas a plataformas que abrigarem pornografia falsa gerada por inteligência artificial (deepfakes).

O texto prevê multas de até 2% do faturamento do grupo econômico, limitadas a 50 mil salários-mínimos, e pode chegar à proibição total do uso da ferramenta de IA para fins específicos em caso de descumprimento.

O Que o Texto Determina

As principais regras aprovadas são:

DispositivoDescrição
Proibição absolutaVedada a geração de qualquer conteúdo sexual envolvendo crianças, adolescentes ou imagens que aparentem ser de menores, ainda que sintéticas
Consentimento expressoPara adultos, a criação de conteúdo íntimo por IA exige autorização específica, livre e destacada da pessoa retratada
Marca d’água obrigatóriaTodo conteúdo gerado artificialmente deve ser identificado como “sintético”, com marcas digitais invisíveis para rastreamento
Remoção imediataPlataformas devem remover o conteúdo ilegal após notificação de vítimas ou ordem judicial
Fornecimento de dadosAs empresas devem identificar e fornecer dados dos responsáveis pela publicação quando solicitado pela Justiça

Além das punições administrativas às empresas, o texto determina que quem produzir ou compartilhar deepfakes sexuais sem consentimento deverá indenizar a vítima por danos morais e materiais. No caso de imagens envolvendo menores de idade, a responsabilidade do agressor independe de intenção de lucro ou de causar dano específico: o simples ato de gerar ou compartilhar já gera o dever de indenizar.

O relator, deputado Jadyel Alencar (Republicanos-PI), foi claro quanto à urgência: há certos usos das tecnologias de IA que, pela sua gravidade, precisam ser disciplinados em lei o quanto antes — e a regulamentação geral da IA já está sendo debatida em comissão especial, mas o uso de tecnologia para criar pornografia falsa exige resposta imediata.

A proposta ainda será analisada pelas comissões de Ciência, Tecnologia e Inovação; de Finanças e Tributação; e de Constituição, Justiça e Cidadania, devendo depois passar pelo Plenário da Câmara e pelo Senado.

Panorama Integrado: Três Frentes, Uma Estratégia

O cenário regulatório brasileiro revela uma estratégia em três camadas:

1. Médio prazo — Marco Legal da IA (PL 2338/2023): estrutura sistêmica baseada em risco, com governança, transparência algorítmica, direitos autorais e responsabilidade civil objetiva. Ainda em tramitação na Câmara.

2. Imediato — ECA Digital (Decreto de março/2026): proteção comportamental de crianças contra arquiteturas de design manipulativas, com papel investigativo centralizado na Polícia Federal.

3. Imediato — PL 2688/2025: resposta penal e administrativa às plataformas que hospedem deepfakes pornográficos, com ênfase na proteção de imagem e na responsabilização das big techs.

O eixo comum a todas as frentes é o mesmo: privacidade, consentimento e dignidade da pessoa humana como limites intransponíveis ao avanço tecnológico — princípio que conecta o debate brasileiro ao AI Act europeu e às melhores práticas internacionais de governança digital.

Fontes: Agência Brasil/EBC (18/03/2026), Agência Câmara de Notícias (23/03/2026), JOTA, Câmara dos Deputados — PL 2338/2023 e PL 2688/2025.

Hermann Santos de Almirante

Recent Posts

AGU Notifica Google para Remover Sites que Criam “Nudes” com IA

A Advocacia-Geral da União (AGU) tomou uma medida direta contra a proliferação de conteúdos abusivos…

6 dias ago

Agentes de IA: Cérebro e Braços da Nova Inteligência Artificial Corporativa

A adoção de Agentes de IA acelera em ritmo exponencial nas empresas, consolidando-os como a…

2 semanas ago

Hackers Desviam R$ 100 Milhões em Novo Golpe contra Instituições Financeiras

O ecossistema do Pix, principal meio de pagamento do Brasil, sofreu um novo e severo…

2 semanas ago

Verificação de Idade na Internet: Ineficaz, Invasiva e Perigosa, Alertam 438 Cientistas de 32 Países

Documento internacional pede moratória imediata e aponta que as tecnologias disponíveis comprometem a privacidade, aprofundam…

3 semanas ago

ANPD estabelece diretrizes para verificação de idade em plataformas digitais e reforça exigências do ECA Digital

A Autoridade Nacional de Proteção de Dados (ANPD) divulgou suas primeiras orientações sobre mecanismos de…

3 semanas ago

STJ dá aval a contratos com selfie e biometria e enfraquece exclusividade do certificado ICP-Brasil

O Superior Tribunal de Justiça decidiu que a comprovação de identidade por selfie, biometria e…

4 semanas ago