Agu
A Advocacia-Geral da União (AGU) protocolou uma petição no Supremo Tribunal Federal (STF) solicitando urgência no julgamento de recursos extraordinários que tratam da responsabilidade de plataformas digitais sobre o conteúdo postado por seus usuários. A AGU defende que a definição da responsabilidade das plataformas é crucial para a criação de um ambiente digital seguro e democrático, onde direitos fundamentais e valores democráticos sejam respeitados.
Na petição, a AGU pede que o STF inclua nos processos os subsídios colhidos durante a audiência pública realizada em 22 de janeiro. Nesta audiência, especialistas e entidades da sociedade civil manifestaram preocupação com as recentes mudanças nas políticas de moderação de conteúdo anunciadas pela Meta, empresa controladora de plataformas como Facebook, Instagram, WhatsApp e Threads.
A AGU argumenta que as mudanças na política de moderação da Meta, anunciadas em 7 de janeiro de 2025, podem impactar negativamente direitos fundamentais, especialmente no combate a discursos de ódio. A Advocacia-Geral da União alega que as novas regras violam garantias constitucionais e legais, além de contrariarem diretrizes internacionais de proteção aos direitos humanos.
A AGU destaca que a Meta afrouxou as regras de seus Termos de Uso, permitindo a circulação de discursos de ódio contra grupos vulneráveis, como LGBTQIA+, imigrantes, mulheres e minorias religiosas. Entre as mudanças, a empresa passou a permitir a associação de orientação sexual e identidade de gênero a transtornos mentais, além de autorizar a desumanização de mulheres e a defesa de limitações profissionais baseadas em gênero. Também foram suprimidas restrições que proibiam a intolerância explícita com base em características como raça, religião e orientação sexual.
O julgamento no STF, que discute a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/14), foi iniciado em novembro de 2024 e está atualmente suspenso após um pedido de vista do ministro André Mendonça. Até o momento (07 de Fevereiro de 2025), três ministros já votaram.
O relator de um dos recursos extraordinários, ministro José Dias Toffoli, defendeu a responsabilidade objetiva das plataformas por danos decorrentes de conteúdos ilícitos, como racismo e violência contra grupos vulneráveis, e estabeleceu deveres de transparência e prevenção para as empresas. O relator do segundo recurso sobre o mesmo tema, ministro Luiz Fux, reconheceu o dever de monitoramento ativo e remoção imediata de conteúdos criminosos, como discursos de ódio e apologia à violência. O presidente do STF, ministro Luís Roberto Barroso, defendeu que as plataformas devem ser responsabilizadas caso não adotem medidas para remover postagens.
A decisão do STF neste caso terá grande impacto no futuro da internet no Brasil, definindo o papel das plataformas digitais na moderação de conteúdo e na proteção de direitos fundamentais. A expectativa é que o julgamento seja retomado em breve, após o término do pedido de vista do ministro André Mendonça.
A Black Friday 2025 está testemunhando uma transformação sem precedentes na forma como as pessoas…
Sabe aquela regulamentação europeia de proteção de dados que virou pesadelo para pequenas empresas? Pois…
Dario Amodei, CEO da empresa de inteligência artificial Anthropic, emitiu alertas severos sobre os perigos…
A Anthropic divulgou uma estrutura de código aberto em 13 de novembro para medir o…
A fabricante chinesa de brinquedos FoloToy suspendeu as vendas de seu ursinho de pelúcia com…
A Apple revisou suas políticas da App Store na quinta-feira para exigir explicitamente que os…