Zuckerberg muda regras de moderação de suas redes sociais: o que isso significa para o Brasil?
Mudanças visam a "liberdade de expressão" e começam nos EUA. No Brasil, STF e Congresso devem julgar a responsabilização das big techs por conteúdos este ano
Murillo Otavio
Mark Zuckerberg, dono da Meta, empresa que criou o Instagram, Facebook e WhatsApp, afirmou nesta terça-feira (7) que está encerrando o seu programa de moderação de conteúdo nas redes sociais. Em um vídeo divulgado anunciando a mudança, o empresário disse que os verificadores "tem sido muito tendenciosos politicamente e destruíram mais confiança do que criaram".
Zuckerberg também falou em pressionar governos que, segundo ele, perseguem empresas americanas para implementar mais censura. E criticou, ainda, o que chamou de "leis que institucionalizam a censura" na Europa e "tribunais secretos" de países latino-americanos que ordenam "retirar coisas silenciosamente".
+Poder Expresso: dono do Instagram e do Facebook encerra programa contra fake news; veja repercussão
Inicialmente, a mudança será implementada nos Estados Unidos, embora ainda sem uma data definida. O SBT News questionou a empresa sobre quando a atualização chegará ao Brasil, mas não obteve resposta.
Confira as principais alterações na política de moderação:
Verificação de fatos - a Meta deixará de contar com os parceiros de verificação de fatos que auxiliam na moderação de postagens, além da equipe interna dedicada a essa função;
Grau de gravidade - em casos com "menor gravidade", os próprios usuários poderão adicionar correções aos posts, como complemento ao conteúdo, de forma semelhante ao que é feito no X;
Conteúdo político - a empresa vai sugerir mais conteúdos sobre política de acordo com as curtidas e visualizações dos usuários, mas não especificou que tipo de conteúdo político
Filtros contra violência - a Meta passa a ter "filtros para combater violações legais e de alta gravidade", mas sem explicar o que é e como vai funcionar. Para casos de menor gravidade, plataformas dependerão de denúncias, antes de qualquer ação da empresa;
"Essas mudanças são uma tentativa de retornar ao compromisso com a livre expressão", disse Zuckerberg. A Meta deve colaborará com o governo Trump para pressionar países que, em sua visão, promovem censura e restringem a atuação de empresas americanas.
Essa postura gerou reações no Brasil. João Brant, secretário de Políticas Digitais da Secom, destacou que as falas de Zuckerberg sobre "tribunais secretos" referem-se ao STF, que já determinou a remoção de conteúdos com fake news ou incitação contra o estado democrático de direito.
Brant criticou a aliança explícita entre a Meta e o governo dos EUA, afirmando que o posicionamento ataca iniciativas de proteção de direitos no ambiente online promovidas por países como o Brasil e a União Europeia. Ele também apontou que Zuckerberg questiona o viés da própria equipe de segurança da Meta, além de atacar os checadores de fatos e o STF.
+Supremo adia pra 2025 decisão sobre responsabilização de redes por conteúdos
Regulação das redes no Brasil
No Brasil, há expectativa de regulamentar o uso das redes sociais em 2025 por meio de duas iniciativas: o Marco Civil da Internet e o PL das Fake News. A regulação brasileira deve atingir diretamente a nova política da Meta de moderação de conteúdo.
O julgamento do Marco Civil, em análise no STF (Supremo Tribunal Federal), discute se as plataformas digitais podem ser responsabilizadas por conteúdos ilícitos publicados por usuários, mesmo sem ordem judicial. A decisão pode alterar a regra atual, que exige notificação judicial prévia para a remoção de conteúdos.
Já o PL das Fake News, em debate no Congresso, tem um foco mais abrangente. Ele propõe regulamentar as redes sociais e aplicativos de mensagens no combate à desinformação, incluindo medidas como transparência nos algoritmos, identificação de contas automatizadas e punições às plataformas que falharem na moderação de conteúdos prejudiciais à democracia.
Enquanto o Marco Civil trata da responsabilização das plataformas, o PL busca criar uma política pública contra a disseminação de notícias falsas.
A tensão política no Brasil tem ampliado a urgência do tema, especialmente após episódios como as fake news sobre urnas eletrônicas, os ataques golpistas de 8 de janeiro e o recente atentado a bomba na praça dos Três Poderes. Essas informações ajudaram a mobilizar ações violentas contra instituições brasileiras.
Para Manuela Silva, advogada especialista em direito digital no PG Advogados, ainda é cedo para enxergar consequências para o Brasil, afinal, a mudança deve começar nos Estados Unidos. "Acredito que esse tema ainda terá muita discussão no Brasil", diz.
Ainda segundo a advogada, é possível que haja ações judiciais por pessoas físicas que não concordam com o conteúdo exposto, gerando outra camada no debate. E a conclusão dessas ações dependerá do resultado do Marco Civil e o PL das Fakes News.
Muitas pessoas já recorreram ao judiciário para remover conteúdo das redes sociais antes da introdução das notas da comunidade. Por exemplo, um caso marcante chegou ao STF em 2009, quando uma professora pediu a remoção de ofensas feitas por alunos em uma rede social, explica a advogada.
A plataforma negou o pedido, alegando que o conteúdo não era ofensivo. Ao discordar, a professora levou o caso ao judiciário, e esse processo é considerado por especialistas como um dos mais importantes da década, podendo mudar a forma como as plataformas digitais atuam no Brasil.