Após decisão da Meta, Moraes afirma que Redes Sociais devem respeitar as leis para operar no Brasil
O ministro do Supremo Tribunal Federal (STF), Alexandre de Moraes, afirmou nesta quarta-feira (8) que as redes sociais no Brasil só poderão operar se cumprirem as leis locais, independentemente das declarações de líderes das grandes empresas de tecnologia.
Ele destacou que tanto a Justiça Eleitoral quanto o STF já demonstraram que o Brasil possui uma legislação que deve ser respeitada.
“AQUI NO BRASIL, A NOSSA JUSTIÇA ELEITORAL E O NOSSO STF, AMBOS JÁ DEMONSTRARAM QUE AQUI É UMA TERRA QUE TEM LEI. AS REDES SOCIAIS NÃO SÃO TERRA SEM LEI. NO BRASIL, [AS REDES SOCIAIS] SÓ CONTINUARÃO A OPERAR SE RESPEITAREM A LEGISLAÇÃO BRASILEIRA. INDEPENDENTEMENTE DE BRAVATAS DE DIRIGENTES IRRESPONSÁVEIS DAS BIG TECHS”, AFIRMOU.
Moraes se pronunciou após a Meta, dona do Facebook e Instagram, anunciar que está encerrando seu programa de verificação de fatos, começando pelos Estados Unidos. Em seu lugar, a plataforma adotará um sistema de “notas de comunidade”, similar ao utilizado pelo X, rede social de Elon Musk.
Em seu discurso, Moraes também lembrou o papel das redes sociais nos ataques antidemocráticos de 8 de janeiro de 2023, quando extremistas invadiram e depredaram os prédios dos Três Poderes em Brasília. O ministro afirmou que as plataformas digitais ajudaram a disseminar discursos de ódio e incitar movimentos golpistas que culminaram nas invasões.
Ele também alertou que o STF não permitirá que as grandes plataformas sejam usadas para disseminar discurso de ódio, racismo, misoginia, homofobia ou qualquer outra forma de intolerância.
Moraes reforçou que as redes sociais não podem ser utilizadas para incitar ideologias extremistas ou ações antidemocráticas, lembrando que, em 2024, determinou a suspensão do X no Brasil devido ao descumprimento de ordens judiciais. Após o cumprimento das determinações, a plataforma voltou a operar no país em outubro.
O STF está avaliando um julgamento sobre a responsabilização das redes sociais por conteúdos postados por terceiros, sem a necessidade de uma ordem judicial. A questão é se as plataformas devem ser responsabilizadas por não retirar conteúdos prejudiciais, como fake news e discursos de ódio, quando identificados, sem decisão prévia da Justiça.
Em relação ao Instagram e Facebook, a Meta anunciou mudanças significativas. O CEO Mark Zuckerberg revelou que a empresa deixará de contar com parceiros externos de verificação de fatos, além da equipe interna que realizava essa função. Os filtros de moderação serão mais restritos, focando apenas em violações legais graves, e conteúdos de menor gravidade serão gerenciados por meio de denúncias de usuários.
A Meta também passará a permitir que os próprios usuários corrijam postagens, similar ao sistema de “notas de comunidade” do X. As plataformas também irão ampliar a recomendação de conteúdos políticos e centralizarão a revisão de postagens nos Estados Unidos no Texas.