STF redefine regras e responsabiliza redes sociais por conteúdos ilegais publicados por usuários

Em uma decisão histórica, o Supremo Tribunal Federal (STF) alterou, na última quinta-feira (26), a forma como plataformas digitais são responsabilizadas por conteúdos ilegais publicados por seus usuários. Por 8 votos a 3, os ministros consideraram parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, permitindo que redes sociais como Google, Meta, TikTok e X (ex-Twitter) possam ser responsabilizadas mesmo sem ordem judicial em casos específicos.
A partir de agora, a exigência de decisão judicial para a remoção de conteúdo passa a valer apenas para crimes contra a honra, como calúnia, difamação e injúria. Para publicações que envolvam temas mais graves — como atos antidemocráticos, terrorismo, discurso de ódio, pornografia infantil, violência contra a mulher ou tráfico de pessoas — bastará uma notificação extrajudicial para que as plataformas sejam obrigadas a agir. Caso não removam os conteúdos após serem notificadas, poderão ser responsabilizadas civilmente.
A decisão também determina que, se um conteúdo já tiver sido classificado como ilícito judicialmente e for republicado, a plataforma deverá removê-lo automaticamente, sem a necessidade de nova ação judicial.
Os ministros que votaram a favor — incluindo Alexandre de Moraes, Gilmar Mendes, Cármen Lúcia e o presidente da Corte, Luís Roberto Barroso — defenderam que o modelo atual não oferece respostas suficientes diante do avanço da desinformação e da violência digital. Para eles, o novo entendimento reforça a proteção à democracia e aos direitos fundamentais. Já os votos contrários, entre eles os de André Mendonça e Edson Fachin, expressaram preocupação com possíveis impactos na liberdade de expressão e ressaltaram que mudanças nesse sentido deveriam partir do Congresso.
Com a nova interpretação, as redes sociais deverão implementar medidas de autorregulação, criar canais de denúncia acessíveis e publicar relatórios periódicos de transparência. Também precisarão manter representação legal no Brasil, com poder para responder judicial e administrativamente. Além disso, conteúdos patrocinados ou disseminados por robôs passam a ter presunção de responsabilidade da plataforma, exceto se comprovada a devida diligência.
A decisão, no entanto, não terá efeito retroativo: só valerá para conteúdos publicados a partir da data do julgamento. O STF também reforçou a necessidade de que o Congresso Nacional aprove uma lei específica que trate do tema, equilibrando a liberdade de expressão com o combate a conteúdos danosos na internet.
A medida aproxima o Brasil de modelos como o da União Europeia, que adotou recentemente a Lei de Serviços Digitais (DSA), obrigando plataformas a adotar políticas preventivas e mais rigorosas contra conteúdos nocivos.
Para os usuários, a decisão pode significar mais agilidade na retirada de conteúdos ofensivos ou ilegais. Já as plataformas precisarão adaptar seus sistemas de moderação e prestar contas mais diretamente ao poder público. Em resposta, empresas como o Google já manifestaram preocupação com possíveis inseguranças jurídicas e pediram clareza nos critérios de aplicação.
A mudança representa um novo marco na regulação da internet no país e inaugura um cenário onde as redes sociais deixam de ser apenas intermediárias neutras, assumindo papel mais ativo e responsável no ecossistema digital.