O Supremo Tribunal Federal (STF) retoma na próxima quarta-feira (4) o julgamento de duas ações que podem mudar as regras sobre a responsabilidade das plataformas digitais — como redes sociais e aplicativos — pelos conteúdos publicados por seus usuários.
A decisão deve impactar diretamente a aplicação do artigo 19 do Marco Civil da Internet, que estabelece que as plataformas só são obrigadas a remover conteúdos considerados ilegais se houver uma ordem judicial, exceto em casos específicos.
O tema volta à pauta após o ministro André Mendonça devolver os processos para análise, após um pedido de vista (mais tempo para avaliar), feito no fim de 2024.
Entenda o que está em jogo
O STF analisa se as plataformas podem ser responsabilizadas civilmente quando usuários publicam conteúdos que violem direitos — como discurso de ódio, racismo, incitação à violência, fake news ou ataques à democracia. Além disso, os ministros discutem se a remoção de conteúdos pode ocorrer mediante notificação extrajudicial, ou se é necessária sempre uma decisão da Justiça.
Votos já registrados
Antes da pausa no julgamento, três ministros já haviam apresentado seus votos, com entendimentos diferentes sobre até que ponto as plataformas devem ser responsabilizadas.
✔ Luiz Fux
O ministro votou pela possibilidade de responsabilizar as plataformas sem necessidade de decisão judicial em casos de conteúdos “manifestamente ilegais”, como:
- Discurso de ódio;
- Racismo;
- Pedofilia;
- Incitação à violência;
- Defesa de golpe de Estado ou ataques à democracia.
Para Fux, as empresas devem ter sistemas de monitoramento capazes de identificar e remover esse tipo de conteúdo imediatamente. Já em casos de ofensas pessoais (como calúnia, difamação e violação de privacidade), a remoção só seria obrigatória após notificação da vítima.
✔ Dias Toffoli
O ministro foi mais rígido e votou para declarar inconstitucional o artigo 19 do Marco Civil da Internet, permitindo a responsabilização das plataformas sempre que, avisadas, não removerem conteúdos ilícitos em tempo razoável.
Além disso, Toffoli defende que em alguns casos a remoção deve ser imediata, sem nem precisar de notificação, como:
- Conteúdos de contas falsas, robôs ou perfis anônimos;
- Publicações impulsionadas ou patrocinadas;
- Violações de direitos autorais;
- Conteúdos ligados a terrorismo, tráfico de pessoas, violência contra grupos vulneráveis, fake news que coloquem vidas em risco ou que atentem contra as eleições e a democracia.
✔ Luís Roberto Barroso
Barroso apresentou uma posição intermediária, propondo três modelos diferentes, de acordo com o tipo de conteúdo:
- Ofensas pessoais e crimes contra a honra: mantém-se a regra atual — só retirados com ordem judicial.
- Crimes graves, como racismo, pedofilia, terrorismo e ataques à democracia: a plataforma deve remover o conteúdo após simples notificação extrajudicial, sem necessidade de decisão da Justiça.
- Conteúdos pagos ou impulsionados: a plataforma já tem ciência do conteúdo e pode ser responsabilizada diretamente, caso não atue para removê-lo de forma rápida.
Para Barroso, as plataformas precisam ter um “dever de cuidado” maior, com ações preventivas para reduzir riscos à sociedade.
Impacto da decisão
O julgamento é considerado um dos mais importantes do país na definição de regras para o ambiente digital. A decisão do STF terá efeitos diretos sobre a atuação de empresas como Meta (Facebook, Instagram e WhatsApp), Google (YouTube), X (antigo Twitter) e TikTok, além de afetar usuários, veículos de imprensa e influenciadores.
Atualmente, o Brasil adota um modelo em que a maior parte das responsabilidades das plataformas depende de decisão judicial. A possível mudança pode levar a uma atuação mais ativa das empresas na moderação de conteúdos, além de abrir espaço para mais ações na Justiça em caso de omissão.
A votação será retomada na quarta-feira, e ainda faltam os votos da maioria dos ministros da Corte para a definição final.