A discussão sobre a responsabilização das redes sociais por conteúdos publicados por usuários segue em curso no Brasil e ganha força em diferentes partes do mundo. O avanço da desinformação e da manipulação política online tem colocado as big techs no centro de um debate global sobre a urgência de regulamentar as plataformas digitais.
No Brasil, o Supremo Tribunal Federal (STF) formou maioria, no último dia 11 de junho, para responsabilizar as plataformas por danos causados por conteúdos de seus usuários. No entanto, a corte ainda não definiu os critérios específicos para a aplicação dessa responsabilização. Atualmente, as empresas seguem as diretrizes do Marco Civil da Internet, de 2014, que prevê punição apenas em casos de descumprimento de ordem judicial de remoção de conteúdo, com exceções apenas para situações envolvendo conteúdo sexual não autorizado ou violações de direitos autorais.
A movimentação brasileira segue uma tendência internacional de maior controle sobre as plataformas. A tentativa de responsabilizar e investigar a conduta das empresas digitais, porém, tem gerado críticas de países como os Estados Unidos, onde estão localizadas as sedes de boa parte dessas companhias.
União Europeia: pioneira na regulamentação
Na Europa, os países da União Europeia saíram na frente ao aprovar, em 2022, a Lei de Serviços Digitais (DSA), que estabelece um conjunto de regras para aumentar a proteção dos usuários e garantir mais transparência nas redes. A legislação obriga as grandes plataformas a adotar medidas para combater conteúdos ilegais, rastrear vendedores em marketplaces online e prevenir abusos nos sistemas digitais.
Além da DSA, os europeus criaram a Lei de Mercados Digitais (DMA), voltada a limitar o poder das grandes empresas do setor, conhecidas como “gatekeepers”, e o Ato da Inteligência Artificial, que impõe restrições conforme o nível de risco dos sistemas de IA. Desde fevereiro deste ano, a União Europeia proibiu sistemas de IA considerados de “risco inaceitável”.
Estados Unidos: legislação defasada
Enquanto isso, nos Estados Unidos, a legislação sobre o tema permanece praticamente inalterada desde 1996. A Seção 230 da Lei de Decência nas Comunicações (CDA) garante imunidade às plataformas digitais em relação a conteúdos publicados por terceiros. A regra, que permitiu o crescimento de redes como Facebook, YouTube e Reddit, impede que as empresas sejam tratadas como editoras ou emissoras do material postado por seus usuários.
Apesar disso, o debate sobre a necessidade de revisar ou até revogar a Seção 230 vem ganhando força, especialmente devido ao impacto das redes sociais em processos políticos e à disseminação de informações falsas.
Austrália: foco no jornalismo e proteção a menores
A Austrália também criou regras para controlar a atuação das big techs. Uma das principais medidas obriga as plataformas a remunerarem os veículos de imprensa locais pelas notícias reproduzidas em suas redes. O objetivo é garantir a sustentabilidade do setor jornalístico, considerado essencial para a democracia australiana.
Além disso, o país foi o primeiro a impor restrições de acesso às redes sociais para menores de 16 anos. A medida, implementada no ano passado, busca proteger crianças e adolescentes de possíveis riscos associados ao ambiente digital.
Cenário de pressão global
Com diferentes abordagens e níveis de rigor, países de todos os continentes caminham para estabelecer um novo padrão de responsabilidade para as plataformas digitais. No Brasil, a expectativa é que o STF defina, nos próximos meses, os critérios que vão balizar a responsabilização das redes sociais, o que pode abrir um novo capítulo na relação entre usuários, empresas de tecnologia e o Estado.