
O Supremo Tribunal Federal (STF) decidiu, na quinta-feira, ampliar as responsabilidades das plataformas digitais no Brasil. A decisão declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, que está em vigor desde 2014. Essa regra atual protegia as redes sociais, isentando-as de responsabilidades por conteúdos postados por usuários, a menos que não seguissem uma ordem judicial para remoção.
Os ministros do STF avaliam que essa proteção era excessiva e deixava os usuários vulneráveis a conteúdos nocivos. Com o resultado do julgamento, em que a votação registrou 8 votos a 3, foi estabelecido que as plataformas devem adotar novas obrigações imediatamente, mas estas se aplicarão apenas a casos futuros.
Um dos principais pontos da decisão é a criação de uma lista de conteúdos que as plataformas devem remover de forma proativa, ou seja, antes de qualquer determinação judicial. Essa lista inclui:
– Ataques à democracia e crimes contra o Estado democrático de Direito
– Terrorismo
– Induzimento ao suicídio
– Discriminação racial, religiosa ou por orientação sexual
– Violência contra mulheres
– Crimes sexuais contra crianças e pornografia infantil
– Tráfico de pessoas
As plataformas não serão punidas por postagens isoladas que não sejam removidas, mas sim por “falha sistêmica”, quando não implementarem medidas adequadas de prevenção e remoção desses conteúdos. A decisão ressaltou que falha sistêmica é não atuar de forma responsável e transparente na moderação das postagens.
As empresas passam a ser responsabilizadas após notificações extrajudiciais, sem a necessidade de uma ordem judicial, por conteúdos que representem crimes ou atos ilícitos, exceto crimes contra a honra. Para esses crimes, como calúnia e injúria, a exigência de ordem judicial continua, mas as plataformas podem remover conteúdos voluntariamente após a notificação.
A nova regra também se aplica a contas denunciadas como falsas. Nestes casos, um exame deve ser realizado após a notificação. Além disso, caso um conteúdo já tenha sido considerado ofensivo por uma decisão judicial, suas replicações devem ser removidas por todas as plataformas mediante notificação, sem necessidade de nova ordem.
Em relação a conteúdos patrocinados, como anúncios pagos, as plataformas terão responsabilidade automática, independentemente de notificação prévia. O STF estabeleceu que, por lucrar diretamente com esses conteúdos, as plataformas devem verificar sua legalidade antes de publicá-los. Se um conteúdo ilícito for identificado, a plataforma será responsabilizada mesmo que não tenha sido alertada.
Uma nova exigência será que todas as plataformas que operam no Brasil precisam ter sede e representante legal no país. Isso facilita a responsabilização de empresas estrangeiras que, atualmente, atuam sem uma estrutura jurídica nacional.
Outra determinação requer que as plataformas desenvolvam sistemas próprios para denúncias, acessíveis a todos os usuários. Elas também devem criar um processo para análise dessas notificações e produzir relatórios anuais de transparência sobre as remoções de conteúdo.
A aplicação dessas novas regras irá acontecer imediatamente, mas elas se referem unicamente a casos futuros. Serviços como e-mail, videoconferência e mensagens privadas, como WhatsApp, continuarão seguindo a regulamentação atual, que exige ordem judicial para responsabilização, devido à proteção do sigilo de comunicações. Já os marketplaces seguirão suas responsabilidades conforme o Código de Defesa do Consumidor.
Por fim, o STF fez um apelo ao Congresso Nacional para que desenvolva uma legislação mais detalhada sobre o tema, buscando garantir uma maior proteção aos usuários nas plataformas digitais.