Imagem meramente ilustrativa / Foto: Divulgação.
O Supremo Tribunal Federal (STF) marcou para o dia 27 de novembro o julgamento de três ações que discutirão a responsabilidade das redes sociais e provedores de internet na remoção de conteúdo sem ordem judicial, em casos de desinformação e discurso de ódio. A decisão promete definir o papel das plataformas digitais no controle e monitoramento de conteúdo online no Brasil.
A pauta inclui ações relatadas
pelos ministros Luiz Fux, Edson Fachin e Dias Toffoli, e foi confirmada nesta
quarta-feira (16) pelo presidente da Corte, ministro Luís Roberto Barroso. O
debate será decisivo, pois envolve a constitucionalidade de dispositivos do
Marco Civil da Internet (Lei 12.965/2014), que atualmente exige uma ordem judicial
prévia para responsabilizar as plataformas pela remoção de conteúdos
considerados ilícitos.
Ações
em julgamento
Ação relatada por Dias Toffoli: O STF analisará a constitucionalidade da regra do Marco Civil da Internet que exige que os provedores de internet só possam ser responsabilizados por atos ilícitos após uma determinação judicial. Essa decisão pode impactar diretamente o tempo de resposta das plataformas digitais na remoção de conteúdos potencialmente nocivos.
Ação relatada por Luiz Fux: A ação discute se as empresas que hospedam sites devem monitorar e remover conteúdos ofensivos de forma preventiva, sem a necessidade de intervenção judicial. Caso o STF defina que os provedores têm essa responsabilidade, o controle sobre os conteúdos postados nas redes sociais poderá se tornar mais rígido.
Ação relatada por Edson Fachin:
Este caso trata da legalidade do bloqueio do aplicativo de mensagens WhatsApp
por decisões judiciais, prática que ocorreu em algumas ocasiões no Brasil como
forma de forçar a plataforma a cooperar com investigações judiciais. O
julgamento dessa ação pode estabelecer novos parâmetros para o uso de sanções
contra plataformas digitais.
Impactos
e contexto
O julgamento ocorrerá em um
momento em que o papel das plataformas digitais na disseminação de conteúdo,
especialmente desinformação e discursos de ódio, é cada vez mais questionado,
tanto no Brasil quanto no cenário internacional. Nos últimos anos, o Brasil tem
experimentado um aumento significativo na pressão para que empresas de
tecnologia sejam mais proativas na moderação de conteúdo.
Em 2023, o STF realizou uma
audiência pública para discutir o Marco Civil da Internet, ouvindo
especialistas, representantes do setor público e da sociedade civil. A
audiência teve como objetivo coletar informações técnicas, econômicas e
jurídicas sobre os impactos das regras em vigor, além de debater a
responsabilidade das plataformas na moderação de conteúdo.
A decisão do Supremo será fundamental para determinar se o Brasil seguirá exigindo decisões judiciais para a remoção de conteúdo ou se as plataformas terão maior autonomia para agir preventivamente. O julgamento também poderá influenciar a forma como as grandes redes sociais e empresas de tecnologia operam no país, impactando a liberdade de expressão, a proteção contra abusos online e a responsabilidade das plataformas em evitar a disseminação de conteúdos prejudiciais.
As expectativas em torno desse julgamento são altas, uma vez que o resultado poderá estabelecer um marco sobre os limites e responsabilidades das redes sociais no Brasil, além de definir novas diretrizes para o combate à desinformação e ao discurso de ódio no ambiente digital.
FONTE: NOTÍCIAS AO MINUTO.