noticias177 Seja bem vindo ao nosso site Sovaco de Cobra!

Brasil

STF retoma julgamento que deve regular redes e agravar censura no Brasil

Ataque à liberdade de expressão.

Publicada em 04/06/25 às 05:27h - 19 visualizações

Leonardo Desideri, Gazeta do Povo


Compartilhe
Compartilhar a noticia STF retoma julgamento que deve regular redes e agravar censura no Brasil  Compartilhar a noticia STF retoma julgamento que deve regular redes e agravar censura no Brasil  Compartilhar a noticia STF retoma julgamento que deve regular redes e agravar censura no Brasil

Link da Notícia:

STF retoma julgamento que deve regular redes e agravar censura no Brasil
Julgamento no STF pode agravar censura no Brasil  (Foto: Fotomontagem/Fábio Souza Tavares)
O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (4) um julgamento em que deverá estabelecer seu próprio esquema de regulação das redes sociais, atropelando o Congresso e preparando terreno para um regime mais rigoroso de censura no Brasil.

O julgamento será reaberto com o voto do ministro André Mendonça, que havia pedido vista em dezembro do ano passado. O foco está na análise da constitucionalidade do artigo 19 do Marco Civil da Internet, dispositivo que hoje impede a responsabilização das plataformas digitais por conteúdos de terceiros sem ordem judicial.

Nos últimos anos, ao comentar o julgamento em questão, juristas têm repetido o beabá da tripartição dos Poderes: não é prerrogativa do Judiciário legislar, o que torna ilegal a derrubada do Marco Civil e a criação de novas regras para a internet.

Ao responder à acusação de invasão de competência na semana passada, o presidente do tribunal, Luís Roberto Barroso, já deixou quase evidente qual será a direção que ele e a maioria de seus colegas devem tomar no julgamento: "O STF esperou por muitos anos a aprovação de legislação pelo Congresso. A lei não veio, mas nós temos casos para julgar".

A tese de que haveria uma omissão legislativa a ser suprida pelo Judiciário é um argumento recorrente de ministros do STF nos últimos anos. A justificativa, no entanto, é rebatida por juristas como André Marsiglia, especialista em liberdade de expressão, que afirma que não houve omissão, mas sim uma decisão legítima do Congresso de não legislar, quando a Câmara, após discussão intensa em 2023, preferiu não votar ainda o PL 2630/2020 – chamado de PL das Fake News ou PL da Censura.

"O STF não esperou nada porque o Congresso decidiu, e a decisão foi não regular. Decisão legítima e desrespeitada pelo STF", disse Marsiglia via X, comentando as declarações recentes de Barroso. "O STF julga dizendo se o objeto das ações é constitucional ou não, só. Regular para além disso, como estão fazendo, sim, é legislar", acrescentou.

Redes sociais tenderão a praticar censura para evitar responsabilização

A julgar pelas diversas declarações dos magistrados sobre o tema do julgamento ao longo dos últimos anos, o resultado deve ser uma mudança radical nas regras que garantem a neutralidade das plataformas. As redes sociais poderão ser obrigadas a remover conteúdos de forma preventiva e sem necessidade de respaldo judicial.

"As plataformas vão ter que preventivamente remover qualquer conteúdo que seja potencialmente questionável para evitar uma responsabilização ou um passivo financeiro", lamentou Fábio Coelho, presidente do Google no Brasil, em entrevista ao UOL na segunda-feira (2). O executivo recordou que até jornalistas investigativos poderão ter seu trabalho censurado nas redes, "porque algumas pessoas podem se sentir caluniadas". "O humor também fica em risco, porque as plataformas teriam medo daquele humor ser interpretado como verdade", acrescentou.

O cenário é especialmente preocupante às vésperas das eleições presidenciais de 2026, com a expectativa de que a liberdade de expressão nas redes fique ainda mais limitada em comparação com o pleito anterior, de 2022, quando se intensificou a onda de censura prévia nas plataformas digitais.

Agora, em vez de o Judiciário acionar as plataformas, seriam as próprias empresas as responsáveis por agir de forma proativa. Para dar conta dessa nova obrigação, discute-se o uso de algoritmos automatizados para identificar e remover determinados tipos de conteúdo. Esse tipo de filtragem já é comum em casos com critérios mais objetivos, como pornografia infantil e apologia ao terrorismo, mas poderia passar a ser aplicado também a categorias muito mais subjetivas — como o chamado "discurso de ódio" —, abrindo espaço para interpretações amplas e remoções arbitrárias.

Entre as preocupações está o risco de exclusão injustificada de conteúdos que critiquem autoridades, políticos e figuras públicas, além da possibilidade de que publicações sejam removidas com base em critérios subjetivos ou por mera notificação de ofendidos.

Ministros do STF têm apresentado a proposta como um passo de vanguarda do Judiciário brasileiro. Gilmar Mendes chegou a afirmar que o julgamento do artigo 19 no Brasil poderia se tornar um "paradigma para o mundo".

A retomada do julgamento nesta quarta será marcada pela apresentação do voto de André Mendonça, que, segundo diversos veículos de comunicação, deve divergir dos três ministros que já se posicionaram. Ele deve defender a manutenção da exigência de ordem judicial para a remoção de conteúdos, reafirmando o texto atual do artigo 19 do Marco Civil.

Quais são os caminhos possíveis até agora e como eles podem provocar a censura
Mendonça, no entanto, deverá ser voto vencido. Até agora, três ministros do STF votaram pela inconstitucionalidade ao menos parcial do artigo 19 do Marco Civil da Internet, todos rompendo com a regra atual de que as plataformas digitais só podem ser responsabilizadas por conteúdo de terceiros se descumprirem ordem judicial.

O relator Dias Toffoli foi o primeiro a votar e defendeu que, em casos de desinformação que afete a integridade eleitoral ou atinja grupos vulneráveis, basta uma notificação privada do ofendido para que a plataforma passe a ser responsabilizada. Em vez de manter a exigência de ordem judicial, propôs um modelo em que a mera alegação de "fatos notoriamente inverídicos" ou "gravemente descontextualizado" já impõe obrigações às empresas.

Luiz Fux, relator de outra ação relacionada ao mesmo tema e julgada em conjunto, votou na sequência em dezembro de 2024. Embora tenha seguido a linha de Toffoli, declarando a inconstitucionalidade do artigo 19, Fux criou uma estrutura dividida entre dois regimes.

Para conteúdos que ele definiu como graves – como discurso de ódio, pedofilia, racismo, incitação à violência e apologia ao golpe de Estado –, Fux propôs aplicar o chamado "dever de cuidado", em que as plataformas seriam obrigadas a remover o conteúdo imediatamente, mesmo sem notificação.

Já para crimes contra a honra, como calúnia, injúria e difamação, Fux defendeu o "notice and takedown" (notificação e remoção): uma vez notificada, a plataforma teria de remover o conteúdo de forma imediata, sem tempo de resposta ou análise do mérito da acusação.

Luís Roberto Barroso divergiu em partes, propondo uma solução híbrida. Para ele, o artigo 19 é parcialmente inconstitucional, mas deve ser mantido para casos de crimes contra a honra, porque a crítica a figuras públicas exige proteção judicial.

Em outros casos, como pornografia infantil, induzimento ao suicídio, tráfico de pessoas, terrorismo e "abolição violenta do Estado Democrático de Direito e golpe de Estado", Barroso sugeriu a imposição do dever de cuidado às plataformas. Nesse modelo, as empresas passam a ser responsabilizadas por "falhas sistêmicas" se não conseguirem prevenir ou reagir adequadamente à disseminação desse tipo de conteúdo.

Embora mais moderado, o voto de Barroso rompe com a lógica do Marco Civil e também adiciona critérios subjetivos ao controle do discurso nas redes. "Os provedores têm o dever de cuidado de mitigar os riscos sistêmicos criados ou potencializados pelas suas plataformas. Tal dever de cuidado se materializa em medidas para minimizar esses riscos e seus impactos negativos sobre direitos individuais, coletivos, segurança e estabilidade democrática", afirmou Barroso em seu voto.

Brasil poderá ser caso único de Judiciário promovendo regulação das plataformas

Independentemente de qual for o modelo adotado, o Supremo caminha para substituir o Legislativo na tarefa de regular as redes sociais – algo sem precedentes no mundo. Outros países já promoveram a regulação das redes, mas sempre com a anuência do Legislativo.

Um marco nesse sentido foi a NetzDG, lei de 2017 da Alemanha que obriga plataformas a removerem conteúdos em até 24 horas após a notificação. A NetzDG é alvo de controvérsia justamente por induzir as redes à censura preventiva e gerar remoções excessivas, mas, ao contrário do que deve acontecer no Brasil, ela foi aprovada pelo Bundestag, o parlamento alemão.

Mesmo em regimes autoritários que seguiram o exemplo da NetzDG, como Rússia e Venezuela, a regulação das redes ocorreu por iniciativa do Executivo, com aprovação parlamentar. Em nenhum país, democrático ou autoritário, foi o Poder Judiciário quem assumiu para si sozinho a tarefa de criar as regras para a internet.

O julgamento ainda pode ser interrompido por novo pedido de vista, hipótese considerada mais plausível no caso do ministro Nunes Marques. De acordo com a GloboNews, mesmo que Nunes Marques peça vista, existe a chance de que o ministro Toffoli antecipe os efeitos da maioria pró-regulação, caso ela se forme, concedendo uma liminar na ação recente movida pela Advocacia-Geral da União (AGU) pedindo urgência na regulação das redes.



ATENÇÃO:Os comentários postados abaixo representam a opinião do leitor e não necessariamente do nosso site. Toda responsabilidade das mensagens é do autor da postagem.

Deixe seu comentário!

Nome
Email
Comentário
0 / 500 caracteres


Insira os caracteres no campo abaixo:








Nosso Whatsapp

 (88) 9.9926-5572

Visitas: 2374602
Usuários Online: 17
Copyright (c) 2025 - Sovaco de Cobra - www.sovacodecobra.com.br / A sua voz não pode cessar!