REDES SOCIAIS | Notícia

Moraes, em seu voto, diz que big techs 'têm ideologia' e autorregulação faliu

Há diferentes propostas em análise no STF. Os votos têm convergências, mas os ministros ainda não chegaram a um consenso sobre o tema

Por Estadão Conteúdo Publicado em 12/06/2025 às 21:48

O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), deu nesta quinta-feira (12) mais um voto para ampliar as obrigações de provedores e plataformas de redes sociais na moderação de conteúdo e responsabilizar essas empresas se não excluírem prontamente publicações criminosas dos usuários. A Corte já havia formado maioria nesse sentido. O único voto divergente foi dado pelo ministro André Mendonça.

Moraes votou para equiparar legalmente provedores de redes sociais e serviços de mensageria privada, como WhatsApp e Telegram, aos meios de comunicação tradicionais, o que aumentaria a responsabilidade das empresas pelo conteúdo que circula online. O voto de Moraes era um dos mais aguardados, já que a regulamentação das redes é uma das bandeiras do ministro. Durante o julgamento, ele exibiu vídeos dos atos golpistas do dia 8 de janeiro de 2023 na Praça dos Três Poderes, em Brasília

Para Moraes, as big techs não podem ser "terra sem lei" nem operar com "imunidade territorial absoluta" por estarem na internet. Também defendeu que essas empresas não são imparciais, porque impulsionam publicações e anúncios, e devem ser fiscalizadas e punidas como qualquer outro segmento econômico.

"Não há transparência na utilização dos algoritmos. As big techs têm ideologia política, têm crença religiosa. Não há nenhum problema nisso. Só que não podem querer posar de instrumentos neutros, instrumentos imparciais", criticou. O ministro argumentou ainda que o Supremo só está analisando o tema por causa da "falência da autorregulação" das redes sociais.

'Abuso'

"Aqui não se discute nenhuma limitação ao exercício da liberdade de expressão, aqui se discute a responsabilização pelo abuso criminoso da expressão", afirmou Moraes. "Ninguém jamais defendeu a liberdade absoluta de expressão que se idealizou nos novos regimes populistas, os extremistas digitais, querendo dizer que tudo pode, tudo vale, e que não precisam ser responsabilizados", complementou.

O julgamento no Supremo gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.

Nesta quarta, 11, o tribunal formou maioria para criar parâmetros de atuação das big techs. Os ministros apresentaram propostas diferentes e o plenário precisa agora equilibrá-las em uma tese para ser aplicada nacionalmente pelo Poder Judiciário. O julgamento é considerado internamente o mais importante da história recente do STF.

Os ministros entendem que houve uma "desconstitucionalização" do artigo 19, ou seja, a norma era adequada no momento em que foi aprovada, em 2004, mas, no estágio atual das redes sociais, não é mais suficiente para resguardar os usuários no ambiente virtual em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes, golpes, discurso de ódio e fake news.

Entre os pontos de preocupação citados pelos ministros são a proteção de crianças e adolescentes, de minorias sociais e da democracia. Além de Moraes, votaram pela responsabilização das big techs Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin e Gilmar Mendes.

Poderes

O assunto está no radar dos ministros há mais de dois anos. Havia expectativa de que o Congresso avançasse na regulamentação das redes sociais, mas, com o fracasso do chamado PL das Fake News, após pressão das big techs, o STF decidiu agir.

Uma ala da Câmara e do Senado acusa o tribunal de avançar sobre atribuições do Legislativo, mas os ministros consideraram que não era mais possível aguardar o Congresso. O debate ganhou força no STF após o descumprimento de decisões judiciais por plataformas estrangeiras, como Telegram e X, que ofereceram resistência em nomear representantes legais no Brasil.

Na avaliação de Moraes, as plataformas devem responder por todos os conteúdos direcionados por algoritmos e impulsionamentos pagos, por contas inautênticas e robôs e por discursos de ódio e antidemocráticos, independentemente de notificação judicial ou extrajudicial. Também defende que as big techs sejam obrigadas a manter um representante legal no Brasil e a monitorar riscos sistêmicos à democracia, o que criaria um dever preventivo às plataformas.

Debate

Há diferentes propostas em análise no STF. Os votos têm convergências, mas os ministros ainda não chegaram a um consenso. O plenário precisa definir os regimes de responsabilização das plataformas. Um dos pontos em aberto é saber quando as empresas devem agir por iniciativa própria para remover conteúdos criminosos, como já ocorre nos casos de pornografia infantil, pedofilia e violação de direitos autorais, e em que situações elas podem exigir ordem judicial ou no mínimo uma notificação privada dos usuários que se sentirem ofendidos.

A votação será retomada no dia 25 com o voto do ministro Edson Fachin. A ministra Cármen Lúcia, que acumula a função de presidente do Tribunal Superior Eleitoral (TSE), está em agenda fora do País e também não votou. O ministro Kassio Nunes Marques pediu mais tempo para analisar as propostas dos colegas. São os três últimos votos pendentes.

 
 

Compartilhe

Tags