STF Discute Aumento de Responsabilidade de Big Techs sobre Conteúdos Relacionados a Golpes de Estado
Google e Facebook sinalizam aceitar maior responsabilização em casos específicos durante julgamento no STF
O Supremo Tribunal Federal (STF) iniciou nesta quarta-feira (27) o julgamento de processos que tratam da regulação das big techs e da validade do Marco Civil da Internet. Durante a sessão, Google e Facebook defenderam o modelo atual de regulação, mas admitiram a possibilidade de ampliação limitada de sua responsabilidade sobre conteúdos relacionados a crimes graves, como tentativas de golpe de Estado ou terrorismo.
Contexto do Julgamento
A análise do STF ocorre devido à paralisia do Congresso em avançar na regulação das plataformas digitais, especialmente após a estagnação do projeto de lei das fake news. Atualmente, o Marco Civil da Internet estabelece que as plataformas só podem ser responsabilizadas civilmente por danos causados por conteúdos postados por usuários se descumprirem uma ordem judicial de remoção.
Existem, no entanto, duas exceções:
- Divulgação de imagens ou vídeos de nudez ou atos sexuais de caráter privado.
- Violação de direitos autorais.
Nesses casos, as plataformas podem ser responsabilizadas mediante notificação extrajudicial.
Posições de Google e Facebook
O Facebook sugeriu que o Marco Civil da Internet poderia ser ajustado para incluir situações específicas que permitam a remoção de conteúdos com base em notificações de usuários, sem necessidade de decisão judicial. A lista proposta pela empresa inclui:
- Exploração sexual infantil;
- Terrorismo;
- Racismo;
- Abolição violenta do Estado democrático de direito;
- Golpe de Estado.
O advogado José Rollemberg Leite Neto, representante do Facebook, destacou a importância de evitar conceitos vagos, como fake news ou crimes contra a honra, que poderiam levar a remoções excessivas e a uma “judicialização massiva”. Segundo ele, eventuais mudanças devem ser legislativas e não desqualificam o modelo atual como inconstitucional.
O Google também defendeu ajustes cautelosos, restringindo a ampliação da responsabilidade a situações objetivas, como:
- Abolição violenta do Estado de direito;
- Golpe de Estado;
- Terrorismo;
- Violência ou abuso infantil;
- Instigação ao suicídio ou automutilação.
O advogado Eduardo Bastos Furtado de Mendonça argumentou contra a criação de um “dever de monitoração” das empresas e enfatizou a importância de notificações de usuários como critério inicial para remoção de conteúdo. Ele alertou que responsabilizar as plataformas por conteúdos subjetivos poderia levar à remoção indiscriminada de publicações.
Próximos Passos
O julgamento será retomado na quinta-feira (28), com a continuidade das manifestações de entidades envolvidas. A decisão do STF pode redefinir os parâmetros de regulação das plataformas digitais no Brasil, especialmente em temas sensíveis e de alto impacto social.
A questão central é equilibrar a liberdade de expressão com a necessidade de proteger a sociedade contra conteúdos potencialmente perigosos, garantindo segurança jurídica às big techs e aos usuários.


Deixe uma resposta