27/06/2025
Brasil

STF decide pela responsabilização das redes por conteúdo e define critérios para retirada de posts

Plenário do STF durante sessão de julgamento — Foto: Gustavo Moreno

O Supremo Tribunal Federal (STF) decidiu nesta quinta-feira novas regras de responsabilização das redes sociais por conteúdos publicados. Por maioria de votos, os ministros decidiram que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional.

O artigo 19 da lei determina que as plataformas só são responsáveis por danos de conteúdos publicados por terceiros caso descumpram uma decisão judicial de retirada da publicação. Agora, esse entendimento vale apenas para os crimes contra a honra.

— Nós previmos casos em que basta a notificação privada, quando haja crime ou quando haja ato ilícito. Nessas hipóteses, basta a notificação privada para gerar o dever à plataforma de remover o conteúdo. Nos demais casos, continua-se a exigir ordem judicial — explicou o presidente do STF, Luís Roberto Barroso.

Os ministros decidiram que o artigo 19 “deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil”.

A decisão foi tomada por oito votos a três, com as discordâncias de André Mendonça, Edson Fachin e Nunes Marques. Os ministros realizaram um almoço nesta quinta, que durou cerca de duas horas, para chegar a uma posição intermediária na tese.

Ficou estabelecida uma “presunção de responsabilidade” das plataformas em relação a conteúdos ilícitos que tenham sido exibidos em anúncios e impulsionamentos pagos.

Poderá haver responsabilização mesmo sem uma notificação extrajudicial, mas os provedores ficam isentos de punição “se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo”.

Também foi determinado o chamado “dever de cuidado” em relação a conteúdos criminosos graves. As redes sociais devem atuar para impedir a circulação de condutas e atos antidemocráticos, terrorismo, instigação ao suicídio e discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero.

As plataformas podem ser responsabilizadas caso ocorra uma “falha sistêmica” em relação a esses conteúdos, e não por publicações isoladas.

— Além dos casos de ordem judicial e notificação privada, os casos que nós referimos como dever de cuidado. São aqueles temas que a plataforma deve zelar para que sequer cheguem ao espaço público. O algoritmo tem que ser programado para evitar — afirmou Barroso.

Fonte: O Globo

Blog do Ralfe Reis - Conteúdo exclusivo e credibilidade

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *