Por decisão inédita, o Supremo Tribunal Federal (STF) determinou que redes sociais como Facebook, Instagram, YouTube, TikTok e outras poderão ser responsabilizadas diretamente por conteúdos criminosos postados por usuários. A medida representa uma reinterpretação do Marco Civil da Internet e impõe novas exigências às plataformas.
Na sessão desta quinta-feira (26), os ministros do STF decidiram, por 8 votos a 3, que o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é apenas parcialmente constitucional. Até agora, a regra previa que as plataformas só poderiam ser responsabilizadas civilmente se não retirassem do ar conteúdos ilegais após uma ordem judicial. A nova interpretação, no entanto, amplia a responsabilidade das empresas.
Notificação extrajudicial passa a ser suficiente
A partir de agora, as plataformas devem remover conteúdos considerados ilegais assim que forem notificadas extrajudicialmente ou seja, mesmo sem uma decisão da Justiça. Caso não cumpram a solicitação, poderão ser responsabilizadas por danos morais e materiais causados pelas publicações.
A decisão afeta diretamente o funcionamento das chamadas “big techs” no Brasil, um dos maiores mercados para empresas como Meta (Facebook, Instagram, WhatsApp), Google (YouTube) e ByteDance (TikTok).
Veja Quais conteúdos estão incluídos?
O STF definiu que as redes devem agir rapidamente para remover conteúdos relacionados aos seguintes crimes:
-
Atos antidemocráticos
-
Terrorismo
-
Estímulo ao suicídio ou à automutilação
-
Discriminação por raça, cor, etnia, religião, nacionalidade, sexualidade ou identidade de gênero
-
Violência de gênero e discursos de ódio contra mulheres
-
Crimes sexuais e pornografia infantil envolvendo pessoas vulneráveis
Além disso, qualquer replicação de postagens já consideradas ilegais pela Justiça também deve ser retirada do ar por todas as plataformas, sem necessidade de nova decisão judicial.
Impulsionamento e uso de robôs
Nos casos de impulsionamento pago ou uso de bots (robôs virtuais) para disseminar conteúdos criminosos, as plataformas podem ser responsabilizadas diretamente, sem necessidade de notificação prévia.
O que continua igual?
Em casos de crimes contra a honra, como calúnia, difamação e injúria entre pessoas, ainda será necessária uma ordem judicial para a remoção do conteúdo.
Também continuam protegidos pelo sigilo as mensagens privadas enviadas por e-mail, WhatsApp e Telegram. Segundo o STF, essas plataformas não podem ser responsabilizadas diretamente, e o Artigo 19 continua valendo nesses casos.
Transparência e representação no Brasil
A decisão também impõe novas obrigações às plataformas:
-
Criar e publicar regras de autorregulação para lidar com notificações extrajudiciais
-
Apresentar relatórios anuais sobre remoção de conteúdo
-
Ter representação legal no Brasil, com capacidade de responder às demandas da Justiça
Quando passa a valer?
A decisão tem efeito imediato, mas não retroativo. Isso significa que vale apenas para novos casos, e não afetará postagens passadas. As novas regras permanecerão em vigor até que o Congresso Nacional aprove uma nova legislação específica sobre o tema.