
O Supremo Tribunal Federal (STF) concluiu nesta quarta-feira (26) um julgamento histórico que redefine as regras de responsabilidade civil das plataformas digitais por conteúdos publicados por usuários. Por 8 votos a 3, os ministros declararam a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet (MCI), que exigia ordem judicial específica para responsabilizar redes sociais por postagens ofensivas.
A decisão estabelece três níveis distintos de responsabilização para provedores e redes sociais:
1. Remoção proativa para casos graves: plataformas deverão agir imediatamente, sem necessidade de notificação ou ordem judicial, para remover conteúdos com discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. A omissão nesses casos poderá levar à responsabilização civil direta.
2. Notificação extrajudicial como gatilho: para outros tipos de conteúdo ilícito, como ataques pessoais e desinformação grave, as empresas serão responsabilizadas se não removerem o material após notificação extrajudicial e posterior reconhecimento judicial da ofensa.
3. Crimes contra a honra: mantém-se a exigência de ordem judicial para remoção de conteúdos envolvendo difamação, calúnia e injúria, como forma de preservar a liberdade de expressão.
O ministro relator Dias Toffoli destacou em seu voto que “o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção de direitos fundamentais”. A decisão vale até que o Congresso Nacional aprove nova legislação sobre o tema, com a Corte fazendo um apelo expresso para que os parlamentares se debrucem sobre a matéria.

A expectativa é que o julgamento force mudanças significativas na atuação das plataformas digitais no Brasil. As grandes redes sociais deverão revisar suas políticas de moderação de conteúdo, implementar protocolos mais rigorosos para casos graves e estruturar canais eficientes para recebimento e processamento de notificações.
Também ficam obrigadas a manter relatórios de transparência sobre notificações recebidas e estabelecer representação formal no país.
A decisão lista categorias de conteúdo que exigem ação imediata das plataformas:
– Atos antidemocráticos (golpe de Estado, violência política)
– Terrorismo e atos preparatórios
– Indução ao suicídio ou automutilação
– Incitação à discriminação (racial, religiosa, de gênero)
– Crimes contra mulheres
– Pornografia infantil e crimes contra menores
– Tráfico de pessoas
O STF ressaltou que a responsabilidade surge quando há “falha sistêmica” – ou seja, quando a plataforma deixa de adotar medidas preventivas ou de remoção adequadas. Casos isolados não configuram automaticamente responsabilidade.
A Corte fez um apelo ao Legislativo para que elabore nova legislação sobre o tema, afirmando que a decisão judicial vale “enquanto não houver nova lei capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”.
A expectativa é que o julgamento force uma maior autorregulação por parte das plataformas e acelere a tramitação de projetos de lei sobre o tema no Congresso Nacional.
Fonte: DCM