
Há momentos em que o Direito é convocado a deixar de ser apenas norma e tornar-se presença. Presença que protege, que regula e que se atualiza diante das mutações da realidade social. Foi exatamente esse o movimento promovido pelo Supremo Tribunal Federal ao reconhecer, com ineditismo e sensibilidade institucional, a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet.
O ponto de partida: uma regra que se revelou insuficiente
O artigo 19 da Lei nº 12.965/2014, em sua redação original, estabelecia que provedores de aplicações de internet só poderiam ser responsabilizados civilmente por danos decorrentes de conteúdos de terceiros após o descumprimento de ordem judicial específica. À época, a norma visava proteger a liberdade de expressão e evitar a censura privada — valores que continuam válidos. No entanto, a prática demonstrou que essa exigência, por vezes, opera como escudo à irresponsabilidade, especialmente diante de conteúdos que ferem frontalmente direitos fundamentais.
O STF, atento aos novos riscos do ambiente digital — como o uso coordenado de desinformação, discursos de ódio e redes de robôs — reconheceu que a regra geral do artigo 19 não oferece proteção adequada em cenários de ilicitudes graves ou de circulação massiva de conteúdos danosos. Assim, declarou sua inconstitucionalidade parcial e determinou nova interpretação conforme à Constituição.
O novo regime interpretativo: responsabilidade com dever de cuidado
A nova tese firmada pelo STF estabelece que os provedores de aplicações de internet:
Podem ser responsabilizados civilmente, mesmo sem ordem judicial, nos casos de conteúdos manifestamente ilícitos (como terrorismo, crimes contra crianças, discursos de ódio, misoginia, racismo e condutas antidemocráticas).
Devem agir com diligência para remover conteúdos em tempo razoável, sob pena de responderem por omissão, especialmente quando houver falha sistêmica.
São presumidamente responsáveis em casos de impulsionamentos pagos ou de redes artificiais de distribuição (como robôs), salvo se comprovarem medidas eficazes de prevenção e controle.
Além disso, há um avanço importante: a possibilidade de remoção extrajudicial de conteúdos em situações de reincidência (replicações de publicações já reconhecidas como ilícitas) e em casos de perfis inautênticos.
Efeitos modulados: segurança jurídica e apelo ao legislador
A decisão tem efeitos apenas prospectivos, protegendo a segurança jurídica dos atos passados. Ao mesmo tempo, o STF conclamou o Congresso Nacional a legislar sobre a matéria, para superar as lacunas do atual modelo normativo e oferecer soluções equilibradas para a convivência entre liberdade de expressão e proteção de direitos fundamentais no ambiente digital.
Implicações práticas: um novo padrão de atuação para as plataformas
As plataformas digitais — as chamadas big techs — passam a ter deveres concretos:
Estabelecer sistemas de notificação e resposta com devido processo;
Publicar relatórios anuais de transparência sobre conteúdos removidos e anúncios impulsionados;
Disponibilizar canais acessíveis de atendimento;
Manter representação legal no Brasil, com poderes suficientes para responder administrativa e judicialmente.
Conclusão: do silêncio permissivo à responsabilidade ativa
A decisão do STF inaugura um novo capítulo na regulação da internet brasileira. Em vez de uma neutralidade algorítmica que se omite, exige-se agora uma responsabilidade digital que se compromete com os valores constitucionais. A regra de ouro deixou de ser a inércia até ordem judicial, para se tornar a ação preventiva, diligente e proporcional.
O Marco Civil da Internet continua sendo um marco. Mas, como toda boa lei em uma democracia viva, precisa evoluir. O Supremo, sem usurpar o papel do Legislativo, apenas devolveu ao Direito sua missão: proteger as pessoas, especialmente nos lugares onde sua dignidade corre maior risco — inclusive na selva algorítmica das redes.
26/06/2025
Guilherme Chambarelli
16/11/2022
Guilherme Chambarelli
29/06/2025
Guilherme Chambarelli