O Supremo Tribunal Federal (STF) concluiu nesta quinta-feira (26/06/2025) o julgamento do Recurso Extraordinário (RE) 1037396 (Tema 987), com repercussão geral, e declarou a inconstitucionalidade parcial e progressiva do artigo 19 da Lei nº 12.965/2014, o Marco Civil da Internet (MCI). A Corte entendeu que a exigência de ordem judicial específica para responsabilização civil de provedores por conteúdos de terceiros é, em parte, insuficiente para proteger direitos fundamentais e a democracia, configurando uma omissão legislativa parcial.
Decisão altera interpretação do artigo 19 do MCI
Segundo a tese fixada pelo STF, enquanto não houver nova legislação aprovada pelo Congresso Nacional, os provedores de aplicações de internet poderão ser responsabilizados civilmente por crimes e atos ilícitos praticados por terceiros, mesmo sem ordem judicial, desde que, após notificação, não atuem para a remoção do conteúdo.
Ficou mantida a aplicação do artigo 19 nos casos de crimes contra a honra, mas o STF admitiu que as plataformas realizem a remoção com base em notificações extrajudiciais. Nos casos de replicação de conteúdo ofensivo já considerado ilícito por decisão judicial, a remoção poderá ser exigida com base em nova notificação, judicial ou extrajudicial, sem necessidade de nova sentença.
Responsabilidade objetiva em casos de conteúdos ilícitos graves
Foi também estabelecido que, em casos de crimes graves, as plataformas respondem civilmente pela falha sistêmica, quando não adotarem medidas preventivas ou corretivas imediatas. Estão incluídos nessa categoria:
-
Tentativa de golpe de Estado e crimes antidemocráticos (arts. 359-L a 359-R do Código Penal);
-
Terrorismo e crimes preparatórios (Lei nº 13.260/2016);
-
Indução ou instigação ao suicídio e automutilação;
-
Racismo, homofobia e transfobia;
-
Crimes contra mulheres e violência de gênero;
-
Pornografia infantil e crimes sexuais contra vulneráveis;
-
Tráfico de pessoas.
A Corte considera que a recorrência ou disseminação em massa desses conteúdos, sem resposta eficaz da plataforma, configura falha sistêmica. A mera presença isolada não enseja responsabilidade automática, mas aciona o regime previsto no artigo 21 do MCI.
Publicidade, redes artificiais e contas falsas
Os ministros também definiram que há presunção de responsabilidade das plataformas quando conteúdos ilícitos forem impulsionados de forma paga ou disseminados por meios automatizados, como bots ou redes artificiais. Nesses casos, não é necessária notificação prévia, e a empresa só poderá se eximir se comprovar atuação diligente e tempestiva.
As contas inautênticas — como perfis falsos ou bots — também estão incluídas nas hipóteses em que se aplica a responsabilização civil, reforçando o dever de moderação ativa por parte das empresas.
Dever de autorregulação e transparência
Os provedores deverão criar regras próprias de autorregulação, com sistemas de notificação, canais acessíveis de atendimento, e relatórios públicos anuais de transparência. Essas normas devem ser revisadas periodicamente e disponibilizadas ao público. Além disso:
-
As plataformas deverão manter representação jurídica no Brasil, com plenos poderes para responder judicial e administrativamente;
-
Os representantes legais deverão prestar informações sobre moderação de conteúdo, publicidade, algoritmos e riscos sistêmicos;
-
A responsabilidade civil, conforme o novo entendimento, será subjetiva, e não objetiva, exigindo comprovação de culpa ou omissão.
Modulação de efeitos e papel do Congresso Nacional
Os efeitos da decisão foram modulados, ou seja, só se aplicam a partir da data do julgamento, preservando as situações já julgadas com trânsito em julgado. O STF fez ainda um apelo ao Congresso Nacional para que atualize a legislação, diante da insuficiência do marco normativo vigente frente à complexidade do ambiente digital e à ameaça a direitos constitucionais.
Casos concretos: Facebook e Google
A decisão do STF abrange dois casos específicos:
-
No RE 1037396, o Facebook foi condenado por não excluir um perfil falso no prazo devido, sendo mantida a decisão do Tribunal de Justiça de São Paulo;
-
No RE 1057258, o Google foi absolvido da obrigação de indenizar por danos morais decorrentes de uma comunidade ofensiva no extinto Orkut, reformando a decisão do tribunal inferior.
Análise comparativa: Estados Unidos x Brasil (STF)
Estados Unidos: Proteção ampla às plataformas — Seção 230 do CDA
Nos Estados Unidos, a responsabilidade das plataformas digitais é regida, sobretudo, pela Seção 230 do Communications Decency Act (CDA), de 1996. Essa norma estabelece que:
“Nenhum provedor ou usuário de um serviço interativo de computador deve ser tratado como o editor ou orador de qualquer informação fornecida por outro fornecedor de conteúdo.” (47 U.S. Code § 230)
Principais características do modelo norte-americano:
-
Blindagem legal ampla: As plataformas não são civilmente responsabilizadas pelo conteúdo gerado por terceiros, exceto em casos muito específicos (como crimes federais, propriedade intelectual, ou conteúdo envolvendo exploração infantil).
-
Ausência de exigência de moderação compulsória: Não há obrigação jurídica para remoção imediata de conteúdo após notificação, salvo em casos expressamente previstos em lei.
-
Foco na liberdade de expressão: O modelo prioriza a First Amendment (Primeira Emenda da Constituição dos EUA), que protege de forma robusta a liberdade de expressão contra interferências estatais, inclusive judiciais.
Brasil: Responsabilização progressiva e moderação compulsória
Com a decisão do STF em 26/06/2025, estabeleceu-se no Brasil:
-
Inconstitucionalidade parcial do art. 19 do Marco Civil da Internet, que exigia ordem judicial para responsabilização civil.
-
Possibilidade de responsabilização com base apenas em notificação extrajudicial, mesmo sem decisão judicial.
-
Obrigação de remoção imediata em casos de crimes considerados “graves” ou “antidemocráticos”.
-
Presunção de culpa quando conteúdos forem impulsionados por anúncios pagos ou redes automatizadas (bots).
-
Dever de autorregulação obrigatória pelas plataformas, com relatórios públicos e canais permanentes de atendimento.
Análise crítica: impactos sobre a liberdade de expressão e imprensa no Brasil
1. Supressão do crivo judicial prévio
A decisão do STF permite que plataformas removam conteúdos com base em notificações extrajudiciais, o que dispensa a mediação do Poder Judiciário. Isso pode:
-
Criar censura privada preventiva;
-
Inibir o jornalismo investigativo, especialmente em casos de denúncia de autoridades ou grupos poderosos;
-
Gerar insegurança jurídica sobre o que pode ou não ser publicado.
2. Deslocamento da função judicial para empresas privadas
Ao obrigar plataformas a atuar como órgãos julgadores de legalidade de conteúdo, o STF transfere para empresas privadas uma competência típica do Judiciário, sem as garantias constitucionais do devido processo legal, contraditório e ampla defesa.
3. Risco de abuso em ambientes polarizados
Num cenário de polarização política ou mobilizações em massa, a obrigação de remoção imediata por “falha sistêmica” em casos de conteúdos antidemocráticos pode ser manipulada para suprimir manifestações críticas legítimas, em nome de uma suposta defesa da ordem constitucional.
4. Criminalização indireta de discurso protegido
Embora a decisão exclua a responsabilização objetiva, a presunção de responsabilidade em certos casos pode gerar efeito inibidor (chilling effect), desestimulando usuários e jornalistas a abordar temas controversos ou contramajoritários.
5. Contraste com a Primeira Emenda dos EUA
Enquanto nos Estados Unidos prevalece o princípio de que a liberdade de expressão inclui o direito de errar, no Brasil a decisão do STF abre caminho para uma moderação mais agressiva, com risco de retaliações indiretas à liberdade jornalística e ao pluralismo informativo.
Poder de censura privada e controle judicial
A decisão do STF representa uma inflexão importante no regime jurídico da internet no Brasil. Embora se justifique pela necessidade de combater crimes graves e proteger a democracia, a forma como foi estruturada amplia o poder de censura privada, reduz o controle judicial e fragiliza a liberdade de imprensa.
Diferentemente do modelo americano — onde a liberdade de expressão é central e os intermediários têm proteção reforçada —, o modelo brasileiro agora caminha para um paradigma regulatório mais intervencionista, com potenciais riscos à livre circulação de ideias e ao exercício da crítica jornalística.
Principais dados da decisão do STF sobre o artigo 19 do Marco Civil da Internet
1. Inconstitucionalidade Parcial do Art. 19 do MCI
-
Artigo 19 da Lei nº 12.965/2014 é considerado parcialmente inconstitucional.
-
Razão da inconstitucionalidade: regra geral não protege adequadamente direitos fundamentais e a democracia.
-
Há omissão parcial legislativa, que deve ser sanada pelo Congresso Nacional.
2. Hipóteses de Responsabilização Civil
a) Casos Gerais
-
Provedores serão responsabilizados civilmente se não retirarem conteúdo ilícito após notificação, mesmo sem ordem judicial.
-
Aplicável também em casos de contas falsas ou inautênticas.
b) Crimes Contra a Honra
-
Artigo 19 permanece aplicável.
-
Remoção pode ocorrer com base em notificação extrajudicial, mesmo sem decisão judicial.
c) Conteúdo Repetido Ofensivo
-
Quando conteúdo ofensivo for replicado após decisão judicial, a remoção será exigida sem nova decisão, bastando nova notificação (judicial ou extrajudicial).
3. Presunção de Responsabilidade
-
Provedores são presumidamente responsáveis por:
-
Anúncios e impulsionamentos pagos
-
Conteúdos veiculados por redes artificiais (bots/chatbots)
-
-
Nesses casos, dispensa-se a notificação prévia.
-
Provedor se exime se comprovar que agiu diligentemente e em tempo razoável.
4. Crimes Graves com Responsabilidade por Falha Sistêmica
Responsabilização ocorre se não houver remoção imediata nos seguintes crimes:
-
Atos antidemocráticos (arts. 359-L a 359-R, CP)
-
Terrorismo e preparatórios (Lei 13.260/2016)
-
Indução ao suicídio ou automutilação (art. 122, CP)
-
Discriminação racial, religiosa, sexual ou de gênero (Lei 7.716/1989)
-
Crimes contra mulheres (Lei Maria da Penha e correlatas)
-
Pornografia infantil e crimes sexuais contra crianças e adolescentes
-
Tráfico de pessoas
Observações:
-
Isolamento do conteúdo não gera responsabilidade automática.
-
Responsável pode requerer judicialmente o restabelecimento do conteúdo.
-
Não há dever de indenizar o provedor se conteúdo for restaurado judicialmente.
5. Autorregulação e Deveres das Plataformas
-
Plataformas deverão:
-
Estabelecer sistema de notificações e relatórios anuais de transparência
-
Disponibilizar canais de atendimento eletrônicos permanentes e acessíveis
-
Revisar periodicamente as regras de moderação
-
Manter sede e representante legal no Brasil, com poderes para:
-
Responder judicial e administrativamente
-
Prestar informações técnicas e operacionais
-
Cumprir determinações e penalidades judiciais
-
-
6. Incidência Específica do Art. 19 do MCI
-
Art. 19 continuará a se aplicar integralmente aos seguintes serviços:
-
E-mails
-
Aplicações de reuniões fechadas por vídeo ou voz
-
Serviços de mensagens instantâneas privadas, quando envolverem comunicações interpessoais protegidas por sigilo constitucional (art. 5º, XII da CF/88)
-
Marketplaces
-
Provedores que atuam como marketplaces estão sujeitos ao Código de Defesa do Consumidor (Lei nº 8.078/1990).
Natureza da Responsabilidade
-
A responsabilidade não é objetiva. Exige-se comprovação de culpa ou falha sistêmica para que haja responsabilização civil das plataformas.
Modulação dos Efeitos
-
A decisão vale apenas prospectivamente.
-
Casos já transitados em julgado não serão afetados, garantindo segurança jurídica.
Apelo ao Congresso Nacional
-
O STF recomenda a atualização legislativa para corrigir as deficiências normativas identificadas no Marco Civil da Internet, sobretudo quanto à proteção de direitos fundamentais em ambiente digital.
Share this:
- Click to print (Opens in new window) Print
- Click to email a link to a friend (Opens in new window) Email
- Click to share on X (Opens in new window) X
- Click to share on LinkedIn (Opens in new window) LinkedIn
- Click to share on Facebook (Opens in new window) Facebook
- Click to share on WhatsApp (Opens in new window) WhatsApp
- Click to share on Telegram (Opens in new window) Telegram
Relacionado
Discover more from Jornal Grande Bahia (JGB)
Subscribe to get the latest posts sent to your email.





Uma resposta
Tendo como base estas novas interpretações da lei, entende-se que a suposta ASTRONAUTA BRASILEIRA deverá, isso baseado na decisão do STF, ter seus perfis banidos pelas bigtecs (que acho bom, pois ela realmente fez um desserviço e fakenews), eu queria saber como ficarão os tantos e tantos “influences” que fazem promoções de jogas de azar e “tigrinhos” que são golpes e apps manipulados para somente o desenvolvedor ganhar e não o apostador.
E como ficariam estes tantos vídeos, feitos por AI e comediantes que fazem brincadeiras e piadas de tudo? Serão, sem prévio aviso e ao pedido somente de uma notificação extrajudicial eliminados das redes?
Não que eu concorde com todo o conteúdo destes comediantes mas se você não gosta, não consuma, simples.
Outro fato relevante, conteúdos como os postados por professores que comentem códigos, artigos e processos (no âmbito do direito) poderão estar “ofendendo” certos limites e critérios estando agora na seara da subjetividade de interpretação e passíveis de serem apagados das redes, assim como opiniões e comentários quaisquer que sejam, de pessoa física ou jurídica, que resolvem expressar por palavras suas indignações, opiniões ou solidariedade na forma de um vídeo ou texto.
Não sou hipócrita ao ponto de achar que tudo pode, claro que não, mas ao tentar controlar tudo, criamos uma zona escura onde muitos migrariam para a deep web e com isso teríamos sim algo sem controle beirando o caos.
Ações como esta me faz lembrar da clássica obra 1984 de George Orwell, e o GRANDE IRMÃO com mão de ferro nos controlando e limitando hoje em nosso comunicar, em breve em nosso pensar.