Em julgamento conjunto do Tema 533 e do Tema 987 da repercussão geral, o Supremo Tribunal Federal (STF) decidiu, em 26 de junho, que o artigo 19 do Marco Civil da Internet (Lei 12.965/14) é parcialmente inconstitucional. O artigo condiciona a responsabilização civil de provedores à existência de ordem judicial prévia para remoção de conteúdo gerado por terceiros.

Como abordado em artigo anterior, o Plenário já havia formado maioria pela inconstitucionalidade em 12 de junho, por um placar de 7 x1, com divergências sobre a extensão da inconstitucionalidade.  

Na retomada do julgamento, em 25 do mesmo mês, votaram a ministra Cármen Lúcia, a favor da inconstitucionalidade, e o ministro Edson Fachin, em sentido contrário. No dia seguinte, o ministro Nunes Marques deu o seu voto, que acompanhou o entendimento do ministro André Mendonça.

Esse último voto, apesar de favorável à constitucionalidade do decreto, sedimentou a decisão: o artigo 19 do Marco Civil da Internet foi considerado parcialmente inconstitucional pelo STF.

Com um placar de 8x3, o julgamento, portanto, estabeleceu um novo paradigma: as plataformas terão de atuar com maior agilidade e responsabilidade para impedir a circulação de conteúdo ilícito, sob pena de responder civilmente, mesmo sem provocação judicial. No fim do julgamento, o Supremo Tribunal Federal fixou nova tese sobre responsabilização das plataformas por conteúdos de terceiros, que passa a orientar o tema em todo o país.

O regime de responsabilidade das plataformas digitais no Brasil redefinido pela Suprema Corte, institui novos parâmetros para a proteção de direitos fundamentais no ambiente virtual e impõe deveres mais rigorosos às empresas de tecnologia.

Nova tese firmada

Conheça os principais pontos da tese firmada pelo STF no julgamento.

  • O artigo 19 do Marco Civil da Internet (Lei 12.965/14), que exigia ordem judicial específica para a responsabilização civil de provedores de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, foi declarado parcialmente inconstitucional. O STF reconheceu que a regra geral do artigo 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância, como a proteção de direitos fundamentais e da democracia.
  • Até que sobrevenha nova legislação, os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e dos atos normativos expedidos pelo TSE.
  • O provedor de aplicações de internet será responsabilizado civilmente, de acordo com o artigo 21 do Marco Civil da Internet, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem que isso o dispense do dever de remoção do conteúdo. A mesma regra se aplica a contas denunciadas como inautênticas.
  • Em crimes contra a honra, aplica-se o artigo 19 do Marco Civil da Internet, sem prejuízo da possibilidade de remoção por notificação extrajudicial.
  • Em caso de sucessivas replicações de fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com conteúdos idênticos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
  • Fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos ilícitos quando se tratar de anúncios e impulsionamentos pagos ou de rede artificial de distribuição (chatbots ou robôs), podendo haver responsabilização independentemente de notificação. Para afastar a responsabilidade, os provedores devem comprovar que atuaram diligentemente e em tempo razoável para retirar o conteúdo do ar.
  • O provedor de aplicações de internet é responsável se não tornar indisponível imediatamente conteúdos que reproduzam a prática de crimes graves, como condutas e atos antidemocráticos, terrorismo, induzimento ou instigação ao suicídio, incitação à discriminação, crimes contra a mulher, crimes sexuais contra vulneráveis e tráfico de pessoas.
  • A responsabilidade dos provedores nesses casos está relacionada à configuração de falha sistêmica, caracterizada pela ausência de medidas adequadas de prevenção ou remoção dos conteúdos ilícitos. A existência de conteúdo ilícito de forma isolada não é suficiente para levar à responsabilidade civil, aplicando-se, nesse caso, o artigo 21 do Marco Civil da Internet.
  • O responsável poderá requerer judicialmente o retorno da postagem, desde que demonstrada a ausência de cometimento do ilícito, sem direito a indenização pelo provedor.
  • O artigo 19 do Marco Civil da Internet permanece aplicável a provedores de serviço de e-mail, de aplicações para reuniões fechadas por vídeo ou voz e de mensageria privada, exclusivamente no que se refere às comunicações pessoais, resguardado o sigilo da comunicação.
  • Os provedores de internet que funcionarem como marketplace respondem civilmente de acordo com o Código de Defesa do Consumidor.
  • Os provedores deverão editar autorregulação abrangendo sistema de notificações, devido processo e relatórios anuais de transparência, além de disponibilizar canais de atendimento acessíveis e públicos.
  • As regras deverão ser revisadas rotineiramente de forma transparente.
  • Provedores com atuação no Brasil devem manter sede e representante no país, com poderes para responder administrativa e judicialmente, prestar informações às autoridades e cumprir determinações judiciais.
  • Não haverá responsabilidade objetiva na aplicação da tese anunciada.
  • O STF apelou ao Congresso Nacional para que elabore legislação capaz de eliminar as deficiências do Marco Civil da Internet em relação à proteção de direitos fundamentais.
  • A modulação dos efeitos da decisão prevê aplicação prospectiva, ressalvadas as decisões já transitadas em julgado.

Como votaram os ministros

O ministro Luís Roberto Barroso defendeu que o artigo 19, ao exigir ordem judicial para a remoção de conteúdos, não protege adequadamente interesses de grande relevância, como a proteção de direitos fundamentais e da democracia.

Para ele, é preciso flexibilizar: crimes contra a honra e ilícitos civis seguiriam dependendo de decisão judicial, enquanto outros crimes poderiam ser removidos após notificação extrajudicial. Já anúncios e impulsionamentos pagos gerariam presunção de conhecimento do ilícito pelas plataformas.

O ministro Barroso propôs a adoção de um modelo dual, responsabilização subjetiva das plataformas (ou seja, depende de culpa ou dolo) combinada com um dever de cuidado para prevenir e mitigar riscos sistêmicos, especialmente em relação a conteúdos extraordinariamente nocivos. Além disso, sugeriu medidas como canais de denúncia, devido processo e relatórios de transparência.

O ministro Gilmar Mendes foi além afirmou que as plataformas já deixaram de ser "meros condutores" para se tornarem reguladoras do discurso público. Ele considerou o artigo 19 estruturalmente insuficiente e propôs um regime especial de responsabilização solidária das plataformas, para casos de não remoção imediata de conteúdos graves (por exemplo, pornografia infantil, induzimento ao suicídio ou automutilação, tráfico de pessoas, atos terroristas, abolição violenta do Estado Democrático de Direito, bem como discursos de ódio e ideologias extremistas). O ministro também defendeu a criação de um órgão regulador especializado e um conjunto robusto de obrigações procedimentais.

Na contramão, o ministro André Mendonça sustentou a plena constitucionalidade do artigo 19. Defendeu ser inconstitucional a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos, automatizados ou voltados à prática de crimes graves.

Para ele, a liberdade de expressão deve ter posição preferencial e cabe ao Judiciário, não às plataformas, arbitrar conflitos de direitos. Além disso, em observância ao devido processo legal, a decisão judicial que determinasse a remoção de conteúdo deveria apresentar fundamentação específica e ser acessível à plataforma responsável pelo seu cumprimento, dando-se a ela a possibilidade de impugnação. O ministro Mendonça rejeitou a ideia de monitoramento prévio, mas admitiu a necessidade de haver transparência e canais de denúncia e defendeu a autorregulação sob supervisão judicial.

O ministro Edson Fachin também defendeu a constitucionalidade do artigo 19 do Marco Civil da Internet, mas divergiu parcialmente do ministro André Mendonça ao não aderir às obrigações adicionais sugeridas por este. O ministro ressaltou a importância de que a remoção de conteúdo continue dependendo de ordem judicial, conforme previsto no Marco Civil, e propôs a tese de que provedores que apenas oferecem serviços de acesso, busca e armazenamento de dados sem interferir no conteúdo só podem ser responsabilizados se, após ordem judicial específica, não tomarem as providências necessárias para tornar indisponível o conteúdo apontado como infringente, dentro dos limites técnicos e do prazo assinalado.

O ministro Flávio Dino reconheceu uma omissão parcial no artigo 19 e, em linhas gerais, acompanhou o ministro Barroso, mas com acréscimos: o provedor responderia em caso de falha sistêmica, inclusive envolvendo inteligência artificial. O ministro Dino sugeriu que, se um conteúdo for removido por dever de cuidado da plataforma, o autor pode pedir judicialmente o restabelecimento sem direito a indenização. Ele também propôs que regras de autorregulação obrigatória sejam monitoradas pela Procuradoria-Geral da República até que uma lei específica seja aprovada.

O ministro Cristiano Zanin também viu inconstitucionalidade parcial, mas faz uma distinção entre provedores "neutros" – que apenas hospedam conteúdo – e "ativos".  Estes últimos, que promovem ou impulsionam conteúdo, estariam sujeitos a regras mais rígidas, como a responsabilização após notificação extrajudicial e a exigência de dispor de mecanismos de inteligência artificial combinados à revisão humana.

O ministro Zanin defendeu ainda a educação digital dos usuários e a aplicação das novas regras apenas para o futuro, ou seja, as novas regras deveriam ser aplicadas apenas para fatos ocorridos após o trânsito em julgado da decisão, garantindo segurança jurídica.

O ministro Dias Toffoli adotou a posição mais radical: para ele, o artigo 19 deve ser considerado totalmente inconstitucional. Para o ministro, a norma confere um excesso de imunidade às plataformas digitais, o que perpetua a disseminação de conteúdos prejudiciais no ambiente virtual. Até que uma nova lei seja aprovada, bastaria a notificação extrajudicial para caracterizar ciência inequívoca e gerar responsabilidade das plataformas, por violações à honra, à imagem e à intimidade.

O ministro Toffoli ampliou o leque de situações em que a responsabilidade é objetiva, incluindo atividades de recomendação, impulsionamento e até marketplaces que ofertem produtos proibidos. Ele também propôs uma lista de conteúdos que exigem retirada imediata, como terrorismo, violência contra crianças e discurso de ódio, além de sugerir um "Decálogo contra a violência digital" e cobrar do Legislativo uma nova política pública em até 18 meses.

O ministro Luiz Fux, por sua vez, reconheceu que há déficit de proteção. Para ele, o condicionamento da responsabilização a uma ordem judicial específica é indevido, no entanto, defendeu que a responsabilização das plataformas por danos à honra, imagem e privacidade deve ocorrer após notificação fundamentada.

Além disso, em relação a conteúdos evidentemente ilícitos, o ministro argumentou que existe um dever de monitoramento ativo por parte das empresas e que, em casos de impulsionamento pago, há presunção de conhecimento do ilícito. O ministro Fux também acha necessário haver canais sigilosos e funcionais de denúncia.

O ministro Alexandre de Moraes defendeu que as plataformas digitais, as redes sociais e os serviços de mensagens privadas sejam equiparados aos demais meios de comunicação, até que haja nova regulamentação pelo Congresso Nacional, considerando que deixaram de ser simples repositórios e se tornaram agentes ativos na disseminação de informações.

Para o ministro Moraes, diante das inovações tecnológicas, do uso massivo de inteligência artificial e do impacto social dessas plataformas, não há mais espaço para a neutralidade: as plataformas digitais, as redes sociais e os serviços de mensagens privadas devem ser responsabilizados civil e administrativamente por conteúdos impulsionados por algoritmos, publicidade paga e omissão diante de ilícitos.

O ministro também destacou a necessidade de que todas as redes e serviços de mensagem que atuem no Brasil tenham sede ou representante legal no país. Afirmou que a autorregulação das plataformas mostrou-se insuficiente e citou como exemplo a convocação para os atos antidemocráticos de 8 de janeiro, que ocorreu sem intervenção efetiva das empresas.

A ministra Cármen Lúcia posicionou-se pela ampliação da responsabilização das redes sociais por conteúdos publicados por usuários, defendendo, assim, a inconstitucionalidade do artigo 19 do Marco Civil da Internet.

Ela destacou que o cenário digital mudou muito desde a sanção da lei e que as redes sociais concentram poder sobre a circulação de informações, operando com algoritmos cuja lógica não é acessível ao público. Para a ministra, a responsabilização das plataformas precisa refletir essas transformações e ser aplicada de forma equivalente a outros contextos de dano e risco.

Último a votar, o ministro Nunes Marques acompanhou a minoria e votou pela constitucionalidade do artigo 19, mantendo o princípio de que é necessário haver decisão judicial antes de responsabilizar as redes sociais por publicações de seus usuários.