O Supremo Tribunal Federal (STF) vive um capítulo decisivo para o futuro da responsabilidade das plataformas digitais por conteúdo indevido de terceiros no Brasil. Em julgamento conjunto do Tema 533 e do Tema 987 da repercussão geral, STF avalia se o artigo 19 do Marco Civil da Internet (Lei 12.965/14) — que condiciona a responsabilização civil de provedores à ordem judicial prévia para remoção de conteúdo indevido — é compatível com a Constituição.

Na prática, discute-se se as empresas de tecnologia podem ou não ser responsabilizadas por publicações de terceiros quando deixarem de agir tempestivamente, mesmo sem ordem judicial, diante de conteúdos claramente ilícitos. Também está em discussão se cabe às plataformas dever procedimental de cuidado por conteúdos ilegais

O Tema 533 tem como pano de fundo o Recurso Extraordinário 1.057.258, relatado pelo ministro Luiz Fux, no qual uma plataforma digital contesta decisão que a responsabilizou por não retirar de rede social, em tempo razoável, publicações ofensivas.

A Procuradoria-Geral da República (PGR), ao opinar pelo desprovimento do recurso, sustentou que não há dever de controle prévio das postagens, mas que, mesmo antes da entrada em vigor do Marco Civil, ofensas deveriam ser excluídas diante de simples solicitação do ofendido. Após 2014, acrescentou a PGR, subsiste um dever de diligência capaz de exigir a remoção imediata de conteúdos sabidamente criminosos ou baseados em fatos notoriamente falsos, independentemente de ordem judicial.

A Advocacia-Geral da União (AGU), em linha parecida, advogou que a retirada de material ilícito prescinde tanto de ordem judicial quanto de notificação formal. Defendeu ainda, que esse dever se estenda ao uso de inteligência artificial pelas plataformas.

O Tema 987, por sua vez, decorre do Recurso Extraordinário 1.037.396, relatado pelo ministro Dias Toffoli, interposto por rede social que pleiteia a plena validade do artigo 19 do Marco Civil.

Nesse processo, a PGR também se posicionou contra o provimento do recurso — portanto, contra a tese de que o dispositivo seja integralmente constitucional —, alinhada ao entendimento de que notificações extrajudiciais já bastam para gerar responsabilidade, caso a plataforma não aja após ser alertada.

A AGU, embora reconheça a necessidade de interpretar o artigo de acordo com a Constituição, concorda com a possibilidade de responsabilização das empresas sem ordem judicial, invocando o dever de precaução das hospedeiras de conteúdo.

A importância do debate atraiu diversos amici curiae. De um lado, entidades como a Associação Brasileira de Emissoras de Rádio e Televisão, o Ministério Público paulista e institutos de defesa do consumidor defendem a inconstitucionalidade do artigo 19, argumentando que ele impõe barreiras ao acesso à Justiça e perpetua danos. De outro, gigantes da economia digital sustentam a necessidade de manter a regra atual para proteger a liberdade de expressão e viabilizar a moderação proporcional.

Organizações especializadas — a Wikimedia Foundation, o Instituto Alana, o Instituto dos Advogados de São Paulo (Iasp) — trouxeram nuances, ao defender modelos que combinam deveres de diligência, ampliação de exceções para conteúdos objetivamente ilícitos e proteção reforçada a crianças e adolescentes.

Com esse pano de fundo, o Plenário retomou o julgamento em 12 de junho. Iniciada pela manhã, a sessão se estendeu ao longo do dia, com votos importantes proferidos por diversos ministros. Consolidou-se uma maioria pela modificação do regime atual de responsabilização das plataformas. Já há sete votos pela inconstitucionalidade do artigo 19 do Marco Civil da Internet, seja ela parcial ou total, com divergências sobre a extensão dessa inconstitucionalidade.

Entre esses votos, alguns ministros defendem a inconstitucionalidade parcial e propõem a substituição do regime de "ordem judicial como regra" por um modelo mais rigoroso de deveres de cuidado. Outros defendem a inconstitucionalidade integral e sugerem a aplicação do modelo do art. 21 do Marco Civil da Internet, até que seja criada nova lei, em que a notificação extrajudicial já seria suficiente para caracterizar ciência inequívoca e gerar responsabilidade.

Por outro lado, há um voto pela plena constitucionalidade do dispositivo, que destaca a necessidade de ordem judicial para remoção de conteúdos, a distinção entre serviços de mensageria privada e redes sociais, e a inconstitucionalidade da remoção de perfis, salvo em hipóteses excepcionais.

Como votaram os ministros até agora

O ministro Luís Roberto Barroso defende que o artigo 19, ao exigir ordem judicial para a remoção de conteúdos, não protege adequadamente interesses de grande relevância, como a proteção de direitos fundamentais e da democracia.

Para ele, é preciso flexibilizar: crimes contra a honra e ilícitos civis seguiriam dependendo de decisão judicial, enquanto outros crimes poderiam ser removidos após notificação extrajudicial. Já anúncios e impulsionamentos pagos gerariam presunção de conhecimento do ilícito pelas plataformas.

O ministro Barroso propõe a adoção de um modelo dual, responsabilização subjetiva das plataformas (ou seja, depende de culpa ou dolo) combinada com um dever de cuidado para prevenir e mitigar riscos sistêmicos, especialmente em relação a conteúdos extraordinariamente nocivos. Além disso, sugere medidas como canais de denúncia, devido processo e relatórios de transparência.

O ministro Gilmar Mendes vai além e afirma que as plataformas já deixaram de ser "meros condutores" para se tornarem reguladoras do discurso público. Ele considera o artigo 19 estruturalmente insuficiente e propõe regime especial de responsabilização solidária das plataformas, para casos de não remoção imediata de conteúdos graves (por exemplo, pornografia infantil, induzimento ao suicídio ou automutilação, tráfico de pessoas, atos terroristas, abolição violenta do Estado Democrático de Direito, bem como discursos de ódio e ideologias extremistas). O ministro também defende a criação de um órgão regulador especializado e um conjunto robusto de obrigações procedimentais.

Na contramão, o ministro André Mendonça sustenta a plena constitucionalidade do artigo 19. Defende ser inconstitucional a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos, automatizados ou voltados à prática de crimes graves.

Para ele, a liberdade de expressão deve ter posição preferencial e cabe ao Judiciário, não às plataformas, arbitrar conflitos de direitos. Além disso, em observância ao devido processo legal, a decisão judicial que determinasse a remoção de conteúdo deveria apresentar fundamentação específica e ser acessível à plataforma responsável pelo seu cumprimento, dando-se a ela a possibilidade de impugnação. O ministro Mendonça rejeita a ideia de monitoramento prévio, mas admite obrigações de transparência e canais de denúncia e defende a autorregulação sob supervisão judicial.

O ministro Flávio Dino reconhece uma omissão parcial no artigo 19 e, em linhas gerais, acompanha o ministro Barroso, mas com acréscimos: o provedor responderia em caso de falha sistêmica, inclusive envolvendo inteligência artificial. O ministro Dino sugere que, se um conteúdo for removido por dever de cuidado da plataforma, o autor pode pedir judicialmente o restabelecimento sem direito a indenização. Ele também propõe que regras de autorregulação obrigatória sejam monitoradas pela Procuradoria-Geral da República até que uma lei específica seja aprovada.

O ministro Cristiano Zanin também vê inconstitucionalidade parcial, mas faz uma distinção entre provedores "neutros" – que apenas hospedam conteúdo – e "ativos".  Estes últimos, que promovem ou impulsionam conteúdo, estariam sujeitos a regras mais rígidas, como a responsabilização após notificação extrajudicial e a exigência de dispor de mecanismos de inteligência artificial combinados à revisão humana.

O ministro Zanin defende ainda a educação digital dos usuários e a aplicação das novas regras apenas para o futuro, ou seja, as novas regras devem ser aplicadas apenas para fatos ocorridos após o trânsito em julgado da decisão, garantindo segurança jurídica.

O ministro Dias Toffoli adota a posição mais radical: para ele, o artigo 19 deve ser considerado totalmente inconstitucional. Para o ministro, a norma confere um excesso de imunidade às plataformas digitais, o que perpetua a disseminação de conteúdos prejudiciais no ambiente virtual. Até que uma nova lei seja aprovada, bastaria a notificação extrajudicial para caracterizar ciência inequívoca e gerar responsabilidade das plataformas, por violações à honra, à imagem e à intimidade.

O ministro Toffoli amplia o leque de situações em que a responsabilidade é objetiva, incluindo atividades de recomendação, impulsionamento e até marketplaces que ofertem produtos proibidos. Ele também propõe uma lista de conteúdos que exigem retirada imediata, como terrorismo, violência contra crianças e discurso de ódio, além de sugerir um "Decálogo contra a violência digital" e cobrar do Legislativo uma nova política pública em até 18 meses.

O ministro Luiz Fux, por sua vez, reconhece que há déficit de proteção. Para ele, o condicionamento da responsabilização a uma ordem judicial específica é indevido, no entanto, defende que a responsabilização das plataformas por danos à honra, imagem e privacidade deve ocorrer após notificação fundamentada. Além disso, em relação a conteúdos evidentemente ilícitos, argumentou que existe um dever de monitoramento ativo por parte das empresas e que em casos de impulsionamento pago há presunção de conhecimento do ilícito. O ministro Fux também exige canais sigilosos e funcionais de denúncia.

O ministro Alexandre de Moraes, que votou nesta quinta-feira, 12 de junho, defendeu que as plataformas digitais, as redes sociais e os serviços de mensagens privadas sejam equiparados aos demais meios de comunicação, até que haja nova regulamentação pelo Congresso Nacional, considerando que deixaram de ser simples repositórios  e se tornaram agentes ativos na disseminação de informações.

Para o ministro Moraes, diante das inovações tecnológicas, do uso massivo de inteligência artificial e do impacto social dessas plataformas, não há mais espaço para a neutralidade: as plataformas digitais, as redes sociais e os serviços de mensagens privadas devem ser responsabilizados civil e administrativamente por conteúdos impulsionados por algoritmos, publicidade paga e omissão diante de ilícitos.

O ministro também destacou a necessidade de que todas as redes e serviços de mensagem que atuem no Brasil tenham sede ou representante legal no país. Afirmou que a autorregulação das plataformas mostrou-se insuficiente e citou como exemplo a convocação para os atos antidemocráticos de 8 de janeiro, que ocorreu sem intervenção efetiva das empresas.

Apesar das divergências, há pontos de convergência entre os ministros. Todos concordam sobre a necessidade de transparência, canais de denúncia e direito de revisão, embora não haja consenso sobre quem deve fiscalizar ou como punir o descumprimento dessas obrigações.

A maioria admite a responsabilização das plataformas sem ordem judicial em casos graves ou após notificação, com exceção do ministro Mendonça. Todos reconhecem que anúncios pagos geram, pelo menos, presunção de conhecimento do ilícito — para os ministros Mendes e Toffoli, isso já configura responsabilidade objetiva. Por fim, enquanto os ministros Mendes, Barroso, Dino e Zanin defendem a criação de um órgão regulador especializado, os ministros Fux e Mendonça preferem manter a autorregulação sob controle judicial.

O julgamento foi suspenso e será retomado na sessão do dia 25 de junho. Ainda restam pendentes os votos da ministra Cármen Lúcia e dos ministros Edson Fachin e Nunes Marques. Entretanto, salvo reviravolta improvável, o STF sinaliza que estabelecerá um novo paradigma: as plataformas terão de atuar com maior agilidade e responsabilidade para impedir a circulação de conteúdo ilícito, sob pena de responder civilmente mesmo sem provocação judicial.

A Suprema Corte deve fixar teses que conciliem liberdade de expressão e proteção de direitos fundamentais, impondo deveres de transparência, protocolos para remoção de publicações e, possivelmente, regimes diferenciados, de acordo com a gravidade e a natureza do material. O caso torna-se, assim, um marco para o ambiente digital brasileiro, capaz de redefinir a linha tênue entre a livre circulação de ideias e a salvaguarda da honra, da segurança e da democracia no espaço virtual.