top of page
HOME3.png

O Marco Civil da Internet sob o Escrutínio do STF: Liberdade de Expressão em Xeque na Era Digital

  • Foto do escritor: Prof. Raphael Chaia
    Prof. Raphael Chaia
  • 21 de jun.
  • 6 min de leitura

O Supremo Tribunal Federal (STF) tem sido palco de um debate que ressoa profundamente em nossas vidas digitais: o julgamento da constitucionalidade do Artigo 19 do Marco Civil da Internet (Lei nº 12.965/14). A relevância do tema é tal que o próprio STF reconheceu sua Repercussão Geral (Tema 987), demonstrando a sensibilidade dos direitos em discussão.


No cerne da questão, encontra-se a responsabilidade de provedores de internet, websites e gestores de aplicativos de redes sociais frente a conteúdos gerados por terceiros. O Artigo 19 do Marco Civil da Internet, promulgado em 2014 após ampla consulta pública, estabelece que um provedor de aplicações só pode ser responsabilizado civilmente por danos decorrentes de conteúdo de terceiros se, e somente se, não tomar as providências para torná-lo indisponível após uma ordem judicial específica. Esta regra foi criada com o intuito primordial de assegurar a liberdade de expressão e impedir a censura privada. Contudo, a contemporaneidade e as transformações da Sociedade da Informação lançaram novas luzes sobre sua aplicabilidade.


Até o momento, o STF formou maioria para ampliar a responsabilização das plataformas por publicações de usuários, com um placar de 7 a 1.


  • Ministro Dias Toffoli (Relator): Entendeu que o Artigo 19 é inconstitucional por ser deficiente na proteção dos direitos fundamentais no ambiente digital. Propôs que as plataformas sejam responsabilizadas caso ignorem notificações extrajudiciais (diretamente dos usuários ofendidos) para remover conteúdos ilícitos, como fake news e ofensas. Em casos de "práticas especialmente graves", como tráfico de pessoas, racismo ou terrorismo, as empresas deveriam monitorar e agir por conta própria para excluir o conteúdo, sem necessidade de notificação ou ordem judicial. Para Toffoli, é tempo de superar a ideia de que a internet é "terra sem lei".


  • Ministro Luiz Fux (Relator): Acompanhou Toffoli, defendendo que o Artigo 19 não exclui a responsabilização civil dos provedores que, tendo ciência inequívoca de atos ilícitos (sejam evidentes ou informados), não removem o conteúdo imediatamente. Sublinhou o dever das empresas de monitorar ativamente conteúdos como discurso de ódio, racismo e incitação à violência.


  • Ministro Luís Roberto Barroso: Apresentou uma posição intermediária, votando pela validade parcial do Artigo 19 e defendendo sua reinterpretação. Para crimes contra a honra (injúria, calúnia, difamação), a ordem judicial ainda seria necessária. No entanto, para outros crimes, a notificação direta às redes sociais bastaria. Barroso defendeu que as big techs têm um "dever de cuidado" para avaliar a remoção de conteúdo, independentemente de decisão judicial, e sugeriu a criação de um órgão regulador independente.


  • Ministro André Mendonça: Foi a única voz dissonante, votando pela manutenção integral do Artigo 19. Argumentou contra a transferência da moderação de conteúdo da Justiça para as plataformas e algoritmos, vendo nisso um risco à plena liberdade de informação e um aumento da vigilância sobre os usuários. Para Mendonça, a responsabilidade principal deve recair sobre o autor da publicação, e o foco deveria estar nos protocolos e procedimentos das plataformas, incentivando a autorregulação regulada.


  • Ministro Flávio Dino: Enfatizou que "liberdade regulada é a única liberdade", defendendo a necessidade de regulamentação para plataformas como qualquer outra atividade econômica. Propôs que bastaria uma notificação extrajudicial para a remoção de "conteúdos ilícitos evidentes", enquanto para crimes contra a honra, a ordem judicial seria mantida. Defendeu que plataformas atuem proativamente contra perfis anônimos ou anúncios pagos que veiculem conteúdo criminoso.


  • Ministro Cristiano Zanin: Considerou o Artigo 19 "deficiente" e parcialmente inconstitucional, pois o modelo atual potencializa a disseminação de conteúdo ilícito. Votou por uma diferenciação: para conteúdos "evidentemente criminosos ou ilícitos", a plataforma poderia ser punida se não remover após notificação; para casos com "dúvida razoável sobre a ilicitude", a ordem judicial seria ainda necessária.


  • Ministro Gilmar Mendes: Defendeu que plataformas não são "meros condutores de informação", mas "verdadeiros reguladores do discurso online". Considerou o Artigo 19 ultrapassado e propôs quatro regimes de responsabilização distintos (residual, geral, de presunção e especial), que variam na necessidade de ordem judicial e no dever de monitoramento e remoção de conteúdo, dependendo da gravidade e do tipo de envolvimento da plataforma (e.g., impulsionamento pago).


Com a maioria formada para a ampliação da responsabilidade das redes sociais, a discussão se aprofunda sobre as implicações práticas dessa guinada. A proposta que se desenha é a de que as plataformas deixem de ser meras "hospedeiras" de conteúdo para se tornarem "moderadoras ativas", com o poder de remover conteúdos mesmo sem a chancela prévia do Judiciário, bastando, em muitos casos, a notificação do usuário ou a identificação de ilicitude evidente. A grande questão, e aqui reside um ponto de preocupação, é que, ao fazer isso, os ministros do Supremo, com a melhor das intenções de combater a desinformação e o discurso de ódio, parecem estar a revestir empresas privadas de um "poder de polícia" sobre o conteúdo. O presidente da Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da OAB SP, Solano de Camargo, alerta que ampliar a responsabilidade das plataformas sem a exigência de intervenção judicial poderia "instituir a censura exercida por entidades privadas no País".



A lógica é clara: sob a pressão de sanções e multas, essas empresas podem adotar uma postura "excessivamente cautelosa", removendo conteúdos de maneira preventiva para evitar qualquer penalização. Isso impactaria o debate público e a liberdade de manifestação, transformando as plataformas em "juízes arbitrários" do que pode ou não ser publicado. O ministro André Mendonça já havia manifestado preocupação quanto a "transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar, de modo automático e artificial, os valores em disputa, especialmente quando um desses valores é a liberdade de expressão". Ferramentas baseadas em inteligência artificial, segundo Camargo, podem gerar "análises imprecisas, enviesadas ou manipulativas, removendo postagens legítimas e importantes para o debate democrático", configurando uma "forma velada de censura".


Além disso, ao mitigar a necessidade de ordem judicial, os recursos administrativos internos das plataformas (que poderiam ser uma primeira linha de defesa para os usuários) acabam, em tese, enfraquecidos na prática como uma barreira efetiva contra remoções arbitrárias, dada a pressão por regulação autônoma. Isso abre a possibilidade real de um aumento exponencial de reclamações judiciais por banimentos indevidos, sobrecarregando o próprio Judiciário com contestações de decisões privadas.


Para entender a dimensão dessa decisão, um olhar para além das fronteiras é essencial. Nos Estados Unidos, a Seção 230 do Communications Decency Act (CDA) concede ampla imunidade aos provedores de internet, isentando-os de responsabilidade por conteúdos gerados por terceiros, salvo em casos muito específicos, como violação de direitos autorais ou crimes graves – como bem faz o nosso artigo 19 do Marco Civil da Internet. Esse modelo foi fundamental para o crescimento das maiores plataformas digitais globais, como Google, Facebook e Twitter. No entanto, é também criticado por permitir a disseminação de conteúdos prejudiciais sem consequências legais para as empresas. A Supre Corte se debruçou sobre essa disposição, da mesma forma como o nosso STF agora se debruça sobre o Marco Civil; nos EUA, porém, a Suprema Corte decidiu pela constitucionalidade plena da normativa americana.


A decisão que se desenha no STF é, em grande parte, diametralmente oposta à lógica da Seção 230. Enquanto o modelo americano privilegia a neutralidade e a "imunidade" das plataformas, o entendimento majoritário no Brasil avança para uma maior responsabilização e um "dever de cuidado" por parte dessas empresas. Essa diferença de abordagem evidencia a complexidade de equilibrar liberdade de expressão e responsabilidade na internet, com cada jurisdição buscando seu próprio caminho.


O que mais incomoda ainda é o argumento de que a internet é uma “terra sem lei”, repetido à exaustão nesse julgamento. É fundamental pontuar que a internet no Brasil não é e há tempos deixou de ser "terra de ninguém". O Marco Civil da Internet de 2014 já estabeleceu um arcabouço normativo robusto para o uso da rede, fundamentado na liberdade de expressão, na privacidade e na neutralidade da rede. Além disso, decisões judiciais já foram prolatadas e leis específicas, como o Código Penal, Código Civil, o Estatuto da Criança e do Adolescente, e até a Lei Geral de Proteção de Dados, já estão em vigor há anos para coibir abusos e atos ilícitos online.


A preocupação que emerge, portanto, é que o atual julgamento do STF não aparente buscar uma regulação das redes – que já existe, ainda que passível de aprimoramento –, mas sim um controle mais direto sobre os conteúdos. Ao dar mais autonomia às empresas para decidir o que é "ilícito evidente" e o que deve ser removido sem ordem judicial, corremos o risco de que a balança penda para o lado da restrição. O Judiciário, em sua ânsia por celeridade, pode estar delegando um poder imenso a entes privados, cujas motivações são primariamente econômicas. Os mesmos entes privados, que, em 2016, eram investigados por manipulação informacional em massa, em casos como da Cambridge Analtica.


Com essa nova interpretação, a voz do usuário na internet brasileira pode se tornar refém de critérios internos e algorítmicos das plataformas, que muitas vezes carecem de transparência. Nesse cenário, ficamos sujeitos ao alvedrio do Judiciário e, principalmente, de empresas privadas para podermos ter nossas vozes ouvidas na internet. A liberdade de expressão é um direito fundamental, mas, como bem se sabe, não é um salvo-conduto para a impunidade. Contudo, a efetividade dessa proteção exige um equilíbrio delicado, que não sacrifique a fluidez do debate democrático em nome de uma fiscalização que, ironicamente, pode acabar por cercear a própria liberdade que se busca proteger. É um dilema complexo, e o caminho escolhido pelo STF pode redefinir não apenas a responsabilidade das big techs, mas a própria natureza da liberdade online no Brasil.

 

 
 
 

Comments


Raphael Rios Chaia © 2025 - Todos os direitos reservados

  • Instagram
  • LinkedIn
  • Facebook
  • Telegram
  • Spotify
  • YouTube
bottom of page