O Brasil não é o único país discutindo propostas para aumentar a responsabilidade das plataformas de internet.
Nos EUA, os republicanos tentam emplacar mudanças para punir plataformas que moderam conteúdo “demais”, algo que eles consideram ser censura.
Já na União Europeia, no Reino Unido, na Índia e no próprio Brasil, o objetivo é aumentar os incentivos para as plataformas removerem conteúdo ilegal —a percepção é que as big techs não fazem o suficiente.
Mas caso o país siga as teses do ministro Dias Toffoli e da AGU (Advocacia-Geral da União), defendidas no julgamento do Marco Civil da Internet no STF (Supremo Tribunal Federal), o Brasil terá uma regulação “jabuticaba”, inexistente nas grandes democracias do mundo.
A discussão se encaminhava para o STF emendar o artigo 19 do Marco Civil para chegar a um modelo que seria parecido com o da União Europeia. Lá, vigora o regime de “notice and action” (tomar conhecimento e agir).
Uma vez que uma plataforma de internet é notificada por um usuário sobre conteúdo potencialmente ilegal, ela pode ser responsável civilmente caso seja processada e perca –a não ser que tenha agido rapidamente para remover o conteúdo e analisar a denúncia. Não é necessária uma ordem judicial, apenas uma comunicação extrajudicial.
Hoje, no Brasil, plataformas só podem ser responsabilizadas civilmente se não removerem conteúdo após ordem judicial, a não ser nos casos de violação de direitos autorais e imagens de nudez não consentidas. Nesse caso, bastam comunicações extrajudiciais, como denúncias de usuários. A tendência era que o Supremo incluísse nesse rol violações legais ao Estado democrático de Direito, racismo e homofobia.
Mas Toffoli, em sua tese, e o governo, na manifestação da AGU, estabelecem um regime de responsabilidade objetiva para empresas de internet.
Nesse regime, as empresas podem ser responsabilizadas caso haja conteúdo ilegal, mesmo antes de receberem uma ordem judicial ou notificação extrajudicial, como uma denúncia de usuário. Com isso, elas teriam de monitorar ativamente todo o conteúdo veiculado em suas redes e remover postagens potencialmente em violação.
O ministro do STF e a AGU propuseram uma lista de conteúdos vedados que poderiam gerar essa responsabilidade objetiva, entre eles: crimes contra o Estado democrático de Direito, atos de terrorismo ou preparatórios, induzimento a suicídio ou à automutilação, racismo, violência contra a criança e mulher e oposição a medidas sanitárias.
“Obrigação de monitoramento é uma excrescência, não existe em nenhuma das grandes jurisdições democráticas”, diz Beatriz Kira, professora de direito da Universidade de Sussex, no Reino Unido.
Tanto a legislação da União Europeia quanto a Lei de Segurança Online do Reino Unido (que entrou em vigor em 2023 e está em fase de implementação) estabelecem que não há responsabilização por conteúdos sem notificação extrajudicial e não pressupõem monitoramento.
“Há uma tendência mundial de regulação dos deveres das plataformas, porque esses modelos de isenção de responsabilidade, como a Seção 230 [dos EUA], partem do pressuposto de que essas empresas eram atores neutros que não interferiam na gestão do conteúdo”, diz Laura Schertel Mendes, professora de direito digital da UnB e do IDP.
Ela considera que o cenário hoje é muito diferente, porque “todos têm clareza de que as plataformas intervêm no fluxo da informação por meio de algoritmos que controlam o escopo e a priorização do conteúdo”.
Mendes, assim como outros especialistas, defende também uma abordagem sistêmica na regulação. Pela lei europeia, as plataformas têm que fazer relatórios sobre como pretendem lidar com riscos sistêmicos como conteúdo de pedofilia, discurso de ódio, efeitos sobre processos democráticos, saúde pública e mental.
Além disso, têm de publicar relatórios de transparência em que expliquem quais conteúdos removeram e quais mudanças em seus algoritmos fizeram para mitigar riscos. Auditores avaliam os relatórios e, caso haja descumprimento generalizado, as redes podem ser multadas. Não há punição por conteúdos únicos.
Na mesma linha, a lei do Reino Unido prevê que as maiores plataformas façam relatórios sobre como estão aplicando os termos de uso das próprias empresas e supervisionando seu cumprimento, no chamado “dever de cuidado”.
“A pressão para que as redes sociais façam um trabalho melhor de moderação de conteúdo ilegal tem aumentado em diversos países. Mas uma decisão ‘legisladora’ do STF, criando regras em vez de apenas delimitar a imunidade, pode acabar criando insegurança jurídica”, diz Ivar Hartmann, professor de direito do Insper.
Na Índia, também há um movimento para restringir a imunidade das plataformas. A lei local isenta as big techs de responsabilidade por conteúdo postado por terceiros, desde que elas obedeçam a ordens judiciais ou governamentais para remoção de conteúdo.
Mas o governo do primeiro-ministro Narendra Modi vem aumentando as responsabilidades das empresas por meio de emendas e anunciou no ano passado que está finalizando uma nova Lei da Índia Digital.
Nos EUA, o debate segue linhas ideológicas. Os democratas pressionam para haver exceções na imunidade concedida a plataformas. Já os republicanos entendem que as big techs agem como censoras, principalmente de vozes conservadoras.
A pressão se intensificou desde que Donald Trump foi banido do YouTube, Facebook e X (então Twitter), acusado de incitar violência na invasão do Capitólio, em 6 de janeiro de 2021. Há diversos projetos de lei “anticensura” tramitando no Senado e Câmara que devem ser reintroduzidos no ano que vem —com a maioria republicana nas duas Casas, aumentam as chances de aprovação.
Além disso, Brendan Carr, indicado pelo presidente eleito para presidir a Comissão Federal de Comunicações (FCC, na sigla em inglês), já afirmou que o órgão deveria trabalhar em conjunto com o Congresso para que “as empresas de internet deixem de ter carta branca para censurar discurso legítimo”.