Brasil
STF retoma julgamento sobre responsabilidade de redes sociais por conteúdos publicados
Reprodução
Tanto os ministros Dias Toffoli quanto Luiz Fux descreveram os casos que fizeram com que o tema chegasse até o Supremo, e explicaram o porquê de as eventuais decisões terem repercussão geral – ou seja, valerão para situações semelhantes. Os relatores enfatizaram o fato de 18 entidades falarem como “amigos da Corte” para manifestarem seus pontos de vista, e mencionaram as audiências públicas realizadas pelo Supremo em 2023.
O que está em discussão no julgamento é o modelo de responsabilização das plataformas pelo conteúdo de terceiros — se e em quais circunstâncias as empresas podem sofrer sanções por conteúdos ilegais postados por seus usuários.
A análise começou com a leitura do relatório do processo relatado pelo ministro Dias Toffoli, um recurso apresentado pelo Facebook. A disputa surgiu em São Paulo, quando uma dona de casa descobriu a existência de um perfil falso na rede social utilizando o nome e a imagem dela para divulgar conteúdos ofensivos.
A mulher acionou a Justiça e obteve, em primeira instância, a ordem para a exclusão da página, mas não foi indenizada. Insatisfeita, recorreu da decisão e teve sucesso. A plataforma foi, então, condenada ao pagamento, e tenta reverter a punição na Corte.
– Não se trata exclusivamente de criação de perfil falso. Nós estamos a discutir, sim, perfil falso, mas também conteúdo falso, ofensivo e ilegal – afirmou Toffoli.
Fux, relator do recurso da Google, também fez a apresentação do caso que chegou ao Supremo em 2017, depois que o antigo Orkut negou remover uma comunidade criada com o nome de uma professora de Belo Horizonte. Em 2010, ela acionou a Justiça para pedir a exclusão da comunidade e com pedido indenizatório, e ganhou em primeira e segunda instância, mas a big tech recorreu das decisões.
Fux lembrou que o caso relatado por ele, por ter chegado à Justiça antes do Marco Civil, discute também valores constitucionais, em um confronto entre a liberdade de expressão e os valores inerentes à dignidade e à honra.
– Acho importante a leitura do fato base porque assim vamos ter a visão do que é possível retirar quando terceiros alimentam essas plataformas. A matéria fica muito complexa porque completa com esses debates dos valores constitucionais e a interpretação que vai se dar ao artigo 19 do Marco civil.
Autores dos recursos que estão sendo discutidos no STF, Facebook e Google apresentaram seus argumentos aos ministros em defesa do artigo 19 do Marco Civil, e alegaram que as empresas já dispõem de mecanismos de moderação e remoção de conteúdos, sem que haja necessidade de uma regra que permita a remoção sem decisão judicial.
Ao falar pela Meta, o advogado José Rollemberg apontou o esforço das plataformas na autorregulação, com investimentos bilionários em tecnologias e inteligência artificial para combater práticas ilícitas, como pedofilia, violência e discurso de ódio. Segundo ele, parte desse compromisso com a segurança e a integridade no ambiente digital está em regras e termos de uso “robustos”.
Pela Google, o advogado Eduardo Mendonça defendeu que apesar dos excessos nas redes socais, na maioria das vezes as opiniões são exercidas dentro dos limites da legalidade. O advogado reforçou que discursos ilícitos podem ser amplificados, sendo necessário coibi-los e responsabilizar os infratores.
Para ele, o artigo 19 do Marco Civil não suprime limites e não dificulta a responsabilização dos infratores e que seu fim não acabaria com os problemas que têm que ser resolvidos. Mendonça também destacou que o dispositivo não impede que conteúdos nocivos sejam removidos sem decisão judicial prévia, procedimento que ocorre na imensa maioria dos casos.
O julgamento foi marcado antes da conclusão do inquérito que concluiu que houve uma trama golpista, que contou com um núcleo de “desinformação e ataques ao sistema eleitoral”. Os envolvidos, segundo a investigação, teriam usado plataformas como canal para insuflar essa ofensiva.
A análise desse caso pelo STF já havia sido adiada duas vezes para aguardar uma resposta que viesse do Congresso, o que não ocorreu. A avaliação na Corte é que a situação chegou a um limite e que é necessário evidenciar a responsabilidade das redes em situações como ataques à democracia.
Duas das ações tratam especificamente do artigo 19 do Marco Civil da Internet. O texto da lei prevê a “responsabilização por danos decorrentes de conteúdos gerado por terceiros” apenas em caso de a empresa não cumprir determinação judicial para a retirada do conteúdo.
O STF aguardou que o Congresso avançasse com o assunto, mas o PL das Redes Sociais teve a tramitação atravancada por pressão da bancada bolsonarista — e acabou freado pelo presidente da Casa, Arthur Lira (PP-AL), que chegou a criar um grupo de trabalho para tratar do tema, mas que também não avançou. O deputado federal Orlando Silva (PCdoB-SP), relator do projeto de lei, considera que o Supremo foi “bastante cauteloso” antes de pautar as ações.
— Diante da inércia legislativa, houve um aumento nos conflitos na sociedade sem que se tenha uma regulamentação das plataformas. Isso obriga o STF a fazer uma interpretação do Marco Civil — avalia o parlamentar. — A discussão foi obstruída por um setor do parlamento, e essas mesmas pessoas que impediram a deliberação no Congresso vão apontar o dedo para o STF e acusá-lo de ativismo judicial.
O Globo