STF retoma análise sobre responsabilização de redes por conteúdos de usuários
Para ministros do STF, redes sociais são tolerantes com crimes
Alexandre de Moraes considera que plataformas falharam na autorregulação. Dias Toffoli salienta que big techs não podem ser tolerantes com ilegalidades
O Plenário do Supremo Tribunal Federal retomou nesta quarta-feira (4/12) o julgamento que discute a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014) e a possibilidade de responsabilização de big techs por conteúdos de terceiros.
O ministro Dias Toffoli, relator de uma das ações em análise pela corte, começou a votar na última quinta (28/11) e retomou o voto na sessão desta quarta. Ele ainda não encerrou sua exposição, e o julgamento será retomado nesta quinta-feira (5/12).
Toffoli disse considerar o artigo 19 inconstitucional. No entanto, ainda não é possível dizer se ele declarará a inconstitucionalidade total do dispositivo ou se optará por dar a ele interpretação conforme à Constituição, estabelecendo as hipóteses de responsabilização das big techs.
“Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”
O voto de Toffoli também indica que o ministro vai determinar a responsabilização das plataformas nos termos do artigo 21 do Marco Civil, em que ela passa a valer a partir da comunicação extrajudicial. O dispositivo, no entanto, é restrito a casos de divulgação de conteúdo sexual.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
Além dos dois casos de repercussão geral, está na agenda da corte um terceiro processo, que está sob a relatoria do ministro Edson Fachin.
Na ADPF 403, os magistrados vão discutir se é possível o bloqueio de aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os direitos à liberdade de expressão e de comunicação.
Imunidade
Para Toffoli, o artigo 19 do Marco Civil da Internet imuniza as redes sociais e plataformas como o Google ao estabelecer que a responsabilização só pode ocorrer após o descumprimento de decisão judicial.
“Há uma imunidade total aos conteúdos e ao perfil falso enquanto não houver uma decisão judicial. Consiste em verdadeira imunidade o privilégio de somente ser chamado a responder por um dano quando e se descumprir ordem judicial prévia e específica”, afirmou o ministro na sessão de quinta-feira passada.
Segundo ele, a punição só após a decisão descumprida cria distorções, como a perpetração de ilegalidades durante o passar dos anos.
“Aquilo (conteúdos ilícitos) pode ficar por anos na internet sem nenhuma reparação posterior. Porque a responsabilização pelo artigo 19 só surge se descumprir decisão judicial. Se cumpre, não há responsabilidade. É disso que se trata. O que é ilícito no mundo real é ilícito no mundo virtual. O direito incide no mundo dos fatos, sejam eles fatos reais ou digitais. Seja na briga de botequim ou na briga virtual.”
Inconstitucionalidade
Na sessão desta quarta, o ministro deixou claro que considera o artigo 19 inconstitucional.
“Parece-me evidente que o regime de responsabilidade por conteúdos de terceiros previsto no Marco Civil da Internet é inconstitucional. Seja porque desde a sua edição foi incapaz de fornecer proteção efetiva aos direitos fundamentais, seja porque não está apto a fazer frente aos riscos sistêmicos que surgiram a partir de novos modelos de negócio e do impacto nas relações econômicas, sociais e culturais.”
O ministro também disse que vivemos em um “mundo de violência digital” e que essa violência é acobertada pelas plataformas “enquanto não houver descumprimento de decisão judicial”. Ele citou casos de atentados a escolas e o ataque a bomba em frente ao Supremo, no mês passado.
“Todos esses eventos ou foram previamente anunciados nas redes sociais ou em grupos públicos e canais abertos dos serviços de mensageria, sem que nenhum desses serviços tomasse atitudes”, prosseguiu Toffoli.
Segundo o magistrado, o Brasil vige o regime da responsabilidade, ao passo que o artigo 19 excluiu os provedores de responsabilização. Por fim, ele disse que essas empresas não são neutras.
“Ao contrário, muitas adotam postura ativa e intencional ao gerir o fluxo informacional de seus ecossistemas. Uma suposta neutralidade não pode funcionar como escudo contra a responsabilização.”
O que diz o Facebook
Na sessão de quarta-feira passada (27/11), o advogado José Rollemberg Leite Neto, sócio do escritório Eduardo Ferrão Advogados Associados, defendeu a constitucionalidade do artigo 19 ao representar o Facebook.
De acordo com ele, não há inércia das plataformas para a supressão de conteúdos ilícitos. Ele afirmou, por exemplo, que no ano passado 208 milhões de postagens com pedofilia, violência e discurso de ódio foram removidas globalmente pelo Facebook a partir de identificações feitas pela própria plataforma.
Leite Neto também afirmou que a maioria dos processos do gênero trata não da retirada de publicações, mas da reinclusão de material anteriormente removido.
Ele pediu que, caso o Supremo não considere o artigo 19 integralmente constitucional, seja dada interpretação conforme à Constituição determinando que a retirada obrigatória de perfis e páginas só se dê em casos de exploração sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático de Direito e golpe de Estado.
Por fim, questionado pelo ministro Luís Roberto Barroso, presidente da corte, sobre o modo como a plataforma exclui perfis falsos, ele disse que em 98% dos casos há a retirada automática após a comunicação feita por usuários da plataforma.
O que diz o Google
Já o Google foi representado pelo advogado Eduardo Bastos Furtado de Mendonça, que também apresentou na semana passada dados sobre a remoção de conteúdos. Ele disse que em 2023 o YouTube (plataforma de vídeos da empresa) removeu 1,6 milhão de publicações no Brasil por violações de políticas da empresa, enquanto no mesmo período os casos judicializados somaram 614 pedidos.
“Não existe uma inércia que seja parte do modelo de negócio das plataformas. Nem haveria sentido que existisse. A maioria dos usuários e a generalidade dos anunciantes repudia esses conteúdos (ilícitos). Não é proveitoso esse tipo de conteúdo.” Os pedidos que chegam ao Judiciário, disse ele, são de fato casos em que há controvérsias que merecem intervenção judicial.
Ainda segundo o advogado, “nenhum país democrático do mundo” adota um modelo de responsabilidade objetiva, em que as plataformas são responsáveis por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar publicações globalmente.
Ele citou modelos adotados na Europa, sustentando que o que existe lá são normas que definem que há responsabilidade objetiva quando há descumprimento de decisões, e que o marco para a responsabilização é a notificação extrajudicial. No entanto, prosseguiu Mendonça, a responsabilização só vale para casos específicos, e não para qualquer tipo de conteúdo.
“No caso da lei alemã, a eventual responsabilização está relacionada à indicação de ilicitudes específicas e tipos penais específicos, e o que se prevê é uma responsabilidade pela falha sistêmica de responder adequadamente a essas notificações.”
“Não faria sentido responsabilizar uma plataforma por não ter removido um conteúdo cujo exame é polêmico e sujeito a valorações subjetivas, e que muitas vezes é objeto de divisão no próprio Judiciário”, prosseguiu o advogado.
Ele também destacou que o artigo 21 do Marco Civil prevê a exclusão de conteúdos após notificação extrajudicial, mas em casos específicos de nudez e atos sexuais privados. Para Mendonça, em casos de crimes objetivos, as plataformas identificam e apagam os conteúdos. O mesmo não deveria ser aplicado em conceitos amplos como desinformação, disse ele.