Categorias
Notícias

Entidade pede que STF diferencie discurso de ódio de liberdade

A Associação Brasileira de Juristas pela Democracia (ABJD) moveu, nesta quarta-feira (17/6), arguição de descumprimento de preceito fundamental pedindo que o Supremo Tribunal Federal estabeleça os parâmetros de diferença entre discurso de ódio e liberdade de expressão.

Ataques ao Supremo Tribunal Federal são discurso de ódio, diz ABJD

De acordo com a entidade, o discurso de ódio extrapola a liberdade de expressão. Esse abuso “ocorre quando um indivíduo se utiliza de seu direito à liberdade de expressão para inferiorizar e discriminar outrem baseado em suas características, como sexo, etnia, orientação sexual, política, religiosa. Ou quando é adotado em ações para invocar regimes autoritários e antidemocráticos”.

Recentemente, o Brasil tem assistido ao uso de redes sociais para espalhar ódio contra instituições, personalidades públicas, parlamentares e ministros do STF, ajudando a desqualificar o Estado Democrático de Direito, sustenta a ABJD. Ela cita que “milícias digitais” foram uma estratégia essencial da campanha presidencial de Jair Bolsonaro, e seguem sendo usadas nas disputas políticas.

Além disso, a associação ressalta que as mensagens de ódio vêm alimentando uma série de seguidores, que proferem ameaças às instituições. Um exemplo é o movimento paramilitar que ficou acampado na Praça dos Três Poderes, em Brasília.

“O disparo de fogos de artifício na noite de sábado (13/6) na direção do edifício principal do Supremo Tribunal Federal, pelo grupo que se autodenomina ‘300 do Brasil’ na Praça dos Três Poderes, enquanto xingavam os juízes dessa corte, indica que as emoções, sentimentos de ira, raiva, desprezo, que constituem parte essencial do discurso de ódio não podem ser tratados de forma casuística ou natural quando já identificado que seu potencial de ação representa um perigo para o Estado Democrático de Direito, com ameaças explícitas contra a integridade de uma instituição da democracia e seus membros”, avalia.

Por isso, a ABJD pede que o STF estabeleça os parâmetros entre discurso de ódio e liberdade de expressão, com o objetivo de criar uma jurisprudência que esteja de acordo com os pilares do Estado Democrático de Direito e da democracia.

A entidade requer que uma interpretação conforme a Constituição de 1988 proíba manifestações, nas ruas ou redes sociais, que possuam como bandeiras o discurso de ódio, de instigação de crime e violência contra pessoas, autoridades e coletivos, de discriminação racial, de gênero, de religião, de opção política ou de orientação sexual, ou que atentem contra os poderes constituídos e a democracia.

Além disso, a associação pede liminar para retirar os manifestantes acampados na Praça dos Três Poderes, que as redes sociais bloqueiem contas que propagarem discurso de ódio e a declaração de ilegalidade de atos com bandeiras contra a democracia.

Legitimidade ativa

Em parecer anexado à petição inicial, Lenio Streck (professor da Unisinos e da Unesa), Pedro Estevam Serrano (professor da PUC-SP), Paulo Roberto Iotti Vecchiatti (doutor em Direito Constitucional) e Djefferson Amadeus de Souza Ferreira (mestre em Direito e Hermenêutica Filosófica) afirmam que a ABJD tem legitimidade para propor ADPF.

O artigo 2º da Lei 9.882/1999 aponta como legitimados para propor a ação de descumprimento de preceito fundamental os mesmos sujeitos aptos a propor a ação direta de inconstitucionalidade. E o artigo 103, IX, da Constituição, estabelece que “confederação sindical ou entidade de classe de âmbito nacional” pode propor ADI.

Para os pareceristas, a interpretação mais coerente com a Constituição é a que diz que devem ser entendidas como entidades de classe com legitimidade ativa para o controle concentrado e abstrato de constitucionalidade todas aquelas que se configurem como entidades de defesa dos direitos fundamentais.

Como fundamento, eles citam a decisão monocrática do ministro Luís Roberto Barroso na ADPF 527. Na ocasião, o magistrado reconheceu a legitimidade ativa da Associação Brasileira de Lésbicas, Gays, Bissexuais, Travestis, Transexuais e Intersexos para impetrar ações do controle concentrado de constitucionalidade, enquanto entidade de classe.

Barroso propôs a superação da jurisprudência do STF sobre o tema, que sempre atribuiu ao artigo 103, IX, da Constituição, o sentido de que somente classes profissionais em defesa de direitos trabalhistas poderiam propor ADI e ADPF. Na visão do ministro, essa interpretação restritiva prejudicou a defesa de direitos e garantias fundamentais.

Conforme os pareceristas, as principais decisões do STF sobre minorias e grupos vulneráveis e direitos humanos em geral têm se dado no controle concentrado de constitucionalidade. Exemplos são o reconhecimento da validade de uniões homoafetivas, de cotas sociais e raciais em universidades públicas e da homotransfobia como crime de racismo.

“Isto demonstra, sobremodo, que o controle concentrado é o caminho para a busca da garantia de direitos de grupos minoritários e/ou vulneráveis da sociedade. E isto quer dizer, por consequência, que a tese da taxatividade do rol dos legitimados ou ‘tese restritiva’ inviabiliza o acesso de minorias e grupos vulneráveis ao Supremo Tribunal Federal. Seria algo como ‘a Constituição contra a Constituição’”, afirmam Lenio, Serrano, Vecchiatti e Amadeus.

Como a ABJD tem o objetivo de valorizar a ordem constitucional e tem representatividade nacional, deve ser incluída no rol dos legitimados do artigo 103, IX, da Constituição, enquanto defensora do direito à democracia, sustentam os especialistas.

Clique aqui para ler a petição

Clique aqui para ler o parecer

ADPF 696

 é correspondente da revista Consultor Jurídico no Rio de Janeiro.

Categorias
Notícias

A responsabilidade das plataformas no combate às fake news

O debate legislativo sobre regulação das redes sociais no combate às fake news gira em torno de uma oposição central. De um lado, propostas que atribuem responsabilidade perante terceiros por danos causados pela desinformação veiculada, caso os provedores de aplicação não retirem do ar, no prazo estipulado, o conteúdo reclamado como é o caso do relatório do Senador Ângelo Coronel (PSD-BA) sobre o PL nº 2630/20. De outro, propostas que não atribuem essa responsabilidade, como o PL nº 3063/2020 dos deputados Felipe Rigoni e Tabata Amaral e a Emenda Substitutiva apresentada pelo Senador Antônio Anastasia (PSD-MG) .

Os três projetos avançam na responsabilização das redes, embora em graus bastante distintos, em relação ao que dispõe o art. 19 do Marco Civil da Internet- MCI (Lei nº 12.965/2014). Daí a polêmica, uma vez que aquele dispositivo é considerado, por muitos, como marco para garantia da liberdade de expressão na internet no Brasil. O Supremo Tribunal Federal (RE 1.037.396/SP) deverá enfrentar o tema, ao analisar a constitucionalidade da imposição de necessidade de prévia e específica ordem judicial de exclusão de conteúdo para responsabilização civil de provedor de internet, por danos decorrentes de atos ilícitos praticados por terceiros. Ou seja, não se discute a obrigação de agir do provedor, mas sim em qual momento seria configurada a sua culpa por deixar de agir (e.g. remover conteúdo infringente). Sob a perspectiva das fake news, poderia ser acrescentado ao atual debate: deveria o safe harbor do MCI ser afastado especificamente para o conteúdo desinformativo?

Um dos argumentos a favor da responsabilização aponta que as redes sociais já exercem políticas de moderação e excluem ou ordenam conteúdo, de modo que o art. 19 já estaria superado. Aqui, há duas confusões.

Primeiro, o safe harbor diz respeito apenas a responsabilização pelo ilícito praticado nas redes e não à possibilidade de exclusão espontânea de conteúdo. Se a responsabilidade, conforme o MCI, existe, hoje, apenas por descumprimento de ordem judicial, essa ausência de obrigatoriedade de excluir conteúdo, independentemente de ordem judicial, não implica proibição de fazê-lo. Trata-se de óbvio non sequitur deôntico. A ordem judicial leva à obrigatoriedade de exclusão, mas daí não se infere que somente com ordem judicial seria permitido excluir. A plataforma, pode, de acordo com suas políticas de uso – e sempre em respeito à dignidade da pessoa, à liberdade de expressão, e ao direito à honra – moderar o conteúdo seguindo critérios claros, objetivos e transparentes em relação aos usuários. Essa prática, de forma alguma pode ser considerada em desconformidade ou alguma forma de desuetudo em relação ao art. 19 do MCI.

Segundo, a ordenação de conteúdo ou seleção algorítmica do feed de postagens, que é aprimorado e treinado pela própria atividade do usuário da plataforma, não constitui editoração que possa implicar qualquer tipo de participação no conteúdo ou autoria. Vale lembrar que desde a Seção 230 do Communication Decency Act de 1996, os debates sobre a responsabilidade civil das plataformas de internet indicam que os intermediários da internet não devem ser considerados como editores.

Outro argumento a favor da responsabilização aponta o expressivo faturamento das redes com a atividade dos usuários, que deveria ser usado para impedir a desinformação criminosa. Apesar de, muitas vezes, ser veiculado como interjeição indignada com o fenômeno da desinformação, o argumento tem efeito persuasivo para muitos, sendo pertinente identificar e debater suas crenças subjacentes. A primeira é a de que seria possível, com investimentos substantivos, eliminar completamente fake news das redes sociais. A segunda é a de que haveria alguma responsabilidade dos provedores de internet, na medida em que a plataforma torna possível essa prática.

É preciso reconhecer o enorme desafio que enfrentam as plataformas em um modelo de produção descentralizada de conteúdo, fenômeno característico das redes sociais na chamada internet 2.0, que contribuiu para a modificação da a esfera pública. A forma como as informações circulam e são compreendidas mudou, porquanto a sociedade de rede transpassou, em grande parte, a sociedade de organizações, quando a produção de informação era centralizada em grandes empresas jornalísticas.

Na mídia tradicional, centralizada, o controle do conteúdo ocorre antes da publicação pela própria organização de comunicação. Por sua vez, é da essência do modelo de redes que a publicação ocorra espontaneamente pelos usuários, caracterizados por estarem presentes em qualquer tempo e lugar- uma nova condição de leitura e de cognição.

Como em mercados de plataformas de internet, a liderança tende a se consolidar com elevada concentração, não há como o provedor compor uma gestão exclusivamente humana para analisar todo o conteúdo nela veiculado. Os provedores necessariamente terão de lançar mão de tecnologia, como a Inteligência Artificial, para detectar conteúdos que violem suas políticas de uso. Ocorre que há enormes desafios no estado atual de técnicas de processamento de linguagem natural e aprendizagem de máquina para identificar fake news ou hate speech. Assim, para lidar com o problema, as redes devem combinar a detecção e indicação por máquinas com revisores humanos. O equilíbrio nessa combinação é dinâmico e difícil de alcançar, alterando-se conforme evolui a tecnologia. Portanto, as redes deverão aprimorar uma série de procedimentos para apurar denúncias e acompanhar contas com atividade atípica de sistemática propagação de desinformação. O ideal seria manter a flexibilidade nesse ajuste, o que é favorecido pelo modelo de autorregulação.

Por outro lado, deter a infraestrutura que possibilita a propagação de desinformação não implica coparticipação, ainda que esta infraestrutura seja bastante lucrativa para o provedor. Como toda tecnologia, seu efeito é dual, e o modelo descentralizado, de comunicação direta entre pares, traz diversos benefícios à comunicação e à liberdade de expressão.

Se o alvo da regulação das redes é a atividade criminosa e organizada de propagação de desinformação, a responsabilidade por sua persecução e condenação é em primeiro lugar do Estado e não pode ser simplesmente delegada ao particular. Não cabe, de modo oblíquo, transferir esse dever, por meio da responsabilização civil das redes por todo o ilícito nela veiculado.

As redes sociais ou plataformas de comunicação interpessoal constituem hoje grande parte da infraestrutura que condiciona a atual esfera pública comunicacional, sendo responsáveis por preservar um ambiente no qual a democracia, e a liberdade de expressão sejam preservadas, mitigando riscos de lesão a direitos fundamentais previstos na Constituição Federal brasileira. Aliás, a função social das empresas de internet constitui importante vetor para o exercício de sua atividade econômica, o que lhes impõe deveres positivos a orientar seus serviços na construção de uma esfera pública democrática e que respeite direitos humanos. Porém, isso não significa que os intermediários devam ser responsabilizados por violações de terceiros, que inevitavelmente ocorrerão. Sua responsabilidade não pode ser pelo resultado, mas apenas procedimental, ou seja, por estruturar, dentro dos limites técnicos disponíveis e melhores modelos de governança, os meios para a detecção, identificação e combate à atividade desinformativa, sem perder de vista possíveis caminhos de Online Dispute Resolution, visando trazer maior agilidade e reduzir a judiciallização.


O texto do Senador Antônio Anastasia utiliza o modelo da autorregulação regulada. Sobre o assunto ver MARANHÃO, Juliano; CAMPOS, Ricardo. Exercício de autorregulação regulada das redes sociais no Brasil. In: NERY, N. Campos; ABBOUD, George. (Orgs). Fake news e regulação. São Paulo: RT, 2018

Thomas Vesting, A mudança da esfera pública pela inteligência artificial, em: Ricardo Campos, Georges Abboud, Nelson Nery Jr. (Orgs.) Fake News e Regulação. Coleção Direito e Estado em Transformação, Thomson Reuters-RT Sao Paulo 2018, p. 91 – 108.

Ver sobre o leitor ubíquo em SANTAELLA, Lucia. Comunicação ubíqua: repercussões na cultura e na educação. São Paulo: Paulus, 2013, p.277-279.

Sobre essa dificuldade, ver Wagner, B. Liable, but Not in Control? Ensuring meaningful human agency in automated decision-making systems, Policy & Internet, vol 11, n.1, 2019.

Juliano Maranhão é diretor do instituto LGPD, professor Livre-Docente da Faculdade de Direito da USP, membro do Comitê Diretor da International Association of Artificial Intelligence and Law e pesquisador da Fundação Alexander von Humboldt.

Juliana Abrusio é diretora do instituto LGPD, doutora em Direito e professora da Universidade Presbiteriana Mackenzie. Sócia da Opice Blum, Bruno, Abrusio e Vainzof Advogados Associados.

Ricardo Campos é diretor do instituto LGPD (Legal Grounds for Privacy Design) e docente assistente na Goethe Universität Frankfurt am Main (ALE).

Categorias
Notícias

Adriana Rizzotto: Provedores têm dever de praticar censura?

A internet se torna a cada dia mais onipresente e essencial para o desenvolvimento humano na sociedade digital. Verifica-se, ao mesmo tempo, uma explosão de denúncias sobre usos ilegítimos da rede mundial de computadores, o que torna relevante a aferição da responsabilidade dos provedores de aplicações por danos decorrentes de ilícitos praticados por terceiros, questão jurídica com repercussão geral reconhecida que será apreciada pelo Supremo Tribunal Federal no julgamento dos Temas 533 e 987.

A expansão da internet nos últimos 20 anos foi impulsionada por promissoras startups que rapidamente se transformaram em gigantes da tecnologia graças ao escudo jurídico criado em 1996 por norma legal norte-americana que imunizou provedores de serem responsabilizados por conteúdos publicados por terceiros em suas plataformas [1]. A aludida norma permanece em vigor, não obstante seja alvo de severas críticas em debates sobre a necessidade de flexibilização da imunidade para coibir a falta de neutralidade política e os abusos recorrentes praticados por provedores.

No âmbito da jurisprudência dos tribunais brasileiros, prevaleceu a tese de que provedores de aplicações não têm o dever de fiscalização e controle prévios do material publicado em sua plataforma, mas respondem subjetiva e solidariamente com o ofensor por danos causados a seus usuários, se, notificados da existência de material reputadamente ilícito, não tomarem as providências necessárias para a sua imediata remoção. No que tange ao início da responsabilidade civil, surgiram duas vertentes: a notificação do próprio usuário, pelos canais oferecidos pelo provedor, ou a notificação judicial, após a provocação do Poder Judiciário por quem se considerasse ofendido.

O Superior Tribunal de Justiça adotou a sistemática conhecida internacionalmente como notice and take down, segundo a qual bastaria a ciência extrajudicial inequívoca do conteúdo impróprio, sem suspensão preventiva no prazo de 24 horas, para que o provedor se tornasse civilmente corresponsável com o ofensor pelos danos causados, em razão da omissão praticada. O conteúdo suspenso poderia voltar a ser disponibilizado posteriormente se o provedor concluísse pela legalidade da publicação.

A Lei nº 12.965/2014, que instituiu o denominado Marco Civil da Internet (MCI), seguiu a outra vertente ao estabelecer a responsabilidade subjetiva e subsidiária dos provedores de aplicações condicionada ao descumprimento de prévia e específica ordem judicial determinando a exclusão do conteúdo apontado como infringente [2]. O novo sistema adotado passou a ser o judicial notice and take down, com duas ressalvas [3]: I) a exposição pornográfica não consentida, que deve ser indisponibilizada pelo provedor, de forma diligente, após o recebimento de notificação extrajudicial nos termos da sistemática anterior; e II) a infração a direitos autorais ou a eles conexos, sujeita à regulamentação específica.

A exigência de reserva de jurisdição foi inserida no MCI com o objetivo retórico de proteger a liberdade de expressão e restringir a censura na internet, reservando o papel de censor exclusivamente ao Poder Judiciário. A preocupação era que provedores praticassem atos arbitrários de censura ao realizar valorações de caráter subjetivo na retirada de conteúdo reputado ilícito, capazes de gerar prejuízos ao livre fluxo de idéias e informações, insegurança jurídica e diminuição no grau de inovação da internet.

Não se atentou, entretanto, para as especificidades da dinâmica do mundo virtual, onde provedores praticam rotineiramente atos de censura, à guisa de moderação do fluxo de informações em suas comunidades virtuais. O advento do MCI em nada tolheu o empoderamento, em escala planetária, dos provedores de aplicações, que diante do vácuo regulatório se arrogaram a prerrogativa de exercer juízo discricionário sobre o debate público, como mediadores ou árbitros, com valores próprios e poderes para decidir se certo conteúdo ou conta ligados a determinado usuário devem ou não ser mantidos ativos.

O volume de material circulando em plataformas online cresce exponencialmente, assim como as triagens editoriais automáticas realizadas por algoritmos com vieses discriminatórios desenvolvidos por provedores, que decidem o que deve permanecer online ou ser retirado. O crivo dos moderadores não poupa nem figuras públicas eminentes: a livre manifestação de pensamento do presidente dos Estados Unidos, Donald Trump, foi recentemente censurada pelo provedor Twitter, que emitiu a advertência de que o conteúdo de seu discurso era inapropriado para a divulgação pública por pretensamente fazer apologia à violência [4]. Na mesma toada, o Twitter suspendeu permanentemente milhares de contas que, a seu juízo, propagavam fake news, excluiu postagens com conteúdo classificado como potencialmente prejudicial e rotulou, com etiquetas de advertência, informações publicadas por usuários sobre a pandemia de Covid-19, sob a justificativa de que a desinformação gera prejuízos ao debate na esfera pública [5].

A política de uso do YouTube, aplicável a todos os seus usuários, reserva ao próprio YouTube o direito de estabelecer juízos de valor subjetivos sobre o conteúdo que é apropriado, e faz referência aos seus termos de serviço e diretrizes de comunidade, no que diz respeito ao cometimento de infrações. O provedor também se reserva o direito de, a qualquer momento, sem aviso prévio, e a seu exclusivo critério, remover conteúdos e/ou cancelar conta de usuário por enviar materiais que violem os termos de serviço ou sejam considerados inadequados para a divulgação pública, com a exceção de atos infringentes aos direitos autorais, submetidos a regime especial de responsabilização.

A publicidade negativa e a indignação públicas causadas pelo suicídio da adolescente britânica Molly Russell, de 14 anos, após receber uma avalanche de imagens degradantes em sua conta no Instagram [6], fez com que a empresa matriz, Facebook, reconhecesse publicamente que não foi suficientemente diligente em seu dever de zelar pela integridade do conteúdo postado em sua plataforma, principalmente no que tange a especial vulnerabilidade dos usuários mais jovens. O algoritmo do provedor foi ajustado para censurar, em grande escala, imagens aviltantes de automutilação e incentivo ao suicídio. No período de abril a setembro de 2019, foram removidas 1,7 milhões de postagens do Instagram e 4,5 milhões do Facebook [7], e foi criado centro virtual de prevenção ao suicídio em ambas as plataformas digitais.

Conforme acima exemplificado, a reserva de jurisdição imposta pelo MCI constitui exemplo emblemático de wishful thinking, descolada da realidade dos fatos e ineficaz para atingir a finalidade proposta de impedir a censura privada na rede mundial de computadores. A medida representa retrocesso no sistema de proteção do consumidor na internet, cuja defesa foi enormemente dificultada sem justificativa legítima, de modo que não resiste a teste sumário de proporcionalidade: é manifestamente inadequada, desnecessária e causa ônus desproporcional para os usuários vitimados.

A ponderação de valores no debate sobre conteúdos ilícitos e liberdade de expressão na internet resulta na compreensão de que a moderação preventiva de materiais publicados por terceiros constitui atividade intrínseca ao serviço prestado por provedores de aplicações. O princípio da precaução descredencia a inércia e preconiza a atuação antecipada do provedor para preservar a natureza democrática e participativa da rede, com a adoção de medidas efetivas para garantir a integridade, segurança e pluralidade do ambiente digital. Esse imperativo de diligência e cuidado decorre da feição pública do serviço prestado por provedores de aplicações, bem como do fenômeno global da perda de protagonismo do Estado no manejo do poder de polícia no mundo virtual e o seu deslocamento, no plano prático, para atores privados, em razão de opção legislativa em prol de um ciberespaço sem empecilhos regulatórios à livre iniciativa e ao progresso tecnológico.

A supracitada legislação estadunidense que possibilitou o florescimento das empresas de tecnologia na internet tem a sua racionalidade traduzida em alegoria conhecida como a shield and a sword . Provedores foram equipados com um escudo para limitar a sua responsabilização jurídica por materiais gerados por terceiros e com uma espada para efetuar o policiamento privado de suas plataformas, através da moderação e remoção de conteúdos inadequados. Nesse ambiente institucional arejado e autorregulado, provedores têm o dever de colaborar com o Estado na prevenção e repressão de ilícitos, de modo a proporcionar aos usuários um ambiente de navegação saudável e seguro. Discursos de ódio, intolerância, incentivo ao suicídio, pedofilia, cyberbullying, disseminação de fake news, entre outros ilícitos graves, devem ser censurados por soluções de inteligência artificial integradas com moderadores humanos, em benefício do interesse público de prevenir a ocorrência de danos irreparáveis aos consumidores, sobretudo os mais vulneráveis.

O cerne da questão não é a inexorável censura, inerente à atividade discricionária de moderação de conteúdo em plataformas digitais. O ponto problemático é a falta de transparência na eleição de critérios, adoção de procedimentos e consolidação de informações pertinentes à remoção de conteúdos e filtragens editoriais unilaterais, o que torna impossível verificar se as intervenções privadas no discurso público foram efetuadas com a menor restrição possível ao debate democrático. Em que pese o seu relevante interesse público, esses dados não são disponibilizados pelos provedores de aplicações, que atuam na esfera pública livremente de forma nebulosa, sem prestar contas e sem a necessária accountability .

É conveniente recordar que o modelo de negócios dos provedores de aplicações extrapola a mera intermediação e abrange a exploração comercial de conteúdos publicados por usuários, através da venda de anúncios e direcionamento de público-alvo para determinado canal monetizado, o que gera o pagamento de royalties proporcionais ao volume de visualizações. Nessa hipótese, há conflito entre o dever do provedor de minimizar danos causados aos usuários e o seu interesse privado em maximizar lucros com o conteúdo exibido em sua plataforma. Ao receber benefícios financeiros diretos da ação infringente, o provedor não tem incentivos para agir com o esperado rigor na exclusão de material reputado ilícito.

O cenário ora delineado é propenso a externalidades negativas, como a prestação de serviço deficiente, geradora de danos irreparáveis aos usuários da internet vitimados pela permanência e propagação do conteúdo ilícito, sem a devida responsabilização. A exploração comercial da rede sujeita as relações de consumo dela advindas ao Código de Defesa do Consumidor (CDC), que constitui um dos fundamentos disciplinadores do uso da internet no Brasil [8]. A sistemática estabelecida pelo MCI, que impõe a judicialização de todos os conflitos, elimina conquistas importantes estabelecidas na legislação consumerista que deveria corroborar. Condicionar a responsabilização dos provedores à prévia medida judicial específica aniquila o direito básico do consumidor de prevenção e reparação de danos com a facilitação da defesa de seus direitos. A proteção ao consumidor deve ser efetivada de forma ágil e eficaz, através da instalação de sistema extrajudicial alternativo de solução consensual de controvérsias entre provedores e usuários da internet.

Merece ser aprimorada, outrossim, a sistemática atual de imputar-se ao usuário vitimado o ônus de indicação da localização inequívoca dos conteúdos infringentes a serem removidos, sob pena de nulidade [9]. Organizações criminosas dispõem de estrutura para republicar o material ilícito em diferentes e sucessivos locais virtuais, com o auxílio de milícias de robôs e perfis falsos, que relegam o usuário hipossuficiente ao total desamparo. O anacrônico paradigma binário de localizadores específicos up or down deve ser substituído por soluções alternativas dinâmicas e efetivas, ajustadas às peculiaridades de cada caso concreto, em respeito ao princípio da reparação integral do consumidor.

O papel do Poder Judiciário não deve ser banalizado com a atribuição da tarefa impraticável de aferir a legalidade de cada material publicado na internet, mas, sim, direcionado à função a que está constitucionalmente vocacionado. Ao Judiciário cabe atuar, em última instância, e de forma excepcional, como regulador da liberdade de expressão na internet, através do judicial review de decisões extrajudiciais dos provedores, e da tutela coletiva do direito fundamental à comunicação interativa em um ambiente digital íntegro, seguro e plural, no patamar civilizatório adequado ao desenvolvimento da personalidade e exercício da cidadania na era digital.

 


[1] CDA 230, a Seção 230, do Communications Decency Act

[3] Artigo 21, caput, e 19, § 2º, da Lei 12.965/2014 – MCI

[8] Artigo 2º, V, e Artigo 7º, XIII, da Lei 12.965/2014 – MCI

[9] Artigo 19, §1º e Artigo 21, parágrafo único, da Lei nº 12.965/2014 – MCI