A responsabilidade das plataformas no combate às fake news

A responsabilidade das plataformas no combate às fake news

O debate legislativo sobre regulação das redes sociais no combate às fake news gira em torno de uma oposição central. De um lado, propostas que atribuem responsabilidade perante terceiros por danos causados pela desinformação veiculada, caso os provedores de aplicação não retirem do ar, no prazo estipulado, o conteúdo reclamado como é o caso do relatório do Senador Ângelo Coronel (PSD-BA) sobre o PL nº 2630/20. De outro, propostas que não atribuem essa responsabilidade, como o PL nº 3063/2020 dos deputados Felipe Rigoni e Tabata Amaral e a Emenda Substitutiva apresentada pelo Senador Antônio Anastasia (PSD-MG) .

Os três projetos avançam na responsabilização das redes, embora em graus bastante distintos, em relação ao que dispõe o art. 19 do Marco Civil da Internet- MCI (Lei nº 12.965/2014). Daí a polêmica, uma vez que aquele dispositivo é considerado, por muitos, como marco para garantia da liberdade de expressão na internet no Brasil. O Supremo Tribunal Federal (RE 1.037.396/SP) deverá enfrentar o tema, ao analisar a constitucionalidade da imposição de necessidade de prévia e específica ordem judicial de exclusão de conteúdo para responsabilização civil de provedor de internet, por danos decorrentes de atos ilícitos praticados por terceiros. Ou seja, não se discute a obrigação de agir do provedor, mas sim em qual momento seria configurada a sua culpa por deixar de agir (e.g. remover conteúdo infringente). Sob a perspectiva das fake news, poderia ser acrescentado ao atual debate: deveria o safe harbor do MCI ser afastado especificamente para o conteúdo desinformativo?

Um dos argumentos a favor da responsabilização aponta que as redes sociais já exercem políticas de moderação e excluem ou ordenam conteúdo, de modo que o art. 19 já estaria superado. Aqui, há duas confusões.

Primeiro, o safe harbor diz respeito apenas a responsabilização pelo ilícito praticado nas redes e não à possibilidade de exclusão espontânea de conteúdo. Se a responsabilidade, conforme o MCI, existe, hoje, apenas por descumprimento de ordem judicial, essa ausência de obrigatoriedade de excluir conteúdo, independentemente de ordem judicial, não implica proibição de fazê-lo. Trata-se de óbvio non sequitur deôntico. A ordem judicial leva à obrigatoriedade de exclusão, mas daí não se infere que somente com ordem judicial seria permitido excluir. A plataforma, pode, de acordo com suas políticas de uso – e sempre em respeito à dignidade da pessoa, à liberdade de expressão, e ao direito à honra – moderar o conteúdo seguindo critérios claros, objetivos e transparentes em relação aos usuários. Essa prática, de forma alguma pode ser considerada em desconformidade ou alguma forma de desuetudo em relação ao art. 19 do MCI.

Segundo, a ordenação de conteúdo ou seleção algorítmica do feed de postagens, que é aprimorado e treinado pela própria atividade do usuário da plataforma, não constitui editoração que possa implicar qualquer tipo de participação no conteúdo ou autoria. Vale lembrar que desde a Seção 230 do Communication Decency Act de 1996, os debates sobre a responsabilidade civil das plataformas de internet indicam que os intermediários da internet não devem ser considerados como editores.

Outro argumento a favor da responsabilização aponta o expressivo faturamento das redes com a atividade dos usuários, que deveria ser usado para impedir a desinformação criminosa. Apesar de, muitas vezes, ser veiculado como interjeição indignada com o fenômeno da desinformação, o argumento tem efeito persuasivo para muitos, sendo pertinente identificar e debater suas crenças subjacentes. A primeira é a de que seria possível, com investimentos substantivos, eliminar completamente fake news das redes sociais. A segunda é a de que haveria alguma responsabilidade dos provedores de internet, na medida em que a plataforma torna possível essa prática.

É preciso reconhecer o enorme desafio que enfrentam as plataformas em um modelo de produção descentralizada de conteúdo, fenômeno característico das redes sociais na chamada internet 2.0, que contribuiu para a modificação da a esfera pública. A forma como as informações circulam e são compreendidas mudou, porquanto a sociedade de rede transpassou, em grande parte, a sociedade de organizações, quando a produção de informação era centralizada em grandes empresas jornalísticas.

Na mídia tradicional, centralizada, o controle do conteúdo ocorre antes da publicação pela própria organização de comunicação. Por sua vez, é da essência do modelo de redes que a publicação ocorra espontaneamente pelos usuários, caracterizados por estarem presentes em qualquer tempo e lugar- uma nova condição de leitura e de cognição.

Como em mercados de plataformas de internet, a liderança tende a se consolidar com elevada concentração, não há como o provedor compor uma gestão exclusivamente humana para analisar todo o conteúdo nela veiculado. Os provedores necessariamente terão de lançar mão de tecnologia, como a Inteligência Artificial, para detectar conteúdos que violem suas políticas de uso. Ocorre que há enormes desafios no estado atual de técnicas de processamento de linguagem natural e aprendizagem de máquina para identificar fake news ou hate speech. Assim, para lidar com o problema, as redes devem combinar a detecção e indicação por máquinas com revisores humanos. O equilíbrio nessa combinação é dinâmico e difícil de alcançar, alterando-se conforme evolui a tecnologia. Portanto, as redes deverão aprimorar uma série de procedimentos para apurar denúncias e acompanhar contas com atividade atípica de sistemática propagação de desinformação. O ideal seria manter a flexibilidade nesse ajuste, o que é favorecido pelo modelo de autorregulação.

Por outro lado, deter a infraestrutura que possibilita a propagação de desinformação não implica coparticipação, ainda que esta infraestrutura seja bastante lucrativa para o provedor. Como toda tecnologia, seu efeito é dual, e o modelo descentralizado, de comunicação direta entre pares, traz diversos benefícios à comunicação e à liberdade de expressão.

Se o alvo da regulação das redes é a atividade criminosa e organizada de propagação de desinformação, a responsabilidade por sua persecução e condenação é em primeiro lugar do Estado e não pode ser simplesmente delegada ao particular. Não cabe, de modo oblíquo, transferir esse dever, por meio da responsabilização civil das redes por todo o ilícito nela veiculado.

As redes sociais ou plataformas de comunicação interpessoal constituem hoje grande parte da infraestrutura que condiciona a atual esfera pública comunicacional, sendo responsáveis por preservar um ambiente no qual a democracia, e a liberdade de expressão sejam preservadas, mitigando riscos de lesão a direitos fundamentais previstos na Constituição Federal brasileira. Aliás, a função social das empresas de internet constitui importante vetor para o exercício de sua atividade econômica, o que lhes impõe deveres positivos a orientar seus serviços na construção de uma esfera pública democrática e que respeite direitos humanos. Porém, isso não significa que os intermediários devam ser responsabilizados por violações de terceiros, que inevitavelmente ocorrerão. Sua responsabilidade não pode ser pelo resultado, mas apenas procedimental, ou seja, por estruturar, dentro dos limites técnicos disponíveis e melhores modelos de governança, os meios para a detecção, identificação e combate à atividade desinformativa, sem perder de vista possíveis caminhos de Online Dispute Resolution, visando trazer maior agilidade e reduzir a judiciallização.


O texto do Senador Antônio Anastasia utiliza o modelo da autorregulação regulada. Sobre o assunto ver MARANHÃO, Juliano; CAMPOS, Ricardo. Exercício de autorregulação regulada das redes sociais no Brasil. In: NERY, N. Campos; ABBOUD, George. (Orgs). Fake news e regulação. São Paulo: RT, 2018

Thomas Vesting, A mudança da esfera pública pela inteligência artificial, em: Ricardo Campos, Georges Abboud, Nelson Nery Jr. (Orgs.) Fake News e Regulação. Coleção Direito e Estado em Transformação, Thomson Reuters-RT Sao Paulo 2018, p. 91 – 108.

Ver sobre o leitor ubíquo em SANTAELLA, Lucia. Comunicação ubíqua: repercussões na cultura e na educação. São Paulo: Paulus, 2013, p.277-279.

Sobre essa dificuldade, ver Wagner, B. Liable, but Not in Control? Ensuring meaningful human agency in automated decision-making systems, Policy & Internet, vol 11, n.1, 2019.

Juliano Maranhão é diretor do instituto LGPD, professor Livre-Docente da Faculdade de Direito da USP, membro do Comitê Diretor da International Association of Artificial Intelligence and Law e pesquisador da Fundação Alexander von Humboldt.

Juliana Abrusio é diretora do instituto LGPD, doutora em Direito e professora da Universidade Presbiteriana Mackenzie. Sócia da Opice Blum, Bruno, Abrusio e Vainzof Advogados Associados.

Ricardo Campos é diretor do instituto LGPD (Legal Grounds for Privacy Design) e docente assistente na Goethe Universität Frankfurt am Main (ALE).

Leia Também