Categorias
Notícias

Adriana Rizzotto: Provedores têm dever de praticar censura?

A internet se torna a cada dia mais onipresente e essencial para o desenvolvimento humano na sociedade digital. Verifica-se, ao mesmo tempo, uma explosão de denúncias sobre usos ilegítimos da rede mundial de computadores, o que torna relevante a aferição da responsabilidade dos provedores de aplicações por danos decorrentes de ilícitos praticados por terceiros, questão jurídica com repercussão geral reconhecida que será apreciada pelo Supremo Tribunal Federal no julgamento dos Temas 533 e 987.

A expansão da internet nos últimos 20 anos foi impulsionada por promissoras startups que rapidamente se transformaram em gigantes da tecnologia graças ao escudo jurídico criado em 1996 por norma legal norte-americana que imunizou provedores de serem responsabilizados por conteúdos publicados por terceiros em suas plataformas [1]. A aludida norma permanece em vigor, não obstante seja alvo de severas críticas em debates sobre a necessidade de flexibilização da imunidade para coibir a falta de neutralidade política e os abusos recorrentes praticados por provedores.

No âmbito da jurisprudência dos tribunais brasileiros, prevaleceu a tese de que provedores de aplicações não têm o dever de fiscalização e controle prévios do material publicado em sua plataforma, mas respondem subjetiva e solidariamente com o ofensor por danos causados a seus usuários, se, notificados da existência de material reputadamente ilícito, não tomarem as providências necessárias para a sua imediata remoção. No que tange ao início da responsabilidade civil, surgiram duas vertentes: a notificação do próprio usuário, pelos canais oferecidos pelo provedor, ou a notificação judicial, após a provocação do Poder Judiciário por quem se considerasse ofendido.

O Superior Tribunal de Justiça adotou a sistemática conhecida internacionalmente como notice and take down, segundo a qual bastaria a ciência extrajudicial inequívoca do conteúdo impróprio, sem suspensão preventiva no prazo de 24 horas, para que o provedor se tornasse civilmente corresponsável com o ofensor pelos danos causados, em razão da omissão praticada. O conteúdo suspenso poderia voltar a ser disponibilizado posteriormente se o provedor concluísse pela legalidade da publicação.

A Lei nº 12.965/2014, que instituiu o denominado Marco Civil da Internet (MCI), seguiu a outra vertente ao estabelecer a responsabilidade subjetiva e subsidiária dos provedores de aplicações condicionada ao descumprimento de prévia e específica ordem judicial determinando a exclusão do conteúdo apontado como infringente [2]. O novo sistema adotado passou a ser o judicial notice and take down, com duas ressalvas [3]: I) a exposição pornográfica não consentida, que deve ser indisponibilizada pelo provedor, de forma diligente, após o recebimento de notificação extrajudicial nos termos da sistemática anterior; e II) a infração a direitos autorais ou a eles conexos, sujeita à regulamentação específica.

A exigência de reserva de jurisdição foi inserida no MCI com o objetivo retórico de proteger a liberdade de expressão e restringir a censura na internet, reservando o papel de censor exclusivamente ao Poder Judiciário. A preocupação era que provedores praticassem atos arbitrários de censura ao realizar valorações de caráter subjetivo na retirada de conteúdo reputado ilícito, capazes de gerar prejuízos ao livre fluxo de idéias e informações, insegurança jurídica e diminuição no grau de inovação da internet.

Não se atentou, entretanto, para as especificidades da dinâmica do mundo virtual, onde provedores praticam rotineiramente atos de censura, à guisa de moderação do fluxo de informações em suas comunidades virtuais. O advento do MCI em nada tolheu o empoderamento, em escala planetária, dos provedores de aplicações, que diante do vácuo regulatório se arrogaram a prerrogativa de exercer juízo discricionário sobre o debate público, como mediadores ou árbitros, com valores próprios e poderes para decidir se certo conteúdo ou conta ligados a determinado usuário devem ou não ser mantidos ativos.

O volume de material circulando em plataformas online cresce exponencialmente, assim como as triagens editoriais automáticas realizadas por algoritmos com vieses discriminatórios desenvolvidos por provedores, que decidem o que deve permanecer online ou ser retirado. O crivo dos moderadores não poupa nem figuras públicas eminentes: a livre manifestação de pensamento do presidente dos Estados Unidos, Donald Trump, foi recentemente censurada pelo provedor Twitter, que emitiu a advertência de que o conteúdo de seu discurso era inapropriado para a divulgação pública por pretensamente fazer apologia à violência [4]. Na mesma toada, o Twitter suspendeu permanentemente milhares de contas que, a seu juízo, propagavam fake news, excluiu postagens com conteúdo classificado como potencialmente prejudicial e rotulou, com etiquetas de advertência, informações publicadas por usuários sobre a pandemia de Covid-19, sob a justificativa de que a desinformação gera prejuízos ao debate na esfera pública [5].

A política de uso do YouTube, aplicável a todos os seus usuários, reserva ao próprio YouTube o direito de estabelecer juízos de valor subjetivos sobre o conteúdo que é apropriado, e faz referência aos seus termos de serviço e diretrizes de comunidade, no que diz respeito ao cometimento de infrações. O provedor também se reserva o direito de, a qualquer momento, sem aviso prévio, e a seu exclusivo critério, remover conteúdos e/ou cancelar conta de usuário por enviar materiais que violem os termos de serviço ou sejam considerados inadequados para a divulgação pública, com a exceção de atos infringentes aos direitos autorais, submetidos a regime especial de responsabilização.

A publicidade negativa e a indignação públicas causadas pelo suicídio da adolescente britânica Molly Russell, de 14 anos, após receber uma avalanche de imagens degradantes em sua conta no Instagram [6], fez com que a empresa matriz, Facebook, reconhecesse publicamente que não foi suficientemente diligente em seu dever de zelar pela integridade do conteúdo postado em sua plataforma, principalmente no que tange a especial vulnerabilidade dos usuários mais jovens. O algoritmo do provedor foi ajustado para censurar, em grande escala, imagens aviltantes de automutilação e incentivo ao suicídio. No período de abril a setembro de 2019, foram removidas 1,7 milhões de postagens do Instagram e 4,5 milhões do Facebook [7], e foi criado centro virtual de prevenção ao suicídio em ambas as plataformas digitais.

Conforme acima exemplificado, a reserva de jurisdição imposta pelo MCI constitui exemplo emblemático de wishful thinking, descolada da realidade dos fatos e ineficaz para atingir a finalidade proposta de impedir a censura privada na rede mundial de computadores. A medida representa retrocesso no sistema de proteção do consumidor na internet, cuja defesa foi enormemente dificultada sem justificativa legítima, de modo que não resiste a teste sumário de proporcionalidade: é manifestamente inadequada, desnecessária e causa ônus desproporcional para os usuários vitimados.

A ponderação de valores no debate sobre conteúdos ilícitos e liberdade de expressão na internet resulta na compreensão de que a moderação preventiva de materiais publicados por terceiros constitui atividade intrínseca ao serviço prestado por provedores de aplicações. O princípio da precaução descredencia a inércia e preconiza a atuação antecipada do provedor para preservar a natureza democrática e participativa da rede, com a adoção de medidas efetivas para garantir a integridade, segurança e pluralidade do ambiente digital. Esse imperativo de diligência e cuidado decorre da feição pública do serviço prestado por provedores de aplicações, bem como do fenômeno global da perda de protagonismo do Estado no manejo do poder de polícia no mundo virtual e o seu deslocamento, no plano prático, para atores privados, em razão de opção legislativa em prol de um ciberespaço sem empecilhos regulatórios à livre iniciativa e ao progresso tecnológico.

A supracitada legislação estadunidense que possibilitou o florescimento das empresas de tecnologia na internet tem a sua racionalidade traduzida em alegoria conhecida como a shield and a sword . Provedores foram equipados com um escudo para limitar a sua responsabilização jurídica por materiais gerados por terceiros e com uma espada para efetuar o policiamento privado de suas plataformas, através da moderação e remoção de conteúdos inadequados. Nesse ambiente institucional arejado e autorregulado, provedores têm o dever de colaborar com o Estado na prevenção e repressão de ilícitos, de modo a proporcionar aos usuários um ambiente de navegação saudável e seguro. Discursos de ódio, intolerância, incentivo ao suicídio, pedofilia, cyberbullying, disseminação de fake news, entre outros ilícitos graves, devem ser censurados por soluções de inteligência artificial integradas com moderadores humanos, em benefício do interesse público de prevenir a ocorrência de danos irreparáveis aos consumidores, sobretudo os mais vulneráveis.

O cerne da questão não é a inexorável censura, inerente à atividade discricionária de moderação de conteúdo em plataformas digitais. O ponto problemático é a falta de transparência na eleição de critérios, adoção de procedimentos e consolidação de informações pertinentes à remoção de conteúdos e filtragens editoriais unilaterais, o que torna impossível verificar se as intervenções privadas no discurso público foram efetuadas com a menor restrição possível ao debate democrático. Em que pese o seu relevante interesse público, esses dados não são disponibilizados pelos provedores de aplicações, que atuam na esfera pública livremente de forma nebulosa, sem prestar contas e sem a necessária accountability .

É conveniente recordar que o modelo de negócios dos provedores de aplicações extrapola a mera intermediação e abrange a exploração comercial de conteúdos publicados por usuários, através da venda de anúncios e direcionamento de público-alvo para determinado canal monetizado, o que gera o pagamento de royalties proporcionais ao volume de visualizações. Nessa hipótese, há conflito entre o dever do provedor de minimizar danos causados aos usuários e o seu interesse privado em maximizar lucros com o conteúdo exibido em sua plataforma. Ao receber benefícios financeiros diretos da ação infringente, o provedor não tem incentivos para agir com o esperado rigor na exclusão de material reputado ilícito.

O cenário ora delineado é propenso a externalidades negativas, como a prestação de serviço deficiente, geradora de danos irreparáveis aos usuários da internet vitimados pela permanência e propagação do conteúdo ilícito, sem a devida responsabilização. A exploração comercial da rede sujeita as relações de consumo dela advindas ao Código de Defesa do Consumidor (CDC), que constitui um dos fundamentos disciplinadores do uso da internet no Brasil [8]. A sistemática estabelecida pelo MCI, que impõe a judicialização de todos os conflitos, elimina conquistas importantes estabelecidas na legislação consumerista que deveria corroborar. Condicionar a responsabilização dos provedores à prévia medida judicial específica aniquila o direito básico do consumidor de prevenção e reparação de danos com a facilitação da defesa de seus direitos. A proteção ao consumidor deve ser efetivada de forma ágil e eficaz, através da instalação de sistema extrajudicial alternativo de solução consensual de controvérsias entre provedores e usuários da internet.

Merece ser aprimorada, outrossim, a sistemática atual de imputar-se ao usuário vitimado o ônus de indicação da localização inequívoca dos conteúdos infringentes a serem removidos, sob pena de nulidade [9]. Organizações criminosas dispõem de estrutura para republicar o material ilícito em diferentes e sucessivos locais virtuais, com o auxílio de milícias de robôs e perfis falsos, que relegam o usuário hipossuficiente ao total desamparo. O anacrônico paradigma binário de localizadores específicos up or down deve ser substituído por soluções alternativas dinâmicas e efetivas, ajustadas às peculiaridades de cada caso concreto, em respeito ao princípio da reparação integral do consumidor.

O papel do Poder Judiciário não deve ser banalizado com a atribuição da tarefa impraticável de aferir a legalidade de cada material publicado na internet, mas, sim, direcionado à função a que está constitucionalmente vocacionado. Ao Judiciário cabe atuar, em última instância, e de forma excepcional, como regulador da liberdade de expressão na internet, através do judicial review de decisões extrajudiciais dos provedores, e da tutela coletiva do direito fundamental à comunicação interativa em um ambiente digital íntegro, seguro e plural, no patamar civilizatório adequado ao desenvolvimento da personalidade e exercício da cidadania na era digital.

 


[1] CDA 230, a Seção 230, do Communications Decency Act

[3] Artigo 21, caput, e 19, § 2º, da Lei 12.965/2014 – MCI

[8] Artigo 2º, V, e Artigo 7º, XIII, da Lei 12.965/2014 – MCI

[9] Artigo 19, §1º e Artigo 21, parágrafo único, da Lei nº 12.965/2014 – MCI

Categorias
Notícias

Escavador não indeniza por publicação de processo público

É lícita a divulgação por provedor de aplicações de internet de conteúdos de processos judiciais, em andamento ou findos, que não tramitem em segredo de justiça, e nem exista obrigação jurídica de removê-los da rede mundial de computadores, bem como a atividade realizada por provedor de buscas que remeta aquele.”

Reprodução

Esta é a tese, ipsis literis, aprovada pelos integrantes do 3º Grupo Cível do Tribunal de Justiça do Rio Grande do Sul, ao acolher incidente de resolução de demandas repetitivas (IRDR) proposto pelo site de buscas Escavador, no desfecho de uma ação por responsabilidade civil ajuizada por um reclamante em ação trabalhista.

O relator do acórdão no 3º Grupo Cível e voto vencedor, desembargador Jorge Luiz Lopes do Canto, considerou lícitas as consultas a dados judiciais por parte do site, exceção feita aos processos submetidos a segredo de justiça — o que não era o caso dos autos, mas que deu motivo para uma ação indenizatória por danos morais.

Assim, cumpre destacar a licitude da atividade exercida pela proponente, a qual apenas reproduz as informações disponibilizadas pelo Diário Eletrônico da Justiça, sendo, portanto, hipótese de exercício regular de direito, não havendo que se falar na prática de ato que ateste direito de indenização”, resumiu o desembargador-relator, acolhendo a tese da parte ré e negando, por consequência, apelação da parte autora

Indenizatória por danos morais
A controvérsia teve início quando o autor de uma reclamatória trabalhista, que tramitou Comarca de Pelotas (RS), viu os dados do seu processo expostos na internet. Sentindo-se prejudicado, moveu ação indenizatória cível contra o Google e o Escavador, que faz a compilação de decisões judiciais disponibilizadas na internet. Os pedidos: indenização por danos morais e ordem para retirada dos dados da página.

A 5ª Vara Cível da Comarca de Pelotas julgou totalmente improcedente a ação indenizatória, isentando os réus de responsabilidade. O Google, por tratar-se de mero mecanismo de busca de informações já existentes disponibilizadas por terceiros na rede mundial de computadores. Ou seja, não produz informações nem tem ingerência sobre os conteúdos veiculados pelos sites.

E o Escavador, por não ter incorrido em qualquer ilícito cível, já que apenas disponibilizou a pesquisa de conteúdo na internet. Em suma, localizou na web as páginas virtuais contendo os termos pesquisados, provenientes dos sites dos próprios tribunais. E ainda: o processo trabalhista em que a parte autora figurou como parte não tramitou sob segredo de justiça.

A juíza Rita de Cássia Müller destacou que a Resolução 139/2014, do Conselho Superior da Justiça do Trabalho (CSJT), publicada para impedir ou dificultar a busca de nome de empregados com o fim de elaboração de “listas sujas”, não alcança provedores de pesquisas. Em suma, estes, apenas, pesquisam, coletam e armazenam os dados publicados pelos próprios tribunais.

Apelações ao TJ-RS
Da sentença, apelaram à 9ª Câmara Cível do Tribunal de Justiça o autor da indenizatória cível e o Escavador. Este último sustentou que, em todo país, se discute a mesma questão de direito: é lícito, ou não, divulgar dados de processos judiciais, que não tramitem sob segredo de justiça, por provedores de aplicações de internet? É que a ausência de precedente com força normativa tem gerado julgamentos divergentes, que violam a segurança jurídica e a isonomia.

Para pacificar o entendimento, o advogado do Escavador, Marcus Seixas, da banca Susart Sturdart Seixas, propôs a fixação da seguinte tese: “É lícita a divulgação por provedor de aplicações de internet de conteúdos de processos judiciais (em andamento ou findos) que não tramitem em segredo de justiça, e não existe obrigação jurídica de removê-los”.

Em função do pedido, a 9ª Câmara Cível “afetou” o caso à 3ª Turma Cível do 3º Grupo Cível — o colegiado uniformiza a jurisprudência nos litígios que envolvem Direito Privado —, que admitiu o incidente de resolução de demandas repetitivas (IRDR).

Com efeito, nos termos do artigo 976 do novo Código de Processo Civil, é cabível o incidente de resolução de demandas repetitivas quando houver, simultaneamente: I — efetiva repetição de processos que contenham controvérsia sobre a mesma questão unicamente de direito; II — risco de ofensa à isonomia e à segurança jurídica”, registrou o acórdão que admitiu o IRDR, lavrado em 4 de dezembro.

Novo parâmetro
Na sessão de julgamento de mérito do IRDR, realizada no dia 22 de maio, a maioria dos desembargadores integrantes do 3º Grupo aprovou a tese, com um pequeno acréscimo na redação final. A jurisprudência cria um parâmetro para os demais processos que versam sobre o mesmo litígio nas demais Câmaras do TJ-RS, conferindo segurança jurídica.

O advogado do Marcus Seixas disse que o precedente vinculante é uma a importante vitória do Escavador. Informou que, agora, vai levar a tese para discussão no Supremo Tribunal Federal, para que ganhe abrangência nacional.

Clique aqui para ler a sentença de improcedência
Clique aqui para ler o acórdão que admitiu o IRDR
Clique aqui para ler o acórdão que fixou a tese
Processo 022/1.16.0001333-1 (Comarca de Pelotas)

 

 é correspondente da revista Consultor Jurídico no Rio Grande do Sul.

Categorias
Notícias

David Rodrigues: Os limites do DRM

O avanço progressivo das tecnologias digitais de compartilhamento e o acesso acelerado e universal à internet têm possibilitado a distribuição de conteúdo sem as necessárias autorizações dos titulares dos direitos de propriedade intelectual prática tida como crime no Brasil.

No caso dos programas de computador, as Leis nº 9.609/98 (Lei de Software) e nº 9.610/96 (Lei de Direitos Autorais) impõem sanções àqueles que violarem esses direitos, contudo, não possuem o poder coercitivo desejado, acarretando no crescimento da pirataria e da distribuição ilegal destes materiais.

O controle do compartilhamento indevido de conteúdo protegido por direitos de autor vem sendo feito sobretudo pelo DRM (Digital Rights Management), tecnologia aplicada sobre os arquivos que impede acessos simultâneos em mais de um dispositivo, barra a reprodução por saídas específicas de um equipamento, como, por exemplo, a HDMI, e até monitora e rastreia todas as demais formas de uso.

A utilização destas ferramentas de gerenciamento digital é largamente defendida pelos titulares de direitos de autor, que justificam sua aplicação em razão da volatilidade dos conteúdos digitais. Enquanto a reprodução de uma obra física demanda grande empenho por parte daquele que pretende copiá-la, a mesma tarefa para uma obra em formato digital depende somente dos cliques copiar+colarargumentam. Raciocínio semelhante se aplica aos jogos e programas de computador, visto que é possível fazer a instalação em inúmeros dispositivos.

Outro ponto de vista amplamente defendido pelos titulares desses direitos é que, ao adquirir o conteúdo digital protegido, o consumidor não está comprando um produto, mas o acesso a um serviço. O tratamento tributário dispensado a determinados itens, como os dispositivos de leitura de livros digitais sobre os quais não incidem impostos reforçam esse argumento.

Em relação aos programas de computador, a Receita Federal tem feito a diferenciação entre softwares de prateleira, tidos como produtos e, portanto, tributáveis em ICMS e softwares personalizados/personalizáveis, que, eventualmente, são tidos como serviços e sujeitos à tributação de ISS. Por esta definição, programas de computador de prateleira não deveriam possuir DRMs, enquanto em softwares personalizados se justifica a utilização de DRMs que impossibilitem sua reutilização por usuários que não o legítimo licenciado.

Se para os titulares de direitos de autor o uso de DRMs na proteção de conteúdos digitais é largamente defendido, um cenário oposto se desenha quando a utilização dessas tecnologias é descrita por usuários, para quem os mecanismos para combater a violação de direitos autorais online não podem se sobrepor ao direito de utilização de conteúdo legalmente adquirido.

Sob este ponto de vista, a utilização de DRMs configuraria uma injustificável restrição aos direitos dos usuários, tornando-os impotentes em relação às possibilidades de uso destes materiais. A aplicação da tecnologia não apenas permite gerir remotamente e sem autorização prévia cada interação do usuário, mas serve, inclusive, para o controle em massa de dispositivos, possibilitando até mesmo atender a eventuais interesses furtivos.

Exemplo de utilização imprópria dessas ferramentas é o impedimento imposto ao usuário de emprestar ou revender programas de computador legitimamente adquiridos. Outra prática tida como abusiva, porém amplamente aplicada, é a exigência de que o usuário permaneça conectado à internet 100% do tempo em que estiver utilizando uma determinada ferramenta digital.

Situações práticas de uso indevido de DRMs são fartamente identificadas. Pode-se relatar o episódio em que a Amazon utilizou a ferramenta instalada nos dispositivos Kindle para, sem a prévia autorização dos usuários, deletar remotamente cópias dos livros “1984” e “A Revolução dos Bichos”, de George Orwell.  Já a Adobe usava essas ferramentas para analisar o comportamento dos seus usuários em relação à leitura de eBooks, elaborando relatórios de perfis sem qualquer autorização dos mesmos.

Já se avalia também se o uso de DRMs nos softwares embutidos de dispositivos domésticos mais modernos, como carros e wearables, poderia limitar a utilização destes equipamentos, impedir a realização de procedimentos de manutenção e até possibilitar o monitoramento de uma vasta gama de dados dos usuários sem o devido consentimento, possibilidade ainda mais grave em casos envolvendo informações e dados sigilosos pertencentes aos Estados.

O que se extrai dessas reflexões é que o uso indiscriminado de DRMs pode tornar os dispositivos digitais menos seguros, na medida em que estes passam a obedecer comandos externos de terceiros, abrindo portas para que fabricantes de equipamentos, empresas de software, produtores de mídia e aqueles para quem essas corporações prestam serviços tenham acesso desautorizado à informações privadas, sem a necessária ciência prévia de seus titulares.

No Brasil, a legislação autoral (Lei nº 9.610/98), em seu artigo 28, confere aos titulares o direito exclusivo de utilizar, fruir e dispor as obras protegidas. A exclusividade se dá sobre a obra em si e não sobre o meio físico que a comporta. Nesse sentido, a tentativa de estender ao corpo físico da obra a totalidade de proteções conferidas ao seu conteúdo imaterial constituiria abuso de direito do titular. Da mesma forma, o princípio da exaustão de direitos de propriedade intelectual estabelece que um bem colocado no mercado com o consentimento do seu titular passa a ter livre circulação garantida, sendo que impedimentos configurariam violação do direito à livre concorrência. As restrições, contudo, não se aplicam ao uso ilegal desses conteúdos, ou mesmo à sua locação, ainda que a legislação não estabeleça quaisquer punições para os usuários em casos de violação.

Não obstante as aludidas limitações legais aplicáveis ao uso das tecnologias DRM, os titulares de direito de autor também defendem sua utilização através de autorizações inseridas nos termos e licenças de uso dos programas de computador.

Sob tal aspecto, importante reiterar a diferenciação já citada entre os dois tipos de programas de computador: os de prateleira, para os quais a utilização de DRMs seria ilegal, e os personalizados, para os quais o uso de DRMs é defensável, sob o aspecto do contrato de licença de uso, uma vez que, muitas vezes, não ocorre a efetiva aquisição do bem por parte do usuário, mas, sim, uma prestação contínua de serviço através do programa.

Essa situação de desequilíbrio presente na relação entre o usuário e o titular que produz o software de prateleira, contudo, pode ser tida como abusiva sob o ponto de vista consumerista e acarretar na anulação do contrato de adesão, tornando nulas as cláusulas que impliquem em renúncia de direitos que estabeleçam obrigações iníquas, abusivas ou que coloquem o consumidor em desvantagem exagerada, que sejam incompatíveis com a boa-fé ou a equidade e que autorizem o fornecedor a cancelar o contrato unilateralmente. A anulação destas cláusulas, somada às limitações legais ao uso de DRMs, tornaria mandatória a remoção de travas de segurança.

A legislação brasileira não impõe barreiras objetivas ao uso de DRMs, reconhecendo ser ilegal a remoção de tais ferramentas, embora não institua nenhuma reprimenda para quem o faça. Por certo, as discussões sobre a legalidade e efetividade desses meios de controle deve seguir por anos, já que a mudança de paradigma relativa ao consumo de conteúdo digital ainda está em seu início.

Se por um lado o usuário preserva a ideia de que, ao adquirir um bem, este passa a integrar seu patrimônio, cabendo-lhe decidir como usará e/ou fruirá dele, por outro surgem novas formas de consumo em que o bem não é adquirido, mas disponibilizado sob regras de licenças de uso que impõem condições específicas àquela utilização, com o controle desses usos realizados justamente por meios das DRMs.

Por ora, o desafio dos titulares de direitos de autor será encontrar um ponto de convergência com os interesses dos usuários, moderando o uso das DRMs ou até mesmo removendo-as, de forma que, ao mesmo tempo em que se preserva a segurança do seu patrimônio, possibilita opções de acesso aos usuários sem restringir direitos garantidos e assegurando a privacidade.

David Fernando Rodrigues é advogado, sócio do escritório Montaury Pimenta, Machado & Vieira de Mello Advogados, especialista em Propriedade Intelectual pela Escola Superior de Advocacia da OAB/SP-ESA e em Intervenção Sistêmica pela Universidade Federal de São Paulo-Unifesp, pós-graduando em Direito e Tecnologia da Informação pela Escola Politécnica da Universidade de São Paulo (Poli-USP).