Controle de conteúdo na internet: filtros de upload e o perigo de censura prévia

Crédito: Youtube

“Desastrosa”“O fim de tudo que é bom e puro na Internet”“Uma ameaça à Internet como a conhecemos”. Essas são algumas das reações que ilustram a forma como vem sendo recebida a aprovação da proposta de revisão da Diretiva de Direitos Autorais pelo Comitê de Assuntos Jurídicos do Parlamento Europeu, que aconteceu no último dia 20/06.

O documento tem o intuito de atualizar o texto de 2001, e o principal motivo das reações aqui ilustradas é o Artigo 13 da Proposta, segundo o qual as plataformas de compartilhamento passam a ter a obrigação de impedir a disponibilização de conteúdos (sons, vídeos, imagens e textos, dentre outros) que infrinjam direitos autorais através do “uso de tecnologias efetivas de reconhecimento de conteúdo”. O dispositivo prevê também a disponibilização de mecanismos de reclamação e recurso que possam ser utilizados pelos responsáveis pelo conteúdo bloqueado depois do veto.

Atualmente, a regra em vigor (prevista na Diretiva de E-Commerce) é a de responsabilização do usuário pelo upload de conteúdo infrator, cabendo às plataformas tomar as medidas cabíveis para remoção de tal conteúdo uma vez que sua ilegalidade tenha sido sinalizada (ou seja, um controle posterior, e não anterior à divulgação, semelhante ao sistema adotado pelo Marco Civil da Internet no Brasil).

Na prática, a redação atual do artigo 13 exige a instalação de “filtros de upload” por essas plataformas, que são ferramentas cujo objetivo é controlar previamente a contribuição dos usuários a esses sites e impedir a disponibilização do que seja reconhecido como infração a direito autoral. É um mecanismo semelhante ao “Content ID” já adotado pelo Youtube.

A seleção de conteúdos por algoritmos como forma de prevenir a disseminação de conteúdo infrator já foi tratada em outros âmbitos. Mecanismos semelhantes são tradicionalmente utilizados, por exemplo, em matéria de proteção de menores (onde as ferramentas mais comuns restringem “o acesso a”, e não “a disponibilização de”). Os mesmos filtros de upload também já foram cogitados como alternativa para o combate a conteúdo de caráter terrorista.

Em todas essas versões, a adoção do mecanismo levanta preocupações sobre possíveis restrições à liberdade de expressão, sendo que em relação aos “filtros de upload” há a institucionalização de um sistema automático de censura prévia – prática incoerente com a Declaração Universal de Direitos Humanos, com a Convenção Europeia de Direitos Humanos e que, no Brasil, seria inconstitucional por força do art. 5º, IX.

O fato de serem administrados pelas plataformas também levanta questões de legitimidade, não endereçadas pelo texto atual da proposta. Afinal, trata-se de uma atividade com alto nível de intervenção nas liberdades de comunicação dos usuários protagonizada por atores privados, sem garantias de transparência em relação a critérios de seleção ou responsabilização em caso de bloqueios indevidos.

Além disso, do ponto de vista técnico, essas ferramentas podem ser imprecisas em relação a identificação de critérios. Ainda que sejam aperfeiçoadas, sua análise se restringe a um juízo de correspondência dessas critérios, continuando incapazes de distinguir conteúdos legais dos ilegais. Nesse sentido, seriam vetados, por exemplo, os usos legais sem necessidade de autorização, como paródias e materiais com finalidade educacional. Nota-se que a restrição a conteúdos legítimos é uma contingência do uso dessas ferramentas, o que torna seu mérito questionável.

Na forma da redação atual do art. 13, os custos de instalação e manutenção dos filtros de upload ainda pode representar uma desvantagem concorrencial para empresas menores e novos entrantes, e por conseguinte, inibir a inovação. Conforme já discutido aqui, existe um valor próprio na inovação que deve ser perseguido pelas políticas públicas direcionadas às tecnologias, sob pena de se prejudicar a evolução social e econômica de bens e serviços.

Esses argumentos foram explorados ao longo de um debate de um ano e meio, entre estados, Parlamento e sociedade civil. Reconhecendo as possíveis implicações da medida prevista pelo Artigo 13, o Relator das Nações Unidas para Promoção e Proteção do Direito à Liberdade de Opinião e Expressão enviou correspondência ao Parlamento Europeu, no sentido das preocupações já expostas acima. Um grupo de especialistas e entidades militantes no campo dos direito digitais também encaminhou uma carta ao Presidente do Parlamento Europeu, apontando os riscos que a Diretiva traz de que a Internet, que hoje é uma plataforma aberta, “se transforme em uma ferramenta de vigilância automatizada e controle de seus usuários”.

A implementação dos filtros de upload depende ainda de votação do texto pelo Parlamento, mas a insistência da Comissão de Assuntos Jurídicos Europeia em uma matéria tão controversa deve gerar uma reflexão maior sobre o momento que se vive. Hoje, as contingências da circulação aberta de conteúdos online é debatida mundo afora, desde infrações a direitos autorais até a circulação de fake news. No Brasil, a perspectiva do ano eleitoral é de debate, inclusive no Judiciário, sobre as ferramentas que cabem em combates desta natureza.

Apesar de aparentemente eficientes, soluções extremas podem descaracterizar as condições que permitem que essas relações que se busca regularizar existam, além de restringir direitos e liberdades civis em nível imensurável. É fundamental uma atualização da legislação autoral que garanta proteção efetiva aos os criadores sem comprometer a relevância democrática – e, por que não, o surgimento de novos criadores – que essas plataformas permitem.

Os artigos publicados pelo JOTA não refletem necessariamente a opinião do site. Os textos buscam estimular o debate sobre temas importantes para o País, sempre prestigiando a pluralidade de ideias.

Fonte: JOTA Info

Deixe uma resposta