Ao longo dos anos de 2020 e 2021, Senado Federal e Câmara dos Deputados vêm discutindo intensamente como regular plataformas digitais, conter o fenômeno da desinformação e proteger o processo eleitoral de agentes maliciosos que inventam e deturpam fatos, certos da impunidade. Parcela importante deste debate materializou-se no PL 2630/2020, já aprovado no Senado. Após diversas versões para o projeto e várias rodadas de debate com diferentes setores da sociedade civil, o Grupo de Trabalho da Câmara dos Deputados criado para analisar o texto aprovou, no final de 2021, um substitutivo à proposta do Senado – que deverá apreciar sua nova versão.
A proximidade das eleições e os impactos negativos da ausência de regramentos para o funcionamento de redes sociais, serviços de mensageria e sistemas de busca trazem preocupação. Assim, apesar de apelidado de “PL das Fake News”, o projeto vai além deste tema, tratando de temas como moderação de conteúdos e publicidade na internet. Ou seja, além de abranger um conjunto de mecanismos importantes para combater o fenômeno da desinformação, o PL estabelece formas de combater abusos cometidos por plataformas e agentes políticos.
A importância dessa agenda, contudo, não pode implicar soluções regulatórias que violem direitos, razão pela qual o conteúdo do PL 2630 deve priorizar medidas concretas para promover a transparência das plataformas e combater práticas problemáticas, equilibrando a garantia entre direitos digitais como a liberdade de expressão, o direito à informação e a proteção de dados.
Um breve histórico
O PL 2630 foi proposto no Senado Federal e teve uma tramitação rápida. A Coalizão Direitos na Rede (CDR) acompanhou ativamente o processo, apresentando posições aos relatores e lideranças nas duas Casas legislativas. Reforçamos que a opção estabelecida no substitutivo ao PL 2630 em discussão na Câmara, de regular os processos das plataformas de conteúdo online, é a melhor forma de tratar fenômenos como o da desinformação. Ainda, é o modelo que tem sido adotado por referências internacionais importantes em matéria de direitos humanos na área digital, a exemplo da Comissão Europeia.
Em diversas audiências públicas e manifestações sobre as diversas versões do PL apresentadas ao longo da tramitação, a CDR expôs sua avaliação sobre pontos positivos, problemas e insuficiências das redações formuladas, buscando contribuir com o trabalho dos parlamentares. Nessas ocasiões, defendemos, dentre outros pontos:
- a expansão do escopo do PL 2630 a fim de incluir diferentes plataformas digitais (redes sociais, serviços de mensageira e mecanismos de busca, com ressalvas para plataformas de acesso ao conhecimento) com número mínimo de usuários;
- a retirada de conceitos genéricos no texto, que poderiam dar margem a abusos na sua implementação;
- vedações relativas a condutas nocivas e problemáticas, como disparos em massa, viralização de conteúdos que causem danos ou, ainda, práticas fraudulentas (como o uso de robôs não identificados como tal e a venda de seguidores);
- inclusão de dispositivos a respeito de mecanismos de transparência;
- o estabelecimento de regras de notificação e reparação para medidas de moderação equivocadas feitas pelas plataformas, em defesa da liberdade de expressão dos usuários; e
- a previsão de um modelo co-regulatório para o funcionamento das plataformas alcançadas pela lei, com diferentes camadas normativas (previsões legais, código de conduta com detalhamento de obrigações e medidas adotadas pelas próprias plataformas) e disciplinado por uma autoridade central (administrativa ou reguladora).
A CDR também se opôs a regras e medidas que, sob o pretexto de combater a desinformação e comportamentos problemáticos, terminavam violando direitos ou abrindo espaço para abusos. Essas discussões ocorreram sobretudo em exigências de implantação de mecanismos de rastreabilidade e de coleta abusiva de dados dos usuários, que chegaram a ser aprovadas pelo Senado, resultando na ampliação da vigilância sobre os cidadãos. A Coalizão também alertou para a inserção de novos tipos penais no PL, entendendo que a criminalização é uma estratégia inadequada de lidar com o problema. Tratam-se de temas que, preocupantemente, seguem em debate, com riscos para os usuários.
Aberta agora a etapa de discussão do PL no plenário da Câmara, é fundamental que os avanços do projeto sejam preservados e os problemas sejam resolvidos na redação.
PONTOS POSITIVOS DO SUBSTITUTIVO DA CÂMARA
A redação que vai à discussão em plenário ampliou o número mínimo de usuários das plataformas alcançadas para 10 milhões, evitando que obrigações recaiam sobre startups e pequenas plataformas, e traz um conjunto de avanços importantes no disciplinamento de plataformas digitais e combate a práticas nocivas:
Ferramentas de busca – As versões do texto avançaram no escopo a ser regulado, incluindo os mecanismos de busca, tão importantes quanto redes sociais e serviços de mensageria na circulação de conteúdos online. Sendo o principal meio de consulta a informações na Internet, usados tanto para busca de informação legítima como enquanto possível canal de difusão de desinformação, o motores de busca devem ser tratados pela lei, dentro das especificidades de sua arquitetura – como considerado e adaptado na versão aprovada no GTNet a partir de críticas de associações de empresas de tecnologia.
Mecanismos de transparência – O texto traz dispositivos obrigando redes sociais, serviços de mensageria e mecanismos de busca a apresentarem relatórios semestrais de transparência (com um conjunto de informações, como os critérios utilizados para a moderação de conteúdos, suas fundamentações e recursos aceitos) e deveres de transparência sobre conteúdos publicitários e patrocinados, fundamentais para o monitoramento do financiamento de campanhas de desinformação e conteúdos danosos. Tais obrigações são necessárias para que poder público, sociedade civil e academia tenham condições de acompanhar as atividades de moderação de conteúdos realizadas por essas empresas e seja possível avaliar a necessidade de estabelecimento de novas regras para o acompanhamento de tais empresas.
Investigação e enfrentamento a ilícitos praticados nas plataformas – O PL fortalece a eficiência no combate a ilícitos praticados nas redes sociais (como disparos em massa, comportamento coordenado inautêntico, fraudes, etc.) ao exigir que as empresas abarcadas na lei indiquem representantes legais no país e forneçam dados para que possam ser acionadas sempre que necessário, de acordo com as normas do país. O texto também acerta ao equilibrar o combate à desinformação e ilícitos na rede com a proteção dos direitos dos cidadãos e o devido processo legal, ao determinar que os serviços de mensageria observem e respondam a novos instrumentos de investigação e a medidas para coibir a viralização de conteúdos. Destaca-se, em especial, a possibilidade de determinação judicial de preservação e disponibilização de registros de interações de usuários específicos (Artigo 13), uma solução mais adequada do que a previsão inconstitucional de rastreabilidade generalizada de mensagens privadas prevista na versão aprovada pelo Senado.
Agentes públicos – O projeto traz também um rol de obrigações que devem ser observadas por órgãos e agentes públicos em seus perfis e contas nos provedores de aplicação englobados no escopo da lei. Determina quais contas devem ser consideradas de interesse público e, nesta condição, observar regras de transparência rígidas para o uso de recursos públicos e não receber recursos provenientes de publicidade, entre outras. Também prevê que, por se tratarem de contas de interesse público, não podem ser objeto de medidas de moderação pelas plataformas que possam impactar politicamente o debate público. Assim, o PL trata da possibilidade de restauração rápida, mediante ordem judicial, de conteúdos moderados nessas contas. A CDR considera que trazer um capítulo com regras específicas para agentes públicos é um passo importante para impedir que pessoas em posições de poder usem recursos públicos e sua condição para promover ilícitos e estimular o uso malicioso das redes.
Devido processo – Um dos temas que mais polariza a discussão sobre regulação das plataformas é como disciplinar os processos de moderação de conteúdos no interior desses provedores. Com milhões de usuários e centenas de milhões de conteúdos postados todos os dias, a atividade de moderação é, de um lado, indispensável para garantir a liberdade de expressão e o acesso à informação de todo o conjunto de usuários, pois barra ataques a grupos vulneráveis e possibilita diferentes ambientes de debate. De outro, por ser uma atividade de risco, implica em erros, inconsistências e abusos que impactam a capacidade desses usuários de se expressar na internet. Nesse sentido, o PL 2630 buscou desenhar um conjunto de garantias procedimentais a serem cumpridas pelas plataformas. Uma delas é notificar o usuário sobre qualquer moderação realizada sobre seu conteúdo e conta, explicitando as motivações da moderação e oferecendo de forma destacada e direta mecanismo para contestação da decisão e restabelecimento do conteúdo moderado de forma indevida. Consideramos que a existência na lei de uma regra que funciona como um comando geral para garantir um devido processo que proteja o usuário de medidas equivocadas é um avanço importante para o exercício da liberdade de expressão e na redução de uma relação assimétrica entre empresa e cidadãos. A CDR também defende que o projeto de lei contemple previsão para a reparação dos danos causados por erros ou abusos das plataformas. Entendido como uma garantia de que tais empresas se aplicarão na garantia do devido processo e dos direitos dos usuários, tal dispositivo é fundamental para que o Judiciário analise ações indenizatórias por parte de usuários que se sentirem lesados nestas hipótese.
A adoção de parte dos pontos acima enfrenta grande resistência por parte das empresas alcançadas pelo texto, que atuam para dificultar a previsão de novas obrigações de transparência e de regras necessárias para combater abusos e permitir que os usuários tenham mais clareza sobre como os conteúdos publicados circulam e os critérios utilizados para sua moderação.
PROBLEMAS E DESAFIOS
Apesar dos avanços fundamentais destacados, o substitutivo ao PL 2630/2020 ainda conta com dispositivos sem consistência para serem transformados em lei, que deveriam ser melhor analisados em outra oportunidade que não este PL.
Remuneração do jornalismo – O PL prevê que os conteúdos jornalísticos utilizados pelas plataformas ensejarão remuneração ao detentor dos direitos do autor do conteúdo utilizado, ressalvados o simples compartilhamento de endereço de protocolo de internet (link) do conteúdo jornalístico original e o disposto no art. 46 da Lei 9.610/1998 (legislação sobre direitos autorais), na forma da regulamentação. Consideramos importante o desenvolvimento de políticas públicas e regulações que apoiam esta atividade tão fundamental para a democracia. Entretanto, não está definido, pela redação do Artigo 38 no PL, como tal remuneração funcionará; o que será considerado conteúdo jornalístico; qual uso ensejará remuneração; quem fará a fiscalização e como tal obrigação de remuneração será operacionalizada –por exemplo, se haverá acordos individuais com cada veículo ou uma entidade arrecadadora ou se serão considerados os direitos dos profissionais do jornalismo. Assim, a CDR considera que o presente PL não é o melhor espaço para o aprofundamento dessas questões e que elas merecem ser discutidas em outro âmbito, com a atenção devida.
Repasse e guarda de dados – Outro aspecto carente de aprimoramento é o atual Artigo 37 do texto, que pretende impor às plataformas o dever de oferecer às autoridades do país informações sobre os usuários brasileiros. A inespecificidade na indicação de quais seriam as autoridades, as informações e os usuários atingidos oferece margem para requisições excessivas e desproporcionais e conflita com o princípio de minimização no tratamento de dados pessoais afirmado na Lei Geral de Proteção de Dados e com o direito fundamental à proteção de dados pessoais recentemente incluído na Constituição Federal. O risco é agravado ainda pela ausência de previsão de controle judicial sobre os pedidos.
Problema similar é encontrado no Artigo 39 do PL, que altera o regime de guarda de dados estabelecido pelo Marco Civil da Internet para provedores de aplicação. Além de promover uma coleta excessiva de dados ao demandar a individualização inequívoca de usuários, o texto dobra o período obrigatório de guarda desses dados. Ambas as medidas vão na contramão dos avanços realizados no arcabouço de proteção de dados pessoais no Brasil ao longo dos últimos anos.
Código de conduta – A versão do texto que vai a plenário flexibilizou o modelo de elaboração e aprovação do código de conduta a ser adotado pelas plataformas. Fundamental para estabelecer regras e obrigações adicionais às plataformas digitais, de modo mais dinâmico (uma vez que seria revisto a cada dois anos), o código de conduta é central para uma estrutura regulatória em camadas, que impede que a lei fique ultrapassada rapidamente e permite que novas medidas para novos problemas sejam adotadas no âmbito de suas revisões. A redação do texto aprovada pelo GTNet prevê um sistema em que apenas serão apresentadas diretrizes para o código, deixando sua formulação e adoção para as próprias plataformas, de maneira autônoma. Diversas pesquisas vêm mostrando como as políticas das plataformas para combater a desinformação e conteúdos nocivos são frágeis e insuficientes. Neste sentido, é fundamental que os códigos de conduta sejam elaborados em espaços multissetoriais, com a participação das plataformas, e que seu cumprimento possa ser fiscalizado de maneira efetiva.
Criminalização – No tangente ao debate sobre criminalização de condutas, a CED reitera sua preocupação com dispositivos que se dediquem a tipificar condutas banais do usuário de internet. Diante da complexidade do ambiente digital e dos modelos de disseminação de conteúdos de discurso de ódio, desinformação e outros temas, é importante reconhecer que, por muitas vezes, o usuário final é envolvido nesses fluxos de informação sem um devido conhecimento sobre o potencial do cometimento de um crime. Nesse sentido, recomendamos que o PL continue focado na garantia de direitos no ambiente digital e abandone perspectivas persecutórias e criminalizadoras que possam eventualmente criminalizar o uso da internet no Brasil ou que resultem na inversão do princípio de presunção de inocência ao tratar usuários como potenciais criminosos.
“Imunidade parlamentar” – Outro ponto de preocupação sobre a versão atual do texto diz respeito à inclusão de dispositivo conferindo imunidade parlamentar no uso das plataformas digitais (Artigo 22), o que pode servir para blindar perfis de deputados e senadores à aplicação das regras próprias das plataformas. A Coalizão Direitos na Rede entende que o tema não merece prosperar, uma vez que há grande incidência de disseminação de conteúdos desinformativos ou ataques também por parte de parlamentares. O tratamento diferenciado dedicado a esses atores incidiria em um regime desigual entre os usuários de plataformas de redes sociais, aplicativos de mensageria privada e mecanismos de busca. Mesmo que haja previsão constitucional de uma “imunidade parlamentar” geral e oposta à perseguição política por órgãos estatais, a inclusão deste termo no PL poderá abrir brechas indesejáveis para interpretações de “blindagem” destes perfis por parte do Judiciário. Assim como várias regras presentes no ordenamento jurídico brasileiro, este mecanismo pode virar uma desculpa para que a prática de incitação ao crime, o discurso de ódio e a disseminação de desinformação continuem existindo por parte de alguns parlamentares.
Porta lógica – Ao se pretender obrigar os provedores de aplicação a armazenar registros “que individualizem o usuário de um endereço de IP” – a chamada “porta lógica de origem” –, conforme o atual Artigo 39 do PL, a proposta desconsidera o amplo debate democrático ocorrido durante a tramitação do Marco Civil da Internet, que enfrentou a questão e optou por manter o dever de retenção de dados por parte de provedores de aplicação adstrito aos registros de acesso a aplicações. A obrigação de coleta da porta lógica leva a uma coleta de dados desnecessária, apresentando contradição com os princípios norteadores da LGPD e com a Emenda Constitucional nº 115,ameaçando a privacidade dos usuários.
Rastreabilidade – A existência de um mecanismo de rastreabilidade de mensagens em aplicativos de mensageria privada, no formato apresentado durante a discussão do PL, coloca em risco a privacidade e proteção de dados de vários usuários. Apesar da discussão de ferramentas para a contenção da viralização de mensagens de ódio, incitação ao crime e até desinformação ser importante, o dispositivo de rastreabilidade que chegou a ser aprovado pelo Senado e ainda é defendido por alguns setores coloca os usuários em risco, ao passo que pode criar um mecanismo de vigilância em massa que acabará afetando o livre exercício da liberdade de expressão de muitos. A CDR entende que o PL 2630 não pode abrir espaço para a implementação de tal iniciativa, que impactará sobretudo defensores de direitos humanos, ativistas, políticos e movimentos sociais que têm sido alvo de perseguição política no atual cenário brasileiro. A proposta aprovada no Senado é desproporcional, não traz garantia de identificação dos usuários responsáveis pelas postagens e acabará por incluir mais insegurança no ambiente digital – não devendo, assim, voltar ao texto.
A Coalizão Direitos na Rede coloca-se mais uma vez à disposição do Parlamento brasileiro para contribuir com a solução de tais problemas que seguem no PL 2630 e para a adoção de uma legislação que regule as plataformas e combata a desinformação e práticas nocivas na Internet respeitando os direitos fundamentais dos usuários.
Coalizão Direitos na Rede
Fonte: FNE