PL das Fake News: versão que chega a plenário não cita entidade autônoma de supervisão

Relator já havia antecipado que este era o ponto que “faltava”. Novas alterações ainda podem ser apresentadas na sessão de votação.
PL das Fake News: versão que vai a plenário não cita entidade autônoma de supervisão
Nova versão do PL das Fake News ainda pode ser alterada em plenário. (crédito: Freepik)

O relator do Projeto de Lei das Fake News (PL 2630/2020), deputado Orlando Silva (PCdoB-SP) retirou a previsão de criação de uma “entidade autônoma de supervisão” às plataformas digitais do parecer oficialmente apresentado ao Plenário da Câmara dos Deputados, na noite desta quinta-feira, 27. Tal instituição seria a responsável por abrir procedimentos de apuração da conduta das empresas, além de ditar parâmetros para moderação de conteúdo e aplicar sanções em caso de descumprimento. 

No final da tarde de quinta o parlamentar já havia afirmado nas redes sociais que concluiu o relatório para o PL, no entanto, “resta um tema: qual instituição fiscalizará a lei e, eventualmente, aplicará sanções”. Novas alterações ainda podem ser submetidas ao texto em Plenário. 

A versão final manteve as atribuições do Comitê Gestor da Internet no Brasil (CGI.br) para definir diretrizes a serem seguidas pelas plataformas digitais na elaboração de um código de conduta, além de estabelecer critérios para a instauração de protocolos de segurança – procedimento de monitoramento frente a conteúdos que violem direitos fundamentais. 

A falta de definição de uma entidade supervisora é um dos pontos criticados por especialistas em direito digital, assim como outro trecho ficado de fora, que autorizava a Justiça Eleitoral a definir regulamento durante período de campanha com prazos mais curtos para o cumprimento das decisões – antes as 24 horas previstas no PL. 

Veja a seguir outras alterações feitas no relatório publicado para deliberação:

A quem a lei se destina

Os provedores de aplicação sob demanda foram inseridos no rol de plataformas submetidas ao PL. O texto final também mantém as aplicações configuradas como “rede social, ferramentas de busca e mensageria instantânea”, desde que  “constituídos na forma de pessoa jurídica, ofereçam serviços ao público brasileiro e exerçam atividade de forma organizada, com número médio de usuários mensais no país superior a dez milhões”. 

A quem a lei não se destina

Entre as aplicações nas quais a lei não gera efeitos, a versão apresentada em plenário repete  exceções incluídas ainda nesta semana ao substitutivo, que são: “busca e disponibilização de dados obtidos do poder público” e “plataformas de jogos e apostas online”.

Além delas, também são exceções, já previstas anteriormente, as plataformas destinadas a: 

  • comércio eletrônico;
  • realização de reuniões fechadas por vídeo ou voz;
  • enciclopédias online sem fins lucrativos;
  • repositórios científicos e educativos e
  • desenvolvimento e compartilhamento de software de código aberto.

Objetivos

Nova versão cita que um dos objetivos da lei é “o exercício do direito do usuário à notificação, ao contraditório, ampla defesa e devido processo em relação à moderação de conteúdos”. 

Já o texto anterior assegurava a notificação, o contraditório e a ampla defesa ao “devido processo em relação a procedimentos adotados pelo provedor, decorrentes da legislação, de determinações da entidade autônoma de supervisão, de códigos de conduta ou de termos de uso, incluindo os casos de moderação de conteúdos ou contas”.

Dever de cuidado

No texto anterior, as plataformas estavam obrigadas a combater a disseminação de conteúdos que configurassem ou incitassem determinadas  “práticas ilícitas”. A nova versão manteve apenas o verbo “configurar”.

As  “práticas ilícitas” em questão são as seguintes:

  • crimes contra o Estado Democrático de Direito;
  • atos de terrorismo e preparatórios de terrorismo;
  • crime de induzimento, instigação ou auxílio a suicídio ou a automutilação;
  • crimes previstos no Estatuto da Criança e do Adolescente; e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes;
  • crime de racismo;
  • violência contra a mulher e
  • infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional.

Responsabilidade dos provedores

Novo texto diz que as plataformas “podem ser responsabilizadas civilmente, de forma solidária: pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma” e “quando houver descumprimento das obrigações de dever de cuidado”. Este ponto, de acordo com especialistas, permite que as plataformas sejam cobradas sem a necessidade de uma determinação judicial e segue o mesmo sentido da versão anterior, já divulgada nesta semana.

A responsabilização se dá a partir do chamado “protocolo de segurança”, um procedimento administrativo a ser aberto pelo prazo de até 30 dias quando: configurado risco iminente de danos à dimensão coletiva de direitos fundamentais; nos casos previstos no dever de cuidado; ou no descumprimento das obrigações de avaliação de risco sistêmico.

“Quanto aos riscos sistêmicos, estes incluem a difusão de conteúdos ilegais, efeitos negativos reais ou previsíveis no exercício dos direitos fundamentais, no discurso cívico e nos processos eleitorais, bem como na segurança pública e também potenciais efeitos negativos em relação à violência contra a mulher, à proteção da saúde pública e aos menores, e as consequências negativas graves para o bem-estar físico e mental da pessoa”, consta no relatório. 

O texto anterior atribuía a competência de abrir protocolos de segurança à entidade autônoma de supervisão. Na versão que chegou ao plenário, não há uma atribuição específica. 

Seria também a entidade a responsável por aplicar sanções. Apesar de também não atribuir qual será a instituição competente para tal, nem a sua natureza, o texto mantém a previsão das punições administrativas nos termos abaixo. 

Sanções

Conforme já previsto anteriormente, as plataformas estão sujeitas a serem punidas de forma isolada ou cumulativa nos seguintes termos, administrativamente:

  • advertência, com indicação de prazo para adoção de medidas corretivas; 
  • multa diária,  limitada a R$ 50 milhões por infração;
  • multa simples, de até 10% do faturamento do grupo econômico no Brasil no seu último exercício. Caso não exista faturamento do período, caberá multa de R$ 10 a R$ 1 mil por usuário cadastrado do provedor sancionado, limitada, no total, a R$ 50 milhões por infração;
  • publicação da decisão pelo infrator;
  • proibição de tratamento de determinadas bases de dado e 
  • suspensão temporária das atividade.

As punições ocorrerão após procedimento administrativo com possibilidade das plataformas apresentarem defesa, com possibilidade de medidas preventivas, como multa, quando houver indício de que o provedor possa causar dano irreparável. 

A gravidade das sanções levará em conta aspectos como natureza das infrações, eventual violação de direitos, boa-fé e condição econômica do infrator, reincidência, cooperação e adoção de medidas corretivas.

As plataformas ficam isentas das sanções caso o processo de moderação de conteúdo tenha sido aberto por iniciativa própria e de acordo com seus termos de uso, a não ser que seja identificado “descumprimento sistemático” da lei. Estes termos já estamos já estavam previstos no projeto. 

Já quando se tratar de decisões judiciais, para remoção de conteúdo, há prazo para cumprimento de até 24 horas, sob pena de multa de R$ 50 mil a R$ 1 milhão por hora. 

Os conteúdos removidos devem ser guardados pelas plataformas por seis meses (com possível prorrogação), incluindo dados de acesso à aplicação, como o registro de acesso, endereço de protocolo de internet, incluindo as portas de origem, além de dados cadastrais, telemáticos, outros registros e informações dos usuários que possam ser usados como material probatório, inclusive as relacionadas à forma ou meio de pagamento, quando houver. 

Representação

Confirmando em lei precedentes do Judiciário, o projeto de lei prevê que os provedores serão representados por pessoa jurídica no Brasil, “cuja identificação e informações serão facilmente acessíveis nos sítios dos provedores na internet”. Este ponto foi incorporado neste ano.

Tais representantes devem responder e cumprir eventuais determinações, penalizações, multas e afetações financeiras que a empresa possa incorrer, especialmente por descumprimento de obrigações legais e judiciais.

Desinformação

O crime em espécie, de desinformação, é definido como “promover ou financiar, pessoalmente ou por meio de terceiros, mediante uso de conta automatizada e outros meios ou expedientes não fornecidos diretamente pelo provedor de aplicações de internet, divulgação em massa de mensagens que contenha fato que sabe inverídico, que seja capaz de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal”.

A pena é de um a três anos de reclusão e multa para o autor da postagem.

Perfis de autoridades

O mais recente relatório repete trecho publicado nesta semana que reduz os cargos públicos que terão suas contas nas redes sociais consideradas de “interesse público”. Veja relação:

Versão extensa: Versão final:
Ministros de Estado Ministros de Estado
Secretários de Estado, Secretário Municipal

ou equiparados

Secretários de Estado, Secretário Municipal

ou equiparados

Presidente e Vice-presidente da República Presidente e Vice-presidente da República
Diretores das entidades da Administração

Pública indireta da União, dos Estados, do

Distrito Federal e dos Municípios

Diretores das entidades da Administração

Pública indireta da União, dos Estados, do

Distrito Federal e dos Municípios

Presidente, Vice-Presidente e Conselheiros

dos Tribunais de Contas

Juízes e desembargadores
Servidores do Ministério Público
Servidores das Forças Armadas
Presidentes e diretores de agências nacionais,

autarquias, inclusive as especiais, fundações

mantidas pelo Poder Público, empresas públicas

e sociedades de economia mista

Ficou retirado do relatório final também trecho que proibia a remuneração advinda de publicidade de plataforma aos detentores de cargos eletivos, aos magistrados, membros do Ministério Público, membros das Forças Armadas, e suas forças auxiliares e militares dos Estados, quando as contas forem utilizadas para veicular conteúdo relacionado ao exercício de seus cargos. 

Foi mantida a regra de que as contas de interesse público “não poderão restringir a visualização de suas publicações por outras contas” e que “a imunidade parlamentar material estende-se às plataformas mantidas pelos provedores de aplicação de redes sociais”.

Competência do CGI.br

O relatório incorpora os seguintes novos papéis para a CGI.br, que constavam no substitutivo anterior:

  • emitir recomendações prévias a eventual instauração de processo administrativo em caso de insuficiência das informações contidas nos relatórios de transparência ou avaliação insatisfatória em auditoria independente;
  • emitir diretrizes e critérios para a instauração dos protocolos de segurança e análise de riscos sistêmicos e
  • analisar os relatórios de avaliação de risco sistêmico dos provedores.

 

Outras atribuições já previstas ainda nas primeiras versões e mantidas são: 

 

  • publicar a relação dos provedores que se enquadram na Lei das Fake News;
  • realizar estudos, pareceres e propor diretrizes estratégicas sobre liberdade, responsabilidade e transparência na internet, assim como organizar anualmente uma conferência nacional sobre o tema;
  • realizar estudos e debates para aprofundar o entendimento sobre desinformação e propor diretrizes para o seu combate, no contexto da internet e das redes sociais;
  • apresentar diretrizes para a elaboração de código de conduta para as plataformas atingidas pela norma, assim como validar tais códigos, para defesa dos direitos fundamentais e contra as “práticas ilícitas” listadas no PL;
  • Estabelecer diretrizes para termos de uso dos aplicativos de mensagens como WhatsApp e Telegram, inclusive para que tomem medidas preventivas contra a difusão em massa de conteúdo e a desinformação e
  • realizar estudos sobre os procedimentos de moderação de contas e de conteúdos adotados pelos provedores de redes sociais, bem como sugerir diretrizes para sua implementação.

Para tanto, o projeto de lei sugere que “fica garantida a composição multissetorial do CGI.br para fins de cumprimento das suas competências, com participação do Poder Público, do setor empresarial, do terceiro setor e da comunidade técnico-científica”.

Conteúdo jornalístico

Trecho já previsto no substitutivo inicial e na proposta do Executivo, especifica que os conteúdos jornalísticos utilizados pelos provedores produzidos em quaisquer formatos, ensejarão remuneração às empresas jornalísticas. A forma desta remuneração será definida em regulamentação própria posteriormente, que disporá sobre os critérios, forma para aferição dos valores, negociação, resolução de conflitos, transparência e a “valorização do jornalismo profissional nacional, regional, local e independente”. 

Substitutivo divulgado na última semana complementou esta regra, no sentido de que “a regulamentação disporá sobre arbitragem em casos de inviabilidade de negociação entre provedor e empresa jornalística” e “deverá criar mecanismos para garantir a equidade entre os provedores e as empresas jornalísticas nas negociações e resoluções de conflito”.

Outro acréscimo diz que “o provedor de aplicação não poderá promover a remoção de conteúdos jornalísticos disponibilizados com intuito de descumprimento do disposto neste artigo, ressalvados os casos previstos na lei, ou mediante ordem judicial específica”.

O relatório que chega ao plenário manteve as alterações, além da atribuição ao Conselho Administrativo de Defesa Econômica (Cade) para que ele passe a “coibir atos de infração à ordem econômica do provedor de aplicação que abuse de sua posição dominante na negociação com as empresas jornalísticas”. 

Um novo trecho visa garantir que a regulamentação sobre a remuneração deve ocorrer “sem prejuízo para as empresas classificadas como pequenas e médias”.

Mecanismos de monitoramento

O PL traz um arcabouço de mecanismos que visam monitoramento e transparência das moderações de conteúdo e anúncios. Entre eles:

 

  • Exposição de dados sobre publicidade paga por entidades públicas.
  • Exigência de auditoria externa e independente a ser publicada por parte das plataformas digitais anualmente.
  • Produção semestral de relatório de transparência por parte das plataformas digitais, com o detalhamento dos procedimentos de moderação de conteúdo, ações implementadas para enfrentar atividades ilegais, mudanças significativas nos termos de uso e sistemas de recomendação e dados sobre as equipes responsáveis por aplicação dos termos de uso.
  • Criação de indicadores qualitativos e quantitativos para avaliar código de conduta das plataformas. 
  • Opção de rejeitar conteúdos recomendados a partir de perfilamento.
  • Requisição de dados que comprovem a identidade dos autores de anúncios.
  • Disponibilização aos usuários de histórico dos conteúdos publicitários com os quais a conta teve contato nos últimos 6 meses, detalhando informações a respeito dos critérios e procedimentos utilizados para perfilamento que foram aplicados em cada caso.

Leis alteradas

Além dos próprios dispositivos, o PL altera três leis:

Marco Civil da Internet

 

  • Acrescenta a “porta lógica” na definição de “registro de conexão”, dado que individualiza usuário, já previsto em precedentes em lei como importante para identificar autores de crimes;
  • Assegura que “em qualquer hipótese” os dados guardados sob sigilo pelos provedores de conexão só podem ser disponibilizados sob autorização judicial. 
  • Em caso de pedido de prorrogação do período de guarda dos dados de posse dos provedores de conexão por requerimento de autoridade policial, administrativa ou do Ministério Público, “devem se dar no âmbito de processo administrativo ou judicial em curso e especificar os indivíduos cujos dados estão sendo requeridos e as informações desejadas, sendo vedados pedidos coletivos que sejam genéricos ou inespecíficos”.
  • Foi retirado trecho do substitutivo anterior que limitava período em que autoridades policiais, administrativas e Ministério Público poderiam requerer acesso aos dados sigilosos guardados por prazo superior ao previsto (texto anterior citava em até 60 dias após requerimento).  
  • Expressa que o PL das Fake News é uma exceção à regra de que não é possível responsabilizar civilmente as plataformas por conteúdos danosos sem determinação judicial. 
  • Prevê que o provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização de conteúdo que: viole a intimidade, decorrente da divulgação de cenas de nudez ou de atos sexuais de caráter privado sem autorização de seus participantes; ou contenha imagens ou representações de violência ou cenas de exploração ou abuso sexual envolvendo criança ou adolescente

 

Lei das Eleições 

 

  • Inclui “despesas relacionadas à contratação de serviço de tratamento de dados” entre os gastos eleitorais, sujeitos a registro e aos limites estabelecidos em lei, e seguindo a LGPD. 

 

Código de Processo Penal

 

  • Acrescenta que a “retirada ou bloqueio de conteúdo, suspensão de perfil ou conta ou proibição de acesso à internet” passe a ser considerada como uma das medidas cautelares diversas da prisão. 

 

Vigência

O PL mantém a previsão de que em cinco anos a lei passe por uma revisão, com base nos relatórios de transparência a serem elaborados conforme a norma exige. 

O prazo de vigência da norma é o mesmo previsto no primeiro substitutivo apresentado ainda em março de 2020, sendo:

 

  • Um ano: para análise e atenuação de riscos sistêmicos e apresentação de relatório de transparência semestrais sobre moderação de conteúdo. 
  • 90 dias: para obrigações quando houver risco iminente de danos; relatórios sobre protocolos de segurança, adequação para transparência nos termos de uso e dos algoritmos de recomendação; exigências para anúncio e impulsionamento de conteúdo; regras para conteúdo jornalístico e novas regras de preservação de conteúdo em aplicativo de mensagem; 
  • Na data de publicação, para as demais exigências.

Acesse aqui a íntegra do relatório.

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 839