PORTAL DE TELECOM, INTERNET E TIC

Congresso nacional

PL das Fake News: parecer prévio fortalece CGI.br, cita Cade e seleciona sugestões do governo

Versão premilinar fortalece CGI.br, dá atribuições ao Cade e define diretrizes a serem seguidas por entidade autônoma de supervisão.
PL das Fake News: parecer prévio fortalece CGI.br, cita Cade e seleciona sugestões do governo
(Foto: Freepik)

O parecer prévio do Projeto de Lei 2630/2020 – conhecido como PL das Fake News – elaborado pelo relator na Câmara, Orlando Silva (PCdoB/SP) inclui parte das propostas defendidas pelo Poder Executivo, mas também deixa de fora alguns pontos propostos pela equipe de políticas digitais do governo Lula.

Entre as sugestões que ficaram de fora do relatório preliminar estão  um capítulo dedicado à autorregulação regulada e a adoção de um prazo geral de seis meses para adequação das plataformas digitais às novas regras.

O Tele.Síntese preparou um comparativo entre a primeira versão do substitutivo, apresentado em março de 2022, e a prévia que circulou entre parlamentares nesta semana. O texto define atribuições regulatórias ao Comitê Gestor da Internet no Brasil (CGI.br) e coloca o Conselho Administrativo de Defesa Econômica (Cade) na análise da relação entre plataformas e empresas de jornalismo (veja detalhes mais abaixo).

Além de incorporar algumas das ideias da minuta proposta pelo Executivo, o rascunho do novo parecer traz referência a precedentes do Judiciário e recente portaria do Ministério da Justiça e Segurança Pública (MJSP) para coibir conteúdos que incitam violência nas escolas.

O PL das Fake News não trata apenas de combate à desinformação. O texto aborda regras para moderação de conteúdo, prazos para atendimento a determinações relacionadas a investigação criminal, além de prever a criação de uma entidade autônoma de supervisão responsável pela regulação das plataformas digitais. 

A versão que circula entre parlamentares desde terça-feira, 18, no entanto, ainda não é a versão final. Orlando Silva se reúne com representantes do governo e entidades e pretende apresentar oficialmente o parecer final até a próxima semana, cumprindo a previsão do presidente da Câmara, Arthur Lira (PP-AL), de votar, via regime de urgência, entre os dias 26 e 27 de abril. Enquanto isso, há parlamentares e entidades que defendem mais tempo de debate, com a criação de uma comissão especial, como estava previsto inicialmente. 

Veja os principais pontos alterados no parecer prévio em comparação ao substitutivo inicial:

Delimitação dos provedores

(crédito: Freepik)

O texto mantém do substitutivo inicial o trecho de que as regras valerão para provedores que, “quando constituídos na forma de pessoa jurídica, ofertem serviços ao público brasileiro e exerçam atividade de forma organizada, e cujo número de usuários registrados no país seja superior a 10 milhões”. O parecer prévio complementa esta definição, blindando as novas plataformas,  incorporando apenas aquelas que estão nestas condições “há pelo menos 12 meses”. 

São considerados provedores atingidos pela lei: redes sociais, ferramentas de busca, mensageria instantânea, além de uma nova especificação, conforme sugestão do Executivo, de “indexadores de conteúdo”. 

O indexador de conteúdo é definido como aquele “provedor que selecione, agrupe, organize, priorize e ordene conteúdos produzidos por terceiros mediante critérios próprios, independente da criação de contas, perfis de usuários ou qualquer outro registro individual, excetuadas aquelas que se destinem majoritariamente a funcionalidades de comércio eletrônico de produtos e serviços”. 

Nesta delimitação dos provedores alvo, o relator decidiu não incorporar trecho proposto pelo governo federal de prever que a lei seria aplicada “no que couber, plataformas de conteúdo musical ou audiovisual sob demanda”.

Criação de entidade autônoma 

Outra contribuição do Executivo incorporada ao texto é a criação de uma entidade autônoma de supervisão, a ser estabelecida pelo Poder Executivo “para detalhar em regulamentação posterior os dispositivos da lei, fiscalizar sua observância pelos provedores, instaurar processos administrativos e, comprovado o descumprimento das obrigações, aplicar as sanções cabíveis”. Entre suas atribuições está:

  • estabelecer o limite de encaminhamento de mensagens ou mídias para vários destinatários (no caso de aplicativos como WhatsApp  e Telegram);
  • regulamentar mecanismos e requisitos para a notificação de conteúdos ilegais;
  • criar canal de denúncia e apurar eventual abuso e
  • analisar conteúdos tornados indisponíveis.

A entidade em questão deverá contar com “garantias de autonomia técnica e administrativa e independência no processo de tomada de decisões, contando com espaços formais de participação multissetorial” e será responsável pela “avaliação de como as plataformas digitais devem atuar preventivamente em face de conteúdos potencialmente ilegais gerados por terceiros no âmbito de seus serviços”, “tendo o dever geral de agir de forma diligente e em prazo hábil quando notificados”.

As regras regulamentadas pela entidade autônoma vão basear uma auditoria externa que deve ser publicada pelas plataformas digitais anualmente. 

Instituição de protocolos de segurança

De acordo com a nova versão do texto, a mera notificação do usuário aos provedores sobre conteúdo considerado “potencialmente ilegal”, “configura-se como ato necessário e suficiente como prova do conhecimento pelos provedores sobre o conteúdo apontado como infringente, obrigando a atuação dos provedores”. Este trecho não estava previsto no parecer anterior, nem nas propostas enviadas pelo Executivo.

Cabe à entidade autônoma instaurar um “protocolo de segurança” no prazo de até 30 dias caso identifique “risco iminente de danos à dimensão coletiva de direitos fundamentais”. A instauração desse procedimento deverá apontar, entre outros pontos, a delimitação temática de quais conteúdos gerados por terceiros serão passíveis de responsabilização e os elementos que caracterizem o risco e a forma de comprovação do cumprimento das obrigações.

O protocolo de segurança também é um termo que não estava previsto na proposta do Executivo, nem no substitutivo anterior, mas se assemelha ao “protocolo de crise” exigido em portaria do MJSP. 

CGI.br desenvolverá diretrizes

Enquanto as propostas do Executivo não citavam o CGI.br, Orlando Silva mantém em seu mais recente parecer atribuições ao comitê para requerer informações às plataformas, de forma a monitorar suas atividades. Mas o novo texto detalha ainda mais estas competências.

Caberá ao CGI.br atuar com o mesmo papel da entidade autônoma de supervisão enquanto ela não for regulamentada. E mesmo após esta regulamentação, vai ditar diretrizes que devem constar em código de conduta das plataformas e poderá “emitir recomendações prévias a eventual instauração de processo administrativo em caso de insuficiência das informações contidas nos relatórios de transparência ou avaliação insatisfatória por parte da auditoria independente”.

Para tanto, fica garantida a composição multisetorial do CGI.br, “com participação do governo, do setor empresarial, da sociedade civil e da comunidade acadêmica”.

Tipos de responsabilidade

Desenho de pilhas de moedas e mão que segura martelo - Crédito: Freepik
(Foto: Freepik)

Civil: De acordo com o novo parecer, os provedores poderão ser responsabilizados civilmente pelos danos decorrentes de conteúdo gerado por terceiro, “quando demonstrado conhecimento prévio e não tiverem sido adotadas as medidas previstas na lei ou quando as medidas adotadas pelos provedores forem consideradas insuficientes pela entidade autônoma de supervisão”, trecho incorporado, em parte, de acordo com sugestão do governo federal. Texto do Executivo não submetia esta análise à entidade. 

Solidária: em redação nova, o parecer prevê responsabilidade solidária do provedor a conteúdo de terceiro quando houver risco iminente de danos e protocolo de segurança aberto por entidade autônoma de supervisão em decorrência disso. Respondem solidariamente também em caso de danos causados por conteúdos distribuídos por anúncio ou impulsionamento.

Incorporando sugestão do Executivo, está prevista ainda mais dois tipos de responsabilidade: “de análise e atenuação de riscos sistêmicos” e “de dever de cuidado”, em que são exigidas ações preventivas pelas redes sociais contra conteúdos ilícitos. 

O dever de cuidado exige “atuar de forma diligente e em prazo hábil quando notificados”, em relação a conteúdo que incite ou configure:

  • Crimes de abolição violenta do Estado Democrático de Direito;
  • atos de terrorismo e preparatórios de terrorismo;
  • crimes contra crianças e adolescentes;
  • crime de induzimento, instigação ou auxílio a suicídio ou a automutilação;
  • crimes de discriminação e
  • infração sanitária.

Reforçando recente entendimento do Supremo Tribunal Federal (STF) a cerca da soberania das leis brasileiras submetidas às plataformas digitais, o PL mantém previsão do parecer inicial, de exigir que as empresas tenham representantes no Brasil para fins de notificação das autoridades. 

Autorregulação não é citada

A palavra “autorregulação” não aparece na nova versão do relatório. No substitutivo anterior, um dos princípios da lei era o “estímulo à associação para autorregulação” e tinha todo um capítulo sobre autorregulação regulada, ponto que constava também entre as propostas do Executivo e do Judiciário. 

A minuta enviada pelo governo federal ao relator do PL reservava um capítulo sobre autorregulação regulada, além de prever que as plataformas poderiam “instituir entidade de autorregulação”.

Algoritmos transparentes

(Foto: Freepik).

Ponto proposto pelo Executivo e defendido pelo Judiciário é a transparência nos termos de uso e dos algoritmos de recomendação, incorporada no parecer preliminar e não constava no relatório anterior. 

O PL exige que os provedores informem nos termos de uso detalhes como a “descrição geral dos algoritmos utilizados” e os “principais parâmetros que determinam a recomendação ou direcionamento de conteúdo ao usuário”. Além disso, quem usa as redes deve ter a possibilidade de optar pela exibição de conteúdos não selecionados a partir das técnicas de perfilização. 

Ainda sobre o termo de uso, deve ser disponibilizado “de forma acessível, com informações claras, públicas e objetivas, ressalvados os segredos comercial e industrial, no idioma português”, entre outros pontos: os tipos de conteúdos proibidos e a faixa etária à qual se destinam, “potenciais riscos de uso”, meios de notificação de conteúdo ilegal, medidas que poderão ser tomadas contra usuários “violadores contumazes” e o detalhamento das etapas executadas pelo provedor para garantir que o conteúdo esteja em conformidade. 

Conteúdos jornalísticos e Cade

Trecho já previsto no substitutivo inicial e na proposta do Executivo, especifica que os conteúdos jornalísticos utilizados pelos provedores produzidos em quaisquer formatos, ensejarão remuneração às empresas jornalísticas. A forma desta remuneração será definida em regulamentação própria posteriormente, que disporá sobre os critérios, forma para aferição dos valores, negociação, resolução de conflitos, transparência e a “valorização do jornalismo profissional nacional, regional, local e independente”. 

A versão prévia complementa esta regra, no sentido de que “a regulamentação disporá sobre arbitragem em casos de inviabilidade de negociação entre provedor e empresa jornalística” e “deverá criar mecanismos para garantir a equidade entre os provedores e as empresas jornalísticas nas negociações e resoluções de conflito”.

Outro acréscimo diz que “o provedor de aplicação não poderá promover a remoção de conteúdos jornalísticos disponibilizados com intuito de descumprimento do disposto neste artigo, ressalvados os casos previstos nesta Lei, ou mediante ordem judicial específica”.

Novidade não prevista pelo Executivo nem no texto inicial é a atribuição ao Conselho Administrativo de Defesa Econômica (Cade) para que ele passe a “coibir atos de infração à ordem econômica do provedor de aplicação que abuse de sua posição dominante na negociação com as empresas jornalísticas”. 

(Foto: Jefferson Rudy/Agência Senado)

Anúncios sob fiscalização

O relator também incorporou as contribuições do Executivo para uma definição mais detalhada da publicidade promovida pelas plataformas digitais.

O documento chama de “plataformas de publicidade programática”, toda “aplicação de internet que faça intermediação entre anunciantes e empresas que oferecem espaço para publicidade na internet, de forma automatizada, por meio de software algorítmico”. 

Cabe a estas plataformas de publicidade programática “identificar os conteúdos impulsionados e publicitários cuja distribuição tenha sido realizada mediante pagamento ao provedor, de modo que o usuário e o anunciante sejam identificados” e “oferecer informações pertinentes, direta e facilmente acessíveis a partir do anúncio publicitário, sobre os principais parâmetros utilizados para determinar o destinatário da exibição do anúncio publicitário e de como alterar esses parâmetros, quando possível”. 

(Foto: Freepik)

Outra proposta da equipe do presidente Lula que também foi incorporada é a divisão dos tipos de publicidade. São elas:   

  • Publicidade de plataforma: conteúdo veiculado ou exibido em troca de pagamento pecuniário ou valor estimável em dinheiro para as plataformas digitais; 
  • Publicidade de usuário: conteúdo veiculado em troca de pagamento pecuniário ou valor estimável em dinheiro para usuário que utiliza as plataformas digitais.

À publicidade de usuário, fica determinada identificação de quem é o beneficiado sob pena da plataforma digital responder por eventuais ilícitos cometidos no anúncio. 

Para a publicidade de plataforma ou impulsionamento, é obrigatório que os termos de uso descrevam quais conteúdos podem ser objeto de anúncio e quais  são inelegíveis. Os anunciantes devem apresentar documento válido no território nacional. 

As redes devem disponibilizar mecanismos para fornecer aos usuários as informações do histórico dos conteúdos impulsionados e publicitários com os quais a conta teve contato nos últimos seis meses, detalhando informações a respeito dos critérios e procedimentos utilizados para perfilização que foram aplicados em cada caso.

Além disso, as plataformas devem viabilizar o acesso gratuito de instituição científica, tecnológica e de inovação a dados desagregados da publicidade de plataforma, inclusive por meio de interface de programação de aplicações, para finalidade de pesquisa acadêmica, conforme regulamentação específica a ser elaborada.

Perfis públicos e acesso à informação

Embora o texto do PL faça referência à Lei de Acesso à Informação (LAI), um trecho abre exceções. O documento retira previsão de que estariam “sujeitas às garantias de acesso à informação”  as “informações” das contas de redes sociais indicadas como institucionais pelas entidades e órgãos da Administração Pública, direta ou indireta e do  Tribunal de Contas da União (TCU), e aquelas atribuídas aos cargos eletivos ou de diretoria em exercício nestas instituições.

Fica mantido trecho de substitutivo de que tais contas de interesse público “não poderão restringir a visualização de suas publicações por outras contas” e que “a imunidade parlamentar material estende-se às plataformas mantidas pelos provedores de aplicação de redes sociais”.

Há acréscimo de autorização aos membros de cargos eletivos e das diretorias dos órgãos a remuneração advinda de publicidade de plataforma, desde que não sejam utilizadas para veicular conteúdo relacionado ao exercício de seus cargos. No entanto, os recursos que seriam destinados aos titulares das contas, bem como os que seriam auferidos pelos provedores devem ser revertidos, pelos provedores, ao Fundo de Direitos Difusos.

Novos parâmetros para educação digital

foto de crianças em frente ao notebook. Crédito. Freepik
(Foto: Freepik)

O relatório anterior já previa que o Estado deve promover a capacitação, integrada a outras práticas educacionais, para o uso seguro, consciente e responsável das aplicações de internet, incluindo campanhas para evitar a desinformação e para a promoção da transparência sobre conteúdos patrocinados. 

A nova versão complementa com novos parâmetros para o ensino digital, como o desenvolvimento de habilidades para argumentação, reflexão e análise crítica, direito ao acesso à informação, célere promoção da alfabetização digital, formação de professores e conscientização sobre a proteção de dados. 

Proteção a crianças e adolescentes

O mais recente substitutivo preliminar incorpora um novo capítulo ao PL, a Proteção de Crianças e Adolescentes, proposto pela equipe do governo Lula.  “Os provedores devem criar mecanismos para ativamente impedir o uso dos serviços por crianças e adolescentes, sempre que não forem desenvolvidos para eles ou não estiverem adequados a atender às necessidades deste público”, prevê o texto. 

O PL proíbe “a criação de perfis comportamentais de usuários crianças e adolescentes a partir da coleta e do tratamento de seus dados pessoais, inclusive aqueles obtidos nos processos de verificação de idade, bem como de dados grupais e coletivos, para fins de direcionamento de publicidade”.

Exigência de análise de riscos sistêmicos

A nova versão também acrescenta termo utilizado na portaria editada pelo Ministério da Justiça e Segurança Pública para moderação de conteúdo que incitam a violência nas escolas, quando passa a exigir “análise e atenuação de riscos sistêmicos” dos provedores, que deve ocorrer anualmente, avaliando a difusão de conteúdos ilícitos no âmbito dos serviços e danos à dimensão coletiva de direitos fundamentais. 

32% das empresas globais tiveram repetidos ataques cibernéticosetioco
Foto: Freepik

Investigações e sanções

 

O texto preliminar mantém prazo previsto na versão inicial, e que não foi citado pelo Executivo, quanto às investigações criminais. De acordo com o trecho, para fins de constituição de prova e em instrução processual penal, a autoridade judicial pode determinar aos provedores de serviço de mensagem – como WhatsApp e Telegram – a preservação e disponibilização dos registros de interações de usuários determinados por um prazo de até 15 dias, sendo “vedados os pedidos genéricos ou fora do âmbito e dos limites técnicos do seu serviço”.

Apesar disso, todo um novo capítulo sobre trâmites judiciais é acrescido conforme sugestão do governo federal. De acordo com o texto, “as decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado à prática de crimes a que se refere esta Lei, deverão ser cumpridas pelos provedores no prazo de até vinte e quatro horas, sob pena de multa de R$ 50 mil até R$ 1 milhão, por hora de descumprimento. 

O Executivo também sugeriu, e o parecer aprovou, que “a Justiça Eleitoral poderá definir em regulamento, durante o período eleitoral, prazos mais curtos para cumprimento das decisões”.

Além disso, “quando os provedores tomarem conhecimento de qualquer informação que levante suspeitas de que ocorreu ou que possa ocorrer um crime que envolva ameaça à vida deverá informar imediatamente da sua suspeita às autoridades competentes”. 

Especificamente sobre os aplicativos de mensagem, o PL prevê – também por recomendação do governo federal – que, por ordem judicial, os provedores devem preservar e disponibilizar informações suficientes para “identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos”.

Conteúdos removidos

Conforme o PL, a moderação de conteúdo a ser realizada pelas plataformas deve “sempre estar orientados pelos princípios da necessidade, proporcionalidade e não-discriminação”. Sob sugestão do Executivo, a moderação deve sempre considerar a notificação imediata do usuário alvo de remoção e incorporar “procedimentos e prazos para exercer o direito de pedir a revisão da decisão”. 

Quando a postagem for removida, os provedores de redes sociais deverão guardar pelo prazo de um ano aquelas que tenham sido desativadas por decisões judiciais ou pedido formal das autoridades competentes ou que os respectivos dados possam ser usados como prova.

“Os provedores devem garantir que o conteúdo ilícito e os dados relacionados estejam sujeitos a procedimentos técnicos e organizacionais adequados, incluindo a garantia da cadeia de custódia da prova”, consta em acréscimo.

Além disso, há previsão de relatórios de transparência semestrais sobre a moderação de conteúdo, trecho mantido do substitutivo. 

(Foto: Freepik)

Alteração de leis em vigor

Por fim, o PL altera dispositivos de outras leis. A partir de contribuição do governo federal, e seguindo também precedentes do Judiciário, o Marco Civil da Internet (MCI) passa a considerar como “registro de conexão” além do “conjunto de informações referentes à data e hora de início e término de uma conexão à internet, sua duração, o endereço IP”, já previstos, agora também “a porta lógica”, dado que individualiza o usuário.

Também por sugestão do Executivo, o MCI também passar a prever que “o provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente por conteúdo que contenha imagens ou representações de violência ou cenas de exploração sexual, sexo explícito ou pornográfica envolvendo criança ou adolescente”.

No Código de Processo Penal, o governo propôs e o parlamentar incorporou, que a “retirada ou bloqueio de conteúdo, suspensão de perfil ou conta ou proibição de acesso à internet” passe a ser considerada como uma das medidas cautelares diversas da prisão possíveis. 

Trecho novo também atualiza a legislação de direitos autorais (Lei nº 9.610, de 19 de fevereiro de 1998), para incorporar um novo capítulo, “das Obras utilizadas por plataforma digital e provedor de conteúdo sob demanda”, prevendo remuneração a titulares, conforme regulamentação posterior “por órgão competente” e proibindo plataformas de redes sociais de “frustrar ou reduzir, por quaisquer meios, a remuneração de direitos de autor e direitos conexos devida”.

Vigência da lei

A recomendação do governo Lula era de dar um prazo de seis meses para toda a lei. No entanto, o parecer prévio mantém conforme a primeira versão diferentes prazos a partir da publicação, sendo:

  • Um ano: para análise e atenuação de riscos sistêmicos e apresentação de relatório de transparência semestrais sobre moderação de conteúdo. 
  • 90 dias: para obrigações quando houver risco iminente de danos; relatórios sobre protocolos de segurança, adequação para transparência nos termos de uso e dos algoritmos de recomendação; exigências para anúncio e impulsionamento de conteúdo; regras para conteúdo jornalístico e novas regras de preservação de conteúdo em aplicativo de mensagem; 
  • Na data de publicação, para as demais exigências.

TEMAS RELACIONADOS

ARTIGOS SUGERIDOS



 

Chatbot com IA da Mundiale automatiza vendas dos ISPs em até 84%
ISPs ainda podem contar com envio automatizado de boleto com régua de cobrança para reduzir a inadimplência e com gerenciamento fim-a-fim.