Entidades pedem que PL das fake news seja mais transparente sobre remoção de conteúdo


Reunião nesta sexta promoveu debate sobre o PL 2630/2020

O Projeto de Lei 2630/20, do Senado, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, e que tem mais de 70 propostas apensadas a ele, precisa ser mais transparente para o usuário em relação à remoção de conteúdo. Foi este o consenso proposto por organizações que participaram nesta terça, 10, de audiência pública no Congresso, solicitada pelo grupo de trabalho criado em julho, pela Câmara dos Deputados, para analisar o PL.

Diogo Moisés, Coordenador do Programa de Telecomunicações e Direitos Digitais do Idec (Instituto Brasileiro de Defesa do Consumidor), é um dos defensores das regras de transparência. “Que as regras sobre moderação de conteúdo sejam comunicadas de forma simples e didática, especialmente as sanções graves, as remoções de conteúdo e a redução dos alcances das postagens, porque essas práticas de moderação acabam por impactar o exercício da liberdade de expressão”, falou.

PUBLICIDADE

O coordenador do Idec disse ainda que também devem ser transparentes aos usuários os critérios para ordenar, priorizar, indexar, reduzir o alcance ou direcionar o conteúdo. Também sugeriu que as plataformas tenham um serviço de ouvidoria.

Para Rodrigues, as decisões de remoção de conteúdo feitas pelas plataformas devem ser notificadas ao usuário, e este precisa ter possibilidade de uma defesa efetiva, de apelar das decisões, em procedimentos com duração razoável e pré-estabelecida. Mesmo se usuário de plataformas internacionais, deve poder recorrer ao Judiciário nacional.

Ramenia Vieira, Coordenadora Executiva do Intervozes – Coletivo Brasil de Comunicação Social, disse que precisa ser garantido o direito à apelação, que atualmente nem é sempre considerado. Sugeriu que se tenha mais transparência nas políticas das plataformas sobre grupos e comunidades, com informações claras sobre atividades proibidas e conteúdos patrocinados.

De acordo com Vieira, o modelo de negócio das plataformas favorece a desinformação, e as plataformas desenvolvem apenas práticas pontuais para combatê-la. Pediu transparência também sobre as equipes que moderam os conteúdos no Brasil e os critérios que utilizam para remover conteúdos.

Para José Renato Laranjeiras, que representou na audiência pública o Laboratório de Políticas Públicas e Internet (Lapin), o projeto deve exigir que as plataformas informem melhor sobre técnicas, critérios e sistemas de moderação de conteúdos, assim como precisa deixar mais claro ao usuário porque aquele conteúdo está sendo disponibilizado a ele. O usuário, por sua vez, também deve poder determinar quais conteúdos lhe interessam.

Revisão

O deputado Orlando Silva (PCdoB-SP), relator do grupo de trabalho, concorda que o tema da transparência é central no projeto, e diz que tudo será revisto. “Acredito que o aperfeiçoamento dos termos de uso por parte das plataformas é muito importante, para que possamos ter um compromisso público. Devemos revisitar cada um dos incisos e ver se ainda falta algum tema a ser acrescido”, afirmou o parlamentar.

Flexibilidade

O Facebook também esteve presente na audiência desta terça, representado por sua Gerente de Políticas Públicas no Brasil, Rebeca Garcia. Ela defendeu que as regras contidas na lei sejam flexíveis e não detalhadas, por conta da rapidez da evolução tecnológica, de forma que a lei não seja logo ultrapassada.

Segundo Garcia, a transparência na moderação deve ser concentrada em informar o usuário e lhe dar possibilidade de contestação. Rebeca ressaltou ainda que o devido processo legal não pode permitir que discursos de ódio permaneçam no ar.

Rebeca informou que o Facebook instituiu um centro de transparência, em maio deste ano, para reunir as políticas da empresa e os relatórios de transparência, publicados trimestralmente. E também no último ano, como resultado dos debates sobre o tema, criou comitê independente de supervisão sobre decisões de remoção de conteúdo da plataforma.

“É o comitê que toma a decisão final vinculante sobre se um conteúdo deve continuar ou ser removido da plataforma e, embora não vinculante, mas talvez ainda mais importante, o comitê também faz recomendações de políticas para o Facebook”, contou.

Anterior Anatel vai contestar argumentos dos técnicos do TCU no leilão do 5G
Próximos Inscrições para Anuário Tele.Síntese terminam dia 20 de agosto