Moderação de conteúdo: Facebook ‘negligencia’ serviço no Brasil, diz ex-funcionária

Frances Haugen participou de audiência pública na Congresso Nacional. Engenheira destaca que sistema favorece conteúdo polarizado e fake news.
Moderação de conteúdo: Facebook 'negligencia' serviço no Brasil, diz ex-funcionária
Frances Haugen, ex-funcionária do Facebook em audiência pública na Câmara dos Deputados (Foto:Billy Boss/Câmara dos Deputados)

Frances Haugen, cientista de dados ex-funcionária do Facebook, alertou, nesta terça-feira, 5, sobre os impactos da moderação de conteúdo da rede social no Brasil. Segundo ela, as ações contra fake news no país é “negligenciada”.

Haugen falou sobre o tema em audiência pública na Comissão de Legislação Participativa da Câmara dos Deputados. Parlamentares convidaram um representante do Facebook para participar do debate, mas não houve comparecimento.

A cientista atuou na rede social no setor que analisa a derrubada de conteúdos impróprios durante a eleição nos Estados Unidos, saiu da empresa em março de 2021 e a partir de outubro começou a denunciar que o sistema favorece o compartilhamento de conteúdos “raivosos”, que promovem polarização e, consequentemente, mais engajamento.

“O Facebook sabe de muitas intervenções que podem ser feitas hoje, mas escolhem não fazer porque isso impacta o lucro. Uma fração dos usuários [com tendência de proliferar posts impróprios] compartilham conteúdos de 20 a 30 vezes por semana. Já a pessoa mediana compartilha uma vez por semana ou uma vez por mês. Vão tratar quem compartilha 30 vezes por dia da mesma forma das pessoas que compartilham menos?”, explica a lógica, Haugen.

Perfis fake

De acordo com Haugen, no período em que trabalhou no Facebook, os conteúdos que deviam ser derrubados na plataforma passavam por uma análise humana de moderação de conteúdo, ao invés de um sistema mais aprimorado com base em ferramentas de inteligência artificial que a empresa já possui.

“Quando eu trabalhei na equipe de ameaça de inteligência, só havia 17 pessoas envolvidas na empresa inteira olhando os resultados e derrubando as redes de influência. Agora, o Facebook não vai nos dizer quantas pessoas daquela equipe estão olhando para a eleição brasileira. Se tiver uma ou duas pessoas olhando para a eleição brasileira, eu estaria surpresa”. afirmou a cientista.

A engenheira de dados citou estudos que apontam o Brasil como um país com perfil de proliferação de contas falsas.

“O Brasil tem mais de 100 mil contas em que a pessoa convida outras 100 pessoas a mais por dia. Isso é um alerta para as contas robôs, que são parte dessas operações [de influência]. O fato de que esse nível de abuso pode ocorrer no Brasil mostra que o Facebook não está ativamente buscando essas redes coordenadas de influência”.

Moderação de conteúdo e legislação

Ainda durante a audiência pública, a ex-funcionária do Facebook afirmou que se sente “entusiasmada” com o projeto de lei que Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, também conhecido como Lei das Fake News (2630/ 2020).

A proposta impõe aos provedores de redes sociais e aplicativos de mensagem o bloqueio de contas falsas a obrigação de mecanismo de autorização prévia para inclusão dos usuários em grupos de mensagens e listas de transmissão, além de guardar os registros dos envios de mensagens encaminhadas em massa, pelo prazo de três
meses.

O texto ainda prevê o bloqueio de contas falsas ou que disseminem informação de forma atípica, além de maior transparência quanto aos conteúdos patrocinados veiculados nas redes.

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 812