AVISO:Voltarei em breve!

Infiltrado na moderação do Facebook mostra falhas nas ações em documentário



O mundo todo está com os olhos voltados para as políticas contra fake news que o Facebook tem adotado, exigindo que a rede social seja mais responsável. Um jornalista investigativo se disfarçou como moderador de conteúdo do Facebook no Reino Unido e teve acesso direto às ações promovidas pela rede social ao limitar as notícias falsas e os conteúdos que expressam discursos de ódio.

Para continuar a leitura clique em "Ler mais..." no botão abaixo!

O que o jornalista disfarçado descobriu vem como uma bomba para a empresa de Mark Zuckerberg: os moderadores do Facebook deixam que as postagens "ultrapassem o limite de exclusão" ao promoverem discursos de ódio em páginas "sujeitas a tratamento diferenciado na mesma categoria", como páginas pertencentes aos governos ou a novas organizações.

As descobertas feitas pelo jornalista viraram um documentário chamado Inside Facebook: Secrets of the Social Network, exibido no canal 4 do Reino Unido. Nele, são descritas práticas questionáveis em nome da CPL Resources, empresa de moderadores com sede em Dublin, na Irlanda, que fornece serviços para a rede social desde 2010. O documentário mostra que a empresa aborda conteúdos sinalizados como violentos, discursos de ódio e racismo de forma parcial e permite que conteúdos de fake news continuem no ar em nome do aumento de receita em publicidade. Até mesmo o Child Online Protection Act, lei de privacidade aprovada em 1998 que determina em 13 anos a idade mínima para usar redes sociais, é ignorado pelos moderadores de conteúdo, que são instruídos a fazer vista grossa para publicações de menores de 13 anos em nome do lucro.

Na última terça-feira 17 de Julho de 2018, um post da equipe do Facebook assinado pela vice-presidente de políticas globais Monika Bickert tentou adiantar as polêmicas e responder às principais questões que o documentário levanta. "Queremos esclarecer que removemos conteúdo do Facebook, não importando quem os posta, quando eles violam nossos parâmetros", disse Monika na publicação, que explica longamente o processo de duplo cheque, defendendo que o sistema tem como objetivo não permitir que conteúdos que não infringem as políticas da rede social sejam erroneamente removidos. "Está claro que algumas partes do que está no programa de moderação em Dublin não refletem as políticas e valores do Facebook e fogem do alto padrão que nós esperamos", revelou Monika.

A rede social agradeceu os toques dados pelo jornalista e disse que vai reformular a capacitação dos moderadores de conteúdo, analisando cuidadosamente todas as práticas de treinamento de suas equipes globais. A equipe de moderação da CPL será também revisada para "garantir que qualquer pessoa que se comporte de forma inconsistente com os valores do Facebook não trabalhe mais para revisar conteúdos na plataforma".

Monika ainda diz: “Se nossos serviços não forem seguros, as pessoas não compartilharão e, com o tempo, deixarão de usá-los. Os anunciantes também não querem que suas marcas sejam associadas a conteúdo problemático ou perturbador”. A publicação também reforça os investimentos que a rede social tem feito em tecnologias de inteligência artificial para incluir mais pesquisadores e engenheiros nas ações de moderação de conteúdo.

Por:Ares Saturno
Fonte:Canaltech/ The Verge, Facebook