Nova york
CNN Negócios
—
Após uma revisão de um ano, o Conselho de Supervisão da Meta disse na terça-feira que o controverso sistema da empresa, que aplica um processo de moderação de conteúdo diferente para postagens de VIPs, foi criado para “satisfazer preocupações comerciais” e corre o risco de causar danos aos usuários comuns.
Em um comunicado de quase 50 páginas, incluindo mais de duas dezenas de recomendações para melhorar o programa, o conselho – uma entidade financiada pela Meta, mas que diz operar de forma independente – pediu à empresa que “aumente radicalmente a transparência” sobre a “verificação cruzada ” sistema e como ele funciona. Também exortou a Meta a tomar etapas para ocultar conteúdo de seus usuários mais proeminentes que potencialmente violam as regras enquanto está sob revisão, a fim de evitar a propagação ainda mais.
O programa de verificação cruzada foi criticado em novembro passado, depois que um relatório do Wall Street Journal indicou que o sistema protegeu alguns usuários VIP – como políticos, celebridades, jornalistas e parceiros de negócios da Meta como anunciantes – do processo normal de moderação de conteúdo da empresa, em alguns casos permitindo que eles postassem conteúdo que violasse as regras sem consequências. Em 2020, o programa aumentou para incluir 5,8 milhões de usuários, informou o Journal.
Na época, a Meta disse que as críticas ao sistema eram justas, mas que o cruzamento foi criado para melhorar a precisão da moderação em conteúdos que “poderiam exigir mais entendimento”.
Após o relatório, o Conselho de Supervisão disse que o Facebook falhou em fornecer detalhes cruciais sobre o sistema, inclusive como parte da revisão do conselho sobre a decisão da empresa de suspender o ex-presidente dos EUA, Donald Trump. A empresa em resposta solicitou que o Conselho de Supervisão revisasse o sistema de verificação cruzada.
Em essência, o sistema de verificação cruzada significa que, quando um usuário na lista publica conteúdo identificado como infringindo as regras do Meta, a postagem não é removida imediatamente (como seria para usuários comuns), mas, em vez disso, é deixada pendente de revisão humana.
Meta diz que o programa ajuda a lidar com “falsos negativos” onde o conteúdo é removido, apesar de não quebrar nenhuma de suas regras para usuários-chave. Mas, ao submeter os usuários de verificação cruzada a um processo diferente, a Meta “concede a certos usuários maior proteção do que outros”, permitindo que um revisor humano forneça toda a gama de regras da empresa para suas postagens, disse o Conselho de Supervisão em seu relatório de terça-feira.
O conselho disse que, embora a empresa “disse ao conselho que a verificação cruzada visa promover os compromissos de direitos humanos da Meta, descobrimos que o programa parece mais diretamente estruturado para satisfazer as preocupações comerciais … Também descobrimos que a Meta falhou em rastrear dados sobre se -check resulta em decisões mais precisas.”
o Conselho de Supervisão é uma entidade formada por especialistas em áreas como liberdade de expressão e direitos humanos. Isto é frequentemente descrito como uma espécie de Suprema Corte da Meta, pois permite que os usuários recorram das decisões de conteúdo nas plataformas da empresa. Embora a Meta tenha solicitado a revisão do conselho, não tem nenhuma obrigação de incorporar suas recomendações.
Em uma postagem de blog publicada na terça-feira, o presidente de Assuntos Globais da Meta, Nick Clegg, reiterou que a verificação cruzada visa “evitar o excesso de aplicação … um erro é especialmente grave.” Ele disse que a Meta planeja responder ao relatório do conselho dentro de 90 dias. Clegg também destacou várias mudanças que a empresa já fez no programa, incluindo a formalização de critérios para adicionar usuários para verificação cruzada e estabelecer revisões anuais para a lista.
Como parte de um amplo conselho para verificação cruzada de reestruturação, o Conselho de Supervisão levantou preocupações de que, ao atrasar a remoção de conteúdo potencialmente violador pela verificação cruzada de usuários pendentes de revisão adicional, a empresa pode estar permitindo que o conteúdo cause danos. Ele disse que, de acordo com a Meta, “em média, pode levar mais de cinco dias para chegar a uma decisão sobre o conteúdo dos usuários em suas listas de verificação cruzada” e que “o programa tem operado com um acúmulo que atrasa as decisões”.
“Isso significa que, por causa da verificação cruzada, o conteúdo identificado como quebrando as regras da Meta é deixado no Facebook e no Instagram quando é mais viral e pode causar danos”, disse o Conselho de Supervisão. Ele recomendou que o conteúdo de “alta gravidade” inicialmente sinalizado como violador das regras da Meta fosse removido ou ocultado em suas plataformas enquanto passava por uma revisão adicional, acrescentando: “tal conteúdo não deve permanecer na plataforma simplesmente porque a pessoa que o postou é um parceiro de negócios ou celebridade”.
O Conselho de Supervisão disse que a Meta deve desenvolver e compartilhar critérios transparentes para inclusão em seu programa de verificação cruzada, acrescentando que os usuários que atendem aos critérios devem poder solicitar a inclusão no programa. “A contagem de celebridades ou seguidores de um usuário não deve ser o único critério para receber proteção adicional”, afirmou.
O conselho também disse que algumas categorias de usuários protegidos por verificação cruzada devem ter suas contas marcadas publicamente e recomendou que os usuários cujo conteúdo seja “importante para os direitos humanos” sejam priorizados para revisão adicional sobre os parceiros de negócios da Meta.
Por uma questão de transparência, “a Meta deve medir, auditar e publicar as principais métricas em torno de seu programa de verificação cruzada para poder dizer se o programa está funcionando de maneira eficaz”, disse o conselho.