Nota do editor: Katie Harbath é membro do Bipartisan Policy Center e ex-diretora de políticas públicas do Facebook. O BPC aceita financiamento de algumas empresas de tecnologia, incluindo Meta e Google, em seus esforços para obter informações confiáveis sobre eleições para seus usuários. As opiniões expressas neste comentário são do autor. Leia mais artigos de opinião na CNN.
CNN
—
Todos os dias, as empresas de mídia social que trabalham com moderação de conteúdo devem equilibrar muitos interesses conflitantes e diferentes visões de mundo e fazer a melhor escolha entre uma gama de opções terríveis.
Isso é o que Arquivos do Twitter – um recente lançamento de documentos internos do Twitter sobre decisões da empresa sobre tópicos como o laptop Hunter Biden e a proibição do então presidente Donald Trump – nos mostra. Eles estão nos dando um vislumbre do funcionamento diário e do processo de tomada de decisão para equilibrar liberdade de expressão e segurança. Eu vi isso em primeira mão em meus 10 anos no Facebook – agora Meta. É confuso e imperfeito, e alguém sempre ficará chateado com a decisão.
Ao pensar sobre esse problema, é importante não abordá-lo apenas observando o que qualquer parte do conteúdo diz. Em vez disso, é necessária uma abordagem multifacetada, observando não apenas o conteúdo, mas também o comportamento das pessoas na plataforma, quanto alcance o conteúdo deve ter e mais opções para os usuários terem mais controle sobre o que veem em seus feeds de notícias.
Primeiro, uma plataforma precisa garantir que todos tenham direito à liberdade de expressão e possam expressar com segurança o que pensam. Todas as plataformas – mesmo aquelas que afirmam que a liberdade de expressão é seu valor número um – devem moderar o conteúdo.
Alguns conteúdos, como pornografia infantil, devem ser removidos de acordo com a lei. No entanto, os usuários – e anunciantes – também não querem algum conteúdo legal, mas horrível em seus feeds, como spam ou discurso de ódio.
Além disso, ninguém gosta quando uma multidão online os assedia. Tudo o que fará é afastar as pessoas ou silenciá-las. Essa não é uma verdadeira plataforma de liberdade de expressão. Um exemplo recente é o Twitter, onde seu ex-chefe de confiança e segurança fugiu de casa devido às inúmeras ameaças que recebeu após as críticas de Elon Musk contra ele. Outras plataformas, como metaaumentaram seus esforços para acabar com brigading – quando os usuários coordenam o assédio online.
Em segundo lugar, há mais opções além de deixar o conteúdo ativo ou removê-lo. meta caracteriza isso como remover, reduzir e informar; em vez de retirar conteúdo potencialmente problemático, mas não violador, as plataformas podem reduzir o alcance desse conteúdo e/ou adicionar rótulos informativos a ele para fornecer mais contexto ao usuário.
Esta opção é necessária, pois muitas das postagens mais atraentes são limítrofe – o que significa que eles vão direto ao ponto das regras. Aqui, a plataforma pode não se sentir à vontade para remover conteúdo como clickbait, mas desejará tomar outras medidas porque alguns usuários e anunciantes podem não querer vê-lo.
Alguns argumentam – como fizeram sobre uma parcela do arquivos do twitter — que a redução do alcance é um escândalo. Mas outros, como Renee DiResta, do Stanford Internet Observatory, escreveu que discurso livre não significa livre alcance.
As pessoas podem ter o direito de dizer algo, mas não têm o direito de que todos vejam. Isso está no centro de muitas críticas sobre plataformas que priorizam o engajamento como um fator-chave para decidir o que as pessoas veem em seus feeds de notícias, porque muitas vezes é o conteúdo que evoca uma resposta emocional que recebe mais curtidas, comentários e compartilhamentos.
Isso leva ao terceiro ponto: transparência. Quem está tomando essas decisões e como eles classificam as prioridades concorrentes? O problema em torno do shadow banning – o termo usado por muitos para descrever quando o conteúdo não é mostrado para tantas pessoas quanto poderia ser sem o conhecimento do criador do conteúdo – não é apenas uma pessoa chateada porque seu conteúdo está tendo menos alcance.
Eles estão chateados por não saberem o que está acontecendo e o que fizeram de errado. As plataformas precisam fazer mais nessa frente. Por exemplo, Instagram anunciou recentemente que as pessoas podem ver em suas contas se estão qualificadas para serem recomendadas aos usuários. Isso ocorre porque eles têm regras que determinam que contas que compartilham material sexualmente explícito, clickbait ou outros tipos de conteúdo não serão qualificados para serem recomendados a outras pessoas que não os seguem.
Por fim, as plataformas podem dar aos usuários mais controle sobre os tipos de moderação com os quais se sentem confortáveis. O cientista político Francis Fukuyama chama isso de “middleware.” Dado que cada usuário desfruta de um conteúdo diferente, o middleware permitiria que as pessoas decidissem os tipos de conteúdo que veriam em seus feeds. Isso permitirá que eles determinem o que precisam para se sentirem seguros online. Algumas plataformas, como Facebookjá permite que as pessoas mudem de um feed classificado por algoritmos para um cronológico.
Lidar com o problema da fala e da segurança é extremamente difícil. Estamos no meio de em desenvolvimento nossas normas sociais para o discurso com o qual concordamos online e como responsabilizamos as pessoas.
Descobrir isso exigirá uma abordagem de toda a sociedade, mas precisaremos de mais informações sobre como as plataformas tomam essas decisões. Reguladores, sociedade civil e organizações acadêmicas fora dessas plataformas devem estar dispostos a dizer como fariam algumas dessas chamadas difíceis, os governos precisam encontrar as maneiras certas de regular as plataformas e precisamos de mais opções para controlar os tipos de conteúdo que queremos ver .