CNN
—
A Meta fez cortes em suas equipes que lidam com a desinformação e coordenou campanhas de troll e assédio em suas plataformas, disseram pessoas com conhecimento direto da situação à CNN, levantando preocupações antes das eleições cruciais de 2024 nos EUA e em todo o mundo.
Vários membros da equipe que combateu a desinformação nas eleições intermediárias de 2022 nos EUA foram demitidos no outono passado e nesta primavera, disse uma pessoa familiarizada com o assunto. Os funcionários fazem parte de uma equipe global que trabalha nos esforços da Meta para combater as campanhas de desinformação que buscam minar a confiança ou semear confusão em torno das eleições.
A notícia chega no momento em que a Meta, empresa controladora do Facebook e do Instagram, comemora o sucesso incomparável de sua nova plataforma Threads, ultrapassando 100 milhões de usuários apenas cinco dias após o lançamento e abrindo um novo caminho em potencial para os malfeitores.
Um porta-voz da Meta não especificou, quando questionado, quantos funcionários foram cortados de suas equipes trabalhando nas eleições. Em uma declaração à CNN na noite de segunda-feira, o porta-voz disse: “Proteger as eleições de 2024 nos EUA é uma de nossas principais prioridades e nossos esforços de integridade continuam a liderar o setor”.
O porta-voz não respondeu às perguntas da CNN sobre quais recursos adicionais foram implantados para monitorar e moderar sua nova plataforma. Em vez disso, a Meta disse que a gigante da mídia social investiu US$ 16 bilhões em tecnologia e equipes desde 2016 para proteger seus usuários.
Mas a decisão de demitir funcionários antes de 2024, quando as eleições não ocorrerão apenas nos Estados Unidos, mas também em Taiwan, Ucrânia, Índia e outros lugares, levantou preocupações entre aqueles com conhecimento direto do trabalho de integridade eleitoral da Meta.
A natureza díspar do trabalho da Meta nas eleições torna difícil, mesmo para as pessoas dentro da empresa, dizer especificamente quantas pessoas fazem parte do esforço. Um grupo de funcionários relevantes atingidos com mais força pelas demissões foram os especialistas em “revisão de conteúdo” que revisam manualmente postagens relacionadas a eleições que podem violar os termos de serviço da Meta, disse uma pessoa familiarizada com os cortes à CNN.
A Meta está tentando compensar esses cortes detectando de forma mais proativa as contas que espalham informações falsas relacionadas às eleições, disse a pessoa, que falou sob condição de anonimato porque não estava autorizada a falar com a imprensa.
Durante anos, a gigante da mídia social investiu pesadamente em equipes de pessoal para erradicar redes sofisticadas e coordenadas de contas falsas. Esse “comportamento inautêntico coordenado”, como Meta o chama, começou antes da eleição de 2016, quando uma infame operação de trolls ligada ao governo russo correu loucamente no Facebook.
A equipe encarregada de combater as campanhas de influência – que inclui ex-funcionários do governo dos EUA e da inteligência – tem sido geralmente vista como a mais robusta do setor de mídia social. A empresa publicou relatórios trimestrais nos últimos anos que expõem governos e outras entidades que foram operando campanhas secretas empurrando a desinformação nas plataformas da Meta.
As equipes que investigam campanhas de desinformação agora devem priorizar quais campanhas e países focar, disse outra pessoa familiarizada com a situação, uma troca que pode resultar em alguns esforços enganosos passando despercebidos.
A pessoa enfatizou que a Meta ainda possui uma equipe dedicada de profissionais trabalhando nessas questões, muitos dos quais são amplamente respeitados nas comunidades cibernéticas e de segurança da informação.
Mas, embora a inteligência artificial e outros sistemas automatizados possam ajudar a detectar alguns desses esforços, desenterrar redes sofisticadas de desinformação ainda é um “processo muito manual” que envolve intenso escrutínio de uma equipe especializada, disse à CNN outra pessoa com conhecimento direto dos esforços de combate à desinformação da Meta.
A pessoa disse temer que Meta estivesse regredindo do progresso que havia feito ao aprender com os erros do passado. “Lições que foram aprendidas com muito custo”, disseram eles, citando a admissão da empresa em 2018 de que suas plataformas foram usadas para incitar a violência em Mianmar.
Além de sua equipe interna, a Meta e outras empresas de mídia social contam com dicas de acadêmicos e outros pesquisadores especializados em monitorar redes secretas de desinformação.
Darren Linvill, professor do Media Forensics Hub da Clemson University, disse que enviou dicas valiosas à empresa nos últimos meses, mas o tempo de resposta da Meta diminuiu significativamente.
Linvill, que tem um longo histórico de identificação bem-sucedida de contas online secretas, incluindo ajudar a desenterrar um esforço de interferência eleitoral russa na África em 2020, disse que a Meta removeu recentemente uma rede de contas em russo que postavam conteúdo pró e anti-Ucrânia. no Facebook e no Instagram.
“Eles estavam tentando atiçar a raiva em ambos os lados dos debates”, disse ele.
Lançado na última quinta-feira, o Threads se tornou um sucesso instantâneo com celebridades, políticos e jornalistas migrando para a plataforma.
O novo aplicativo no estilo do Twitter está vinculado às contas existentes do Instagram dos usuários, em vez de ser vinculado diretamente ao Facebook. Atualmente, o Threads compartilha os mesmos padrões de comunidade do Instagram, mas as plataformas diferem em questões relacionadas aos métodos do Meta para combater a desinformação.
A Meta também aplica rótulos a contas controladas pelo estado no Facebook e Instagram, como a agência de notícias Sputnik da Rússia e a CCTV da China. No entanto, esses rótulos não aparecem em contas controladas pelo estado em Threads.
O lançamento do Threads, mesmo quando a Meta reduz seu pessoal focado em desinformação, ocorre em um momento turbulento e transformador para aqueles encarregados de escrever e implementar regras em plataformas de mídia social.
Elon Musk, o bilionário que comprou o Twitter no ano passado, praticamente rasgou o livro de regras dessa plataforma e destruiu a equipe que trabalhava na implementação de políticas destinadas a combater os esforços de desinformação.
No mês passado, o YouTube, que também fez cortes de empregos, anunciou que permitiria vídeos que apresentassem a falsa alegação de que a eleição presidencial dos EUA em 2020 foi roubada, uma reversão de sua política anterior.
As reversões de regras ocorrem quando a Câmara dos Deputados, controlada pelos republicanos, investiga as interações entre empresas de tecnologia e o governo federal.
Na semana passada, um juiz federal na Louisiana ordenou que algumas agências da administração de Biden e altos funcionários não se comunicassem com empresas de mídia social sobre determinado conteúdo, dando uma vitória aos estados do Partido Republicano em um processo que acusa o governo de ir longe demais em seus esforços para combater o Covid-19. 19 desinformação.
As restrições e o escrutínio podem dar cobertura a empresas de mídia social que podem querer retirar algumas das regras de suas plataformas em relação à integridade eleitoral, disse Katie Harbath, ex-funcionária do Facebook que ajudou a liderar os esforços eleitorais globais da empresa até 2021.
“Eu posso [almost] ouvir [Meta Global Affairs President] Nick Clegg dizendo que ‘vamos ser cautelosos com o que fazemos, porque não queremos entrar em conflito com a lei’”, disse Harbath.