CNN
—
O filho de um professor de química etíope que foi morto durante distúrbios no país no ano passado entrou com uma ação contra a Meta, empresa controladora do Facebook, alegando que a plataforma de mídia social está alimentando ódio viral e violência, prejudicando pessoas no leste e sul da África.
Abrham Meareg Amare afirma no processo que seu pai, Meareg Amare, um acadêmico Tigrayan de 60 anos, foi morto a tiros do lado de fora de sua casa em Bahir Dar, capital da região de Amhara na Etiópia, em novembro de 2021, após uma série de ataques odiosos mensagens foram postadas no Facebook que caluniaram e doxaram o professor, pedindo seu assassinato.
O caso é uma petição constitucional apresentada ao Supremo Tribunal do Quênia, que tem jurisdição sobre o assunto, já que o centro de operação de moderação de conteúdo do Facebook para grande parte do leste e sul da África está localizado em Nairóbi.
Ele acusa o algoritmo do Facebook de priorizar conteúdo perigoso, odioso e incitante em busca de engajamento e lucros publicitários no Quênia.
“Eles sofreram violações de direitos humanos como resultado da falha do réu em remover postagens do Facebook que violavam a declaração de direitos, mesmo depois de fazer denúncias ao réu”, diz a denúncia.
O processo judicial alega que o Facebook não investiu adequadamente na moderação de conteúdo em países da África, América Latina e Oriente Médio, principalmente em Nairóbi.
Ele também afirma que o fracasso da Meta em lidar com essas questões centrais de segurança acendeu as chamas da guerra civil da Etiópia.
Em declaração à CNN, a Meta não respondeu diretamente ao processo:
“Temos regras rígidas que definem o que é e o que não é permitido no Facebook e no Instagram. Discurso de ódio e incitação à violência são contra essas regras e investimos fortemente em equipes e tecnologia para nos ajudar a encontrar e remover esse conteúdo. Nosso trabalho de segurança e integridade na Etiópia é guiado pelo feedback de organizações locais da sociedade civil e instituições internacionais.”
Meareg disse que seu pai foi seguido para casa da Universidade Bahir Dar, onde trabalhou por quatro anos dirigindo um dos maiores laboratórios do país e baleado duas vezes à queima-roupa por um grupo de homens.
Ele disse que os homens estavam cantando “junta”, ecoando uma falsa alegação que circulava sobre seu pai no Facebook de que ele era membro da Frente de Libertação do Povo Tigray (TPLF), que está em guerra com o governo federal etíope há dois anos.
Meareg disse que tentou desesperadamente fazer com que o Facebook removesse algumas das postagens, que incluíam uma foto de seu pai e seu endereço residencial, mas ele diz que não recebeu uma resposta até depois de ser morto.
Uma investigação sobre o assassinato pela Comissão Etíope de Direitos Humanos, incluída no processo e vista pela CNN, confirmou que Meareg Amare foi morto em sua residência por assaltantes armados, mas que sua identidade era desconhecida.
“Se o Facebook tivesse apenas parado a propagação do ódio e moderado as postagens corretamente, meu pai ainda estaria vivo”, disse Meareg em um comunicado, acrescentando que uma das postagens pedindo a morte de seu pai ainda estava na plataforma.
“Estou levando o Facebook ao tribunal, para que ninguém sofra como minha família novamente. Estou buscando justiça para milhões de meus compatriotas africanos feridos pelo lucro do Facebook – e um pedido de desculpas pelo assassinato de meu pai”.
Meareg está iniciando o processo com um consultor jurídico e ex-pesquisador da Etiópia na Anistia Internacional, Fisseha Tekle, e o grupo queniano de direitos humanos Katiba Institute.
Os demandantes estão pedindo ao tribunal que ordene que a Meta rebaixe conteúdo violento, aumente a equipe de moderação de conteúdo em Nairóbi e crie um fundo de restituição de cerca de US$ 1,6 bilhão para vítimas de ódio e violência incitados no Facebook.
A Etiópia é uma nação étnica e religiosamente diversa de cerca de 110 milhões de pessoas que falam dezenas de idiomas. Seus dois maiores grupos étnicos, Oromo e Amhara, representam mais de 60% da população. Os Tigrayans, o terceiro maior, são cerca de 7%.
Um porta-voz da Meta disse que as políticas da empresa e o trabalho de segurança na Etiópia são guiados pelo feedback de organizações locais da sociedade civil e instituições internacionais.
“Empregamos funcionários com conhecimento e experiência local e continuamos a desenvolver nossas capacidades para detectar conteúdo infrator nos idiomas mais falados no país, incluindo amárico, oromo, somali e tigrínia”, disse o porta-voz em comunicado.
De acordo com o arquivo de Meareg, a Meta tem apenas 25 funcionários para moderar os principais idiomas na Etiópia. A CNN não pôde confirmar esse número de forma independente, e o Facebook não revelará exatamente quantos falantes do idioma local estão avaliando o conteúdo na Etiópia que foi sinalizado como possivelmente violando seus padrões.
O processo foi aberto após dois anos de intenso conflito na Etiópia, que deixou milhares de mortos, desalojados mais de 2 milhões de pessoas e deu origem a uma onda de atrocidades, incluindo massacres, violência sexual e o uso da fome como arma de guerra. UMA relatório da ONU No ano passado, constatou-se que todas as partes envolvidas no conflito “cometeram violações dos direitos humanos internacionais, do direito humanitário e dos refugiados, algumas das quais podem constituir crimes de guerra e crimes contra a humanidade”, em graus variados.
O governo etíope e a liderança do TPLF concordou em cessar as hostilidades em novembro, comprometendo-se a desarmar combatentes, fornecer acesso humanitário desimpedido a Tigray e uma estrutura para a justiça. Mas o trégua surpresa deixou muitas perguntas sem resposta, com poucos detalhes sobre como será implementado e monitorado.
Não é a primeira vez que a Meta está sob escrutínio por lidar com a segurança do usuário em suas plataformas, especialmente em países onde o discurso de ódio online provavelmente se espalhará offline e causará danos. Ano passado, denunciante Frances Haugenum ex-funcionário do Facebook, disse ao Senado dos Estados Unidos que o algoritmo da plataforma estava “literalmente fomentando a violência étnica” na Etiópia.
Documentos internos fornecidos ao Congresso em formato editado pelo advogado de Haugen, e vistos pela CNN, revelaram que os funcionários do Facebook repetidamente soaram o alarme sobre o fracasso da empresa em conter a disseminação de postagens que incitam a violência em países “em risco” como a Etiópia. Os documentos também indicaram que os esforços de moderação da empresa não foram páreo para a enxurrada de conteúdo inflamatório em sua plataforma e que, em muitos casos, ela falhou em aumentar adequadamente a equipe ou adicionar recursos no idioma local para proteger as pessoas nesses lugares.
Ano passado, Conselho de supervisão independente da Meta recomendou que a empresa comissionasse uma avaliação de due diligence de direitos humanos sobre como o Facebook e o Instagram foram usados para espalhar discurso de ódio e desinformação, o que aumentou o risco de violência na Etiópia.
Rosa Curling, diretora da Foxglove, uma organização legal sem fins lucrativos registrada no Reino Unido que apoia o caso, comparou o papel que o Facebook desempenhou ao atiçar as chamas do conflito etíope ao do rádio ao incitar o genocídio de Ruanda.
“As consequências das informações no Facebook são trágicas e horríveis”, disse Curling. “(Facebook) não estão tomando nenhuma medida. Eles estão cientes do problema. Eles estão optando por priorizar seu próprio lucro sobre a vida dos etíopes e esperamos que este caso impeça que isso continue”.
O Facebook também foi acusado de permitir postagens para alimentar a violência em outros conflitos, principalmente em Mianmar, onde a ONU disse que o gigante da mídia social promoveu violência e ódio contra a população minoritária rohingya. Uma ação judicial buscando responsabilizar a Meta por seu papel no Mianmar A crise foi apresentada em um tribunal da Califórnia no ano passado, por um grupo de refugiados rohingya, buscando US$ 150 bilhões em indenização.
A empresa de mídia social reconheceu que não fez o suficiente para impedir que sua plataforma fosse usada para alimentar o derramamento de sangue, e o presidente-executivo Mark Zuckerberg escreveu uma carta aberta pedindo desculpas aos ativistas e prometendo aumentar seus esforços de moderação.