CNN
—
O TikTok pode apresentar conteúdo potencialmente nocivo relacionado a suicídio e distúrbios alimentares para adolescentes minutos depois de criarem uma conta, sugere um novo estudo, provavelmente aumentando o escrutínio do impacto do aplicativo em seus usuários mais jovens.
Em um relatório Publicados Quarta-feira, o Center for Countering Digital Hate (CCDH) sem fins lucrativos descobriu que pode demorar menos de três minutos depois de se inscrever em uma conta do TikTok para ver o conteúdo relacionado ao suicídio e cerca de mais cinco minutos para encontrar uma comunidade que promove o conteúdo do transtorno alimentar.
Os pesquisadores disseram que criaram oito novas contas nos Estados Unidos, Reino Unido, Canadá e Austrália com idade mínima de 13 anos para usuários do TikTok. Essas contas pausaram brevemente e gostaram de conteúdo sobre imagem corporal e saúde mental. O CCDH disse que o aplicativo recomenda vídeos sobre imagem corporal e saúde mental a cada 39 segundos em um período de 30 minutos.
O relatório surge no momento em que legisladores estaduais e federais buscam maneiras para reprimir o TikTok por questões de privacidade e segurança, além de determinar se o aplicativo é apropriado para adolescentes. Também ocorre mais de um ano depois que executivos de plataformas de mídia social, incluindo TikTok, enfrentaram perguntas difíceis de legisladores durante uma série de audiências no Congresso sobre como suas plataformas podem direcionar usuários mais jovens – principalmente adolescentes – a conteúdos nocivos, prejudicando seus saúde mental e imagem corporal.
Depois Nessas audiências, que se seguiram às revelações da denunciante do Facebook, Frances Haugen, sobre o impacto do Instagram nos adolescentes, as empresas prometeram mudar. Mas as últimas descobertas do CCDH sugerem mais trabalho ainda pode precisar ser feito.
“Os resultados são o pesadelo de todos os pais: os feeds dos jovens são bombardeados com conteúdo prejudicial e angustiante que pode ter um impacto cumulativo significativo em sua compreensão do mundo ao seu redor e em sua saúde física e mental”, Imran Ahmed, CEO do CCDH, disse no relatório.
Um porta-voz do TikTok recuou no estudo, dizendo que é uma representação imprecisa da experiência de visualização na plataforma por vários motivos, incluindo o pequeno tamanho da amostra, a janela limitada de 30 minutos para teste e a maneira como as contas passaram por uma série de tópicos não relacionados para procurar outro conteúdo.
“Essa atividade e a experiência resultante não refletem o comportamento genuíno ou as experiências de visualização de pessoas reais”, disse o porta-voz do TikTok à CNN. “Consultamos regularmente especialistas em saúde, removemos violações de nossas políticas e fornecemos acesso a recursos de suporte para quem precisa. Estamos cientes de que o conteúdo de ativação é exclusivo para cada indivíduo e continuamos focados em promover um espaço seguro e confortável para todos, incluindo pessoas que optam por compartilhar suas jornadas de recuperação ou educar outras pessoas sobre esses tópicos importantes.”
O porta-voz disse que a CCDH não não distingue entre vídeos positivos e negativos sobre determinados tópicos, acrescentando que as pessoas costumam compartilhar histórias fortalecedoras sobre a recuperação de transtornos alimentares.
O TikTok disse que continua a lançar novas proteções para seus usuários, incluindo maneiras de filtrar vídeos adultos ou “potencialmente problemáticos”. Em julho, adicionou uma “pontuação de maturidade” aos vídeos detectados como potencialmente contendo temas adultos ou complexos, bem como um recurso para ajudar as pessoas a decidir quanto tempo desejam gastar em vídeos do TikTok, definir intervalos regulares de tempo de tela e fornecer um painel que detalha o número de vezes que eles abriram o aplicativo. O TikTok também oferece um punhado de controles dos pais.
Esta não é a primeira vez algoritmos de mídia social foram testados. Em outubro de 2021, o senador dos EUA. A equipe de Richard Blumenthal registrou uma conta no Instagram como uma menina de 13 anos e passou a seguir algumas contas de dieta e distúrbios alimentares pró-alimentares (as últimas das quais deveriam ser banidas do Instagram). O algoritmo do Instagram logo começou a recomendar quase exclusivamente que a conta do jovem adolescente seguisse contas de dieta cada vez mais extremas, disse o senador à CNN na época.
(Depois que a CNN enviou uma amostra desta lista de cinco contas ao Instagram para comentários, a empresa as removeu, dizendo que todas quebraram o Instagram políticas contra o incentivo a transtornos alimentares.)
O TikTok disse que não permite conteúdo que represente, promova, normalize ou glorifique atividades que possam levar ao suicídio ou à automutilação. Dos vídeos removidos por violar suas políticas sobre suicídio e conteúdo de automutilação de abril a junho deste ano, 93,4% foram removidos sem visualizações, 91,5% foram removidos dentro de 24 horas após a postagem e 97,1% foram removidos antes de qualquer relatório, segundo a empresa.
O porta-voz disse à CNN que quando alguém pesquisa palavras ou frases proibidas, como #selfharm, não vê nenhum resultado e, em vez disso, é redirecionado para recursos de suporte local.
Ainda assim, diz a CCDH mais precisa ser feito para restringir conteúdo específico no TikTok e reforçar as proteções para usuários jovens.
“Este relatório reforça a necessidade urgente de reforma dos espaços online”, disse o diretor da CCDH Ahmed. “Sem supervisão, a plataforma opaca do TikTok continuará lucrando ao servir a seus usuários – crianças de até 13 anos, lembre-se – conteúdo cada vez mais intenso e angustiante sem verificações, recursos ou suporte.”