CNN Negócios
—
Há pouco mais de um ano, as empresas de mídia social foram notificadas sobre como protegem, ou não protegem, seus usuários mais jovens.
Em uma série de audiências no Congresso, executivos do Facebook
(FB)TikTok, Snapchat e Instagram enfrentaram perguntas difíceis dos legisladores sobre como suas plataformas podem levar usuários mais jovens a conteúdo nocivo, prejudicar a saúde mental e a imagem corporal (principalmente entre as adolescentes) e careciam de controles e salvaguardas parentais suficientes para proteger os adolescentes.
Essas audiências, que se seguiram às revelações do que ficou conhecido como “Papéis do Facebook” da denunciante Frances Haugen sobre o impacto do Instagram nos adolescentes, levaram as empresas a prometer mudanças. Desde então, as quatro redes sociais introduziram mais ferramentas e opções de controle parental destinadas a proteger melhor os usuários mais jovens. Alguns também fizeram alterações em seus algoritmos, como padronizar os adolescentes para ver conteúdo menos sensível e aumentar seus esforços de moderação. Mas alguns legisladores, especialistas em mídia social e psicólogos dizem que as novas soluções ainda são limitadas e é preciso fazer mais.
“Mais de um ano depois que o Facebook Papers revelou dramaticamente o abuso da Big Tech, as empresas de mídia social deram apenas passos pequenos e lentos para limpar seu ato”, disse o senador Richard Blumenthal, que preside o subcomitê de proteção ao consumidor do Senado, à CNN Business. “A confiança na Big Tech acabou há muito tempo e precisamos de regras reais para garantir a segurança das crianças online.”
Michela Menting, diretora de segurança digital da empresa de pesquisa de mercado ABI Research, concorda que as plataformas de mídia social estão “oferecendo muito pouco conteúdo para combater os males que suas plataformas incorrem”. Suas soluções, disse ela, colocam nos responsáveis a responsabilidade de ativar vários controles dos pais, como aqueles destinados a filtrar, bloquear e restringir o acesso, e opções mais passivas, como ferramentas de monitoramento e vigilância executadas em segundo plano.
Alexandra Hamlet, uma psicóloga clínica com sede em Nova York, lembra de ter sido convidada para uma mesa redonda cerca de 18 meses atrás para discutir maneiras de melhorar o Instagram, em particular, para usuários mais jovens. “Não vejo muitas de nossas ideias sendo implementadas”, disse ela. As plataformas de mídia social, ela acrescentou, precisam trabalhar para “continuar a melhorar o controle dos pais, proteger os jovens contra publicidade direcionada e remover conteúdo objetivamente prejudicial”.
As empresas de mídia social apresentadas neste artigo se recusaram a comentar ou não responderam a um pedido de comentário sobre as críticas de que mais precisa ser feito para proteger os usuários jovens.
Por enquanto, os responsáveis devem aprender a usar o controle dos pais, ao mesmo tempo em que estão cientes de que os adolescentes podem contornar essas ferramentas. Aqui está uma visão mais detalhada do que os pais podem fazer para ajudar a manter seus filhos seguros online.
Após as consequências dos documentos vazados, o Instagram, de propriedade da Meta, interrompeu seu plano muito criticado de lançar uma versão do Instagram para crianças menores de 13 anos e se concentrou em tornar seu serviço principal mais seguro para usuários jovens.
Desde então, introduziu um centro educacional para os pais com recursos, dicas e artigos de especialistas em segurança do usuário e lançou uma ferramenta que permite aos responsáveis ver quanto tempo seus filhos passam no Instagram e definir limites de tempo. Os pais também podem receber atualizações sobre quais contas seus filhos adolescentes seguem e as contas que os seguem, e visualizar e ser notificado se seus filhos atualizarem suas configurações de privacidade e conta. Os pais também podem ver quais contas seus filhos adolescentes bloquearam. A empresa também oferece tutoriais em vídeo sobre como usar as novas ferramentas de supervisão.
Outro recurso incentiva os usuários a fazer uma pausa no aplicativo, como sugerir que respire fundo, escreva algo, verifique uma lista de tarefas ou ouça uma música, após um período de tempo predeterminado. O Instagram também disse que está adotando uma “abordagem mais rígida” para o conteúdo que recomenda aos adolescentes e os levará ativamente a diferentes tópicos, como arquitetura e destinos de viagem, se eles estiverem pensando em qualquer tipo de conteúdo por muito tempo.
A Central de segurança do Facebook fornece ferramentas e recursos de supervisão, como artigos e conselhos de especialistas importantes. “Nossa visão para o Family Center é eventualmente permitir que pais e responsáveis ajudem seus filhos adolescentes a gerenciar experiências em tecnologias Meta, tudo de um só lugar”, disse Liza Crenshaw, porta-voz da Meta, à CNN Business.
O hub também oferece um guia para as ferramentas de supervisão parental VR da Meta da ConnectSafely, uma organização sem fins lucrativos destinada a ajudar as crianças a se manterem seguras online, para ajudar os pais a discutir a realidade virtual com seus filhos adolescentes. Os responsáveis podem ver quais contas seus filhos adolescentes bloquearam e acessar as ferramentas de supervisão, bem como aprovar o download ou a compra de um aplicativo bloqueado por padrão com base em sua classificação ou bloquear aplicativos específicos que podem ser inapropriados para eles.
Em agosto, o Snapchat introduziu um guia para pais e hub destinado a fornecer aos responsáveis mais informações sobre como seus filhos adolescentes usam o aplicativo, incluindo com quem eles conversaram na última semana (sem divulgar o conteúdo dessas conversas). Para usar o recurso, os pais devem criar sua própria conta no Snapchat, e os adolescentes devem optar por entrar e dar permissão.
Embora esta tenha sido a primeira incursão formal do Snapchat no controle dos pais, ele já tinha algumas medidas de segurança existentes para usuários jovens, como exigir que os adolescentes fossem amigos em comum antes de começarem a se comunicar e proibi-los de ter perfis públicos. Os usuários adolescentes têm sua ferramenta de compartilhamento de localização do Snap Map desativada por padrão, mas também podem usá-la para divulgar sua localização em tempo real com um amigo ou membro da família, mesmo quando o aplicativo está fechado como medida de segurança. Enquanto isso, uma ferramenta de verificação de amigos incentiva os usuários do Snapchat a revisar suas listas de amigos e garantir que ainda desejam manter contato com determinadas pessoas.
Snap disse anteriormente que está trabalhando em mais recursos, como a capacidade de os pais verem quais novos amigos seus filhos adolescentes adicionaram e permitir que eles relatem confidencialmente sobre contas que podem estar interagindo com seus filhos. Também está trabalhando em uma ferramenta para dar aos usuários mais jovens a opção de notificar seus pais quando denunciar uma conta ou conteúdo.
A empresa disse à CNN Business que continuará a desenvolver seus recursos de segurança e considerará o feedback da comunidade, formuladores de políticas, defensores da segurança e da saúde mental e outros especialistas para melhorar as ferramentas ao longo do tempo.
Em julho, o TikTok anunciou novas maneiras de filtrar vídeos adultos ou “potencialmente problemáticos”. As novas salvaguardas atribuíram uma “pontuação de maturidade” aos vídeos detectados como potencialmente contendo temas adultos ou complexos. Também lançou uma ferramenta que visa ajudar as pessoas a decidir quanto tempo desejam gastar no TikToks. A ferramenta permite que os usuários definam pausas de tempo de tela regulares e forneça um painel que detalha o número de vezes que eles abriram o aplicativo, um detalhamento do uso diurno e noturno e muito mais.
Atualmente, o popular aplicativo de vídeo curto oferece um hub de emparelhamento familiar, que permite que pais e adolescentes personalizem suas configurações de segurança. Um pai também pode vincular sua conta TikTok ao aplicativo de seu filho adolescente e definir o controle dos pais, incluindo quanto tempo eles podem passar no aplicativo todos os dias; restringir a exposição a determinado conteúdo; decidir se os adolescentes podem pesquisar vídeos, hashtags ou conteúdo ao vivo; e se sua conta é privada ou pública. O TikTok também oferece seus guia do guardião que destaca como os pais podem proteger melhor seus filhos na plataforma.
Além do controle dos pais, o aplicativo restringe o acesso a alguns recursos para usuários mais jovens, como Live e mensagens diretas. Um pop-up também aparece quando adolescentes com menos de 16 anos estão prontos para publicar seu primeiro vídeo, solicitando que escolham quem pode assistir ao vídeo. As notificações por push são restritas após as 21h para usuários de contas de 13 a 15 anos e 22h para usuários de 16 a 17 anos.
A empresa disse que fará mais para aumentar a conscientização sobre seus recursos de controle parental nos próximos dias e meses.
Discord não compareceu ao Senado no ano passado, mas a popular plataforma de mensagens enfrentou críticas por dificuldade em relatar conteúdo problemático e a capacidade de estranhos entrarem em contato com usuários jovens.
Em resposta, a empresa recentemente atualizou seu centro de segurançaonde os pais podem encontrar orientação sobre como ativar as configurações de segurança, perguntas frequentes sobre como o Discord funciona e pontas sobre como falar sobre segurança online com adolescentes. Algumas ferramentas de controle parental existentes incluem uma opção para proibir um menor de receber uma solicitação de amizade ou uma mensagem direta de alguém que não conhece.
Ainda assim, é possível que menores de idade se conectem com estranhos em servidores públicos ou em chats privados caso a pessoa tenha sido convidada por outra pessoa na sala ou caso o link do canal caia em um grupo público que o usuário acessou. Por padrão, todos os usuários – incluindo usuários de 13 a 17 anos – podem receber convites de amizade de qualquer pessoa no mesmo servidor, o que abre a possibilidade de enviar mensagens privadas.