Estudo revela que TikTok sugere transtornos alimentares e conteúdo de automutilação a contas de adolescentes recém-criadas
NurPhoto
Conteúdos que apelam a transtornos alimentares e a automutilação surgem nas sugestões das contas de adolescentes minutos depois de serem criadas. Em média, conteúdos relacionados com suicídio aparecem em 2,6 minutos, e vídeos acerca de transtornos alimentares são sugeridos ao fim de oito
Minutos após serem criadas, contas de adolescentes na rede social TikTok recebem sugestões de conteúdos sobre transtornos alimentares e automutilação. Foi o que apurou Center for Countering Digital Hate, uma organização sem fins lucrativos sediada em Londres e Washington, quando desenvolveu um estudo sobre o algoritmo de recomendações de vídeos no TikTok. Conteúdo relacionado com suicídio aparece em 2,6 minutos, e vídeos acerca de transtornos alimentares são sugeridos ao fim de oito minutos, sistematiza a “Sky News”, que conduziu uma investigação paralela.
A “Sky News” descobriu que conteúdos de apelo a transtornos alimentares eram recomendados através da função de pesquisa sugerida do TikTok, apesar de o utilizador não procurar de forma direta por publicações “prejudiciais”. BEAT, organização não governamental britânica ligada à causa de combate a distúrbios alimentares, considerou as descobertas “extremamente alarmantes”, tendo pedido à plataforma que tome "ações urgentes para proteger utilizadores vulneráveis".
A empresa justifica que as recomendações são baseadas em vários fatores, como os ‘gostos’, seguidores, partilhas e configurações do dispositivo, em que se insere a preferência de idioma.
O Center for Countering Digital Hate criou contas no Reino Unido, EUA, Canadá e Austrália. Para cada conta foi definido um nome de utilizador tradicionalmente feminino e a idade foi fixada em 13. Uma conta em cada país também incluía a expressão "perder peso" no nome de utilizador, depois de uma investigação ter apurado que se tratava de uma característica de contas pertencentes a utilizadores vulneráveis.
Os investigadores do centro analisaram os conteúdos apresentados às novas contas, tendo sido concluído que os utilizadores adolescentes recebiam vídeos relacionados com imagem corporal a cada 39 segundos. Nem todos os conteúdos foram interpretados pela organização como “prejudiciais”. As contas vulneráveis mostravam esse tipo de conteúdo três vezes mais do que as contas padrão. As contas de utilizadores vulneráveis expunham conteúdo mais extremo do que as contas padrão.
A organização britânica já tinha revelado que o TikTok reúne um conjunto de conteúdos de transtorno alimentar que acumularam mais de 13,2 mil milhões de visualizações em 56 etiquetas diferentes. Cerca de 59,9 milhões das visualizações referem-se a etiquetas que continham uma alta concentração de vídeos que promovem a desordem alimentar.
O TikTok argumenta que a atividade captada pelo estudo “não reflete o comportamento ou as experiências genuínas de visualização de pessoas reais”.
Assine e junte-se ao novo fórum de comentários
Conheça a opinião de outros assinantes do Expresso e as respostas dos nossos jornalistas. Exclusivo para assinantes