TikTok impulsa contenido de salud mental a los usuarios — Por qué eso puede ser peligroso

Un nuevo análisis de TikTok revela que la aplicación de videos impulsa contenido de salud mental a los usuarios a una tasa más alta que casi cualquier otro tema.

“El algoritmo de TikTok favorece el contenido de salud mental sobre muchos otros temas, incluyendo política, gatos y Taylor Swift”, afirmó un análisis realizado por The Washington Post, añadiendo que el contenido de salud mental es más “pegadizo” que otros videos.

Esta “cualidad pegadiza” significa que es más fácil para tu algoritmo encontrar más contenido relacionado con la salud mental para poner en tu feed, y que es más difícil deshacerse de él, incluso si dejas de ver videos relacionados con el tema.

 

Related: TikTok Employees Know Just How Dangerous the App Is

Kailey Stephen-Lane dijo al medio que de hecho tuvo que dejar de usar la aplicación debido a esto; ella tiene OCD, y TikTok la bombardeaba con videos sobre la condición, empeorando sus síntomas.

“Los TikToks que he estado recibiendo no son útiles para mi recuperación”, dijo ella. “Me llevan a muchas espirales, y el simple hecho de hacer clic en ‘no me interesa’ ya no parece funcionar”.

¿Qué complica las cosas? Los videos no siempre son precisos, lo que lleva a los espectadores a tener una visión incorrecta de cosas como la depresión, el autismo y otros temas relacionados.

“El algoritmo dice: ‘Bueno, te gusta este video sobre ADHD, aunque sea engañoso, vamos a darte otro video’”, dijo Anthony Yeung, psiquiatra e investigador de la Universidad de British Columbia. “Y se convierte en este ciclo de retroalimentación de desinformación muy vicioso”.

Esta práctica de impulsar contenido de salud mental puede tener efectos secundarios más oscuros. Una nueva investigación de AMNESTY INTERNATIONAL alega que la aplicación promueve contenido a usuarios jóvenes que los empuja hacia la depresión, la ideación suicida y la autolesión.

“Nuestra investigación técnica muestra cuán rápidamente los adolescentes que expresan interés en contenido relacionado con la salud mental pueden ser arrastrados a agujeros negros tóxicos. En solo tres o cuatro horas de interactuar con el feed ‘For You’ de TikTok, las cuentas de prueba de adolescentes fueron expuestas a videos que romantizaban el suicidio o mostraban a jóvenes expresando intenciones de quitarse la vida, incluyendo información sobre métodos de suicidio”, dijo Lisa Dittmer, Investigadora de Derechos Digitales de Niños y Jóvenes de AMNESTY INTERNATIONAL.

TikTok está siendo demandada actualmente por 14 fiscales generales que alegan que el algoritmo de la página For You de la aplicación ha publicitado falsamente que no es adictivo.

En documentos recién desclasificados sobre la propia investigación interna de TikTok, se reveló que la aplicación era consciente de que “los usuarios solo necesitan ver 260 videos antes de que puedan volverse adictos a la aplicación”, y que “el uso compulsivo se correlaciona con una serie de efectos negativos para la salud mental como la pérdida de habilidades analíticas, la formación de la memoria, el pensamiento contextual, la profundidad conversacional, la empatía y el aumento de la ansiedad”.

Los documentos también reconocieron que el algoritmo tenía una “mejor participación” con los jóvenes.

Si bien el contenido de salud mental de TikTok podría parecer útil a medida que las personas intentan navegar sus propios diagnósticos, está claro que la aplicación está impulsando los videos a sus usuarios, sin importar cuán dañinos puedan ser.

Read Next: Is TikTok’s Algorithm Really as Dangerous as We Think?

Watch THE BEST CHRISTMAS PAGEANT EVER (2024)
Quality: – Content: +1

Watch UNSUNG HERO
Quality: – Content: +1