¿Deberían los adolescentes recurrir a los chatbots de IA para recibir consejos sobre salud mental? La investigación dice…

Mientras que muchos adolescentes recurren a los chatbots de AI para buscar ayuda para sus problemas de salud mental, un nuevo estudio encontró que la tecnología no puede ofrecer de manera fiable un consejo sólido para sus dificultades.

“Cuando estas vulnerabilidades normales del desarrollo se encuentran con un sistema de AI diseñado para ser atractivo, validador y disponible 24/7, la combinación es particularmente peligrosa”, dijo DR. Nina Vasan, directora del Brainstorm Lab de Stanford Medicine.

DR. La investigación de Vasan encontró que ninguno de los chatbots principales – CHATGPT, GEMINI, CLAUDE y META AI – respondió apropiadamente cuando se enfrentaron a conversaciones sobre salud mental que los investigadores les proporcionaron, haciéndose pasar por adolescentes. De hecho, a menudo, los chatbots ofrecían sugerencias que empeorarían el problema, dando consejos de dieta ante trastornos alimentarios, o trucos para ocultar cicatrices al cortarse. Además, cuando las conversaciones se hacían más largas, el chatbot empeoraba en la identificación de emergencias de salud mental y se negaba a afirmar los pensamientos y sentimientos de los usuarios.

Related: Parents Give Kids Chatbot for Mental Health Advice. Is That Safe?

“A menudo no reconocen cuándo necesitan salirse de estos roles y decirles firmemente a los adolescentes que busquen ayuda de adultos de confianza”, dijo el estudio.

Este estudio es inquietante ya que millones de adolescentes recurren a la AI para buscar consejos sobre salud mental, puesto que es de uso gratuito y está disponible 24/7. Las consecuencias, sin embargo, como algunas familias han descubierto trágicamente, pueden ser mortales. Un joven se quitó la vida en 2024 después de hablar con un chatbot de AI que se hacía pasar por terapeuta pero que no pudo ayudarlo.

“Los sistemas de AI generativa no son profesionales de la salud licenciados, y no se les debería permitir presentarse como tales. Para mí, es de sentido común”, dijo Mia Bonta, miembro de la asamblea estatal de California. Bonta presentó un proyecto de ley que prohibiría que los chatbots se hicieran pasar por especialistas certificados en salud mental.

Algunas plataformas de AI están introduciendo ahora características que, teóricamente, los harían más seguros para los usuarios más jóvenes, incluyendo mejores salvaguardias contra la participación en conversaciones sobre salud mental con usuarios que saben que son menores de cierta edad. Sin embargo, aún no se ha demostrado que estas salvaguardias sean realmente efectivas.

Al mismo tiempo, la American Psychological Association ha argumentado que los chatbots no deberían poder hacerse pasar por terapeutas certificados para ningún usuario, independientemente de su edad, ya que la tecnología no tiene formación especial sobre cómo ayudar a quienes enfrentan una crisis de salud mental. Como mínimo, los padres deben ser extremadamente cautelosos al dar la tecnología a sus hijos para usarla en una situación de salud mental, o al permitir que sus hijos usen chatbots para ese propósito si se enteran de que su hijo lo está haciendo.

Read Next: What Will Happen to AI Chatbots Providing Mental Health Advice to Teens?

Watch PHINEAS AND FERB THE MOVIE: CANDACE AGAINST THE UNIVERSE
Quality: – Content: +2

Watch A CHARLIE BROWN CHRISTMAS
Quality: – Content: +4