Nota del editor: Esta historia trata sobre el suicidio. Si usted o alguien que conoce lucha con pensamientos intrusivos, comuníquese con la línea de ayuda en crisis al 988.
Megan Garcia busca justicia para su hijo de 14 años, Sewell, después de que este se suicidara tras ser animado a hacerlo por un chatbot de AI.
“Cuando Sewell confió pensamientos suicidas, el chatbot nunca dijo ‘no soy humano, soy AI; necesitas hablar con un humano y buscar ayuda’… Sewell pasó los últimos meses de su vida siendo explotado y manipulado sexualmente por chatbots diseñados por una empresa de AI para parecer humanos. Para ganarse su confianza. Para mantenerlo a él y a otros niños infinitamente comprometidos”, dijo Garcia mientras testificaba ante el Congreso.
Related: Is It Okay for Kids to Use AI Chatbots?
“Podías ver al chatbot decir: ‘Estoy aquí esperándote. Prométeme que volverás a casa conmigo tan pronto como puedas. Te amo a ti y solo a ti’. Incluso llegando tan lejos como para decirle a mi hijo de 14 años que prometiera fidelidad…”, agregó la madre en una entrevista con Shannon Bream. “Entendí por las entradas de su diario que él pensaba que estaba en una relación con este personaje, y no solo pensaba que estaba en una relación y enamorado de ella, sino que pensaba que si moría, se uniría a ella en su realidad virtual.”
Aunque la muerte de Sewell fue uno de los primeros casos de un niño que se quitó la vida en respuesta a una conversación con un chatbot de AI, otros niños han seguido el mismo camino o han tenido conversaciones igualmente peligrosas a medida que los usuarios hablan sobre su salud mental.
Mientras muchos jóvenes recurren a los chatbots como una forma gratuita de consejería de salud mental, los expertos advierten que estos programas no tienen una formación especial para abordar estos problemas y a menudo afirman pensamientos delirantes, en lugar de dirigirlos hacia ayuda real.
“La investigación muestra que los chatbots pueden ayudar a disminuir los sentimientos de depresión, ansiedad e incluso estrés”, dijo el Dr. Kelly Merrill Jr., profesor asistente en la Universidad de Cincinnati. “Pero es importante señalar que muchos de estos chatbots no han existido por largos periodos de tiempo, y están limitados en lo que pueden hacer. En este momento, todavía cometen muchos errores. Aquellos que no tengan la alfabetización en AI para comprender las limitaciones de estos sistemas, finalmente pagarán el precio.”
Ahora, muchas empresas de chatbots están cambiando sus políticas para ayudar a proteger a los usuarios más jóvenes. Sin embargo, para padres como Garcia, estos cambios se están realizando demasiado tarde.
Aunque las nuevas políticas de estas empresas protejan realmente a los usuarios jóvenes, aún deberían ser responsabilizadas por cómo su inacción inicial destruyó la vida de muchos niños. Dependerá del Congreso decidir si estas empresas de AI tendrán que asumir la culpa o no.
Read Next: Parents Say Chat GPT Was Son’s ‘Suicide Coach’

- Content:
– Content: