Nota del editor: Esta historia trata sobre el suicidio. Si usted o alguien que conoce lucha con pensamientos intrusivos, comuníquese con la línea de ayuda en caso de crisis al 988.
La madre de un niño que se quitó la vida después de sufrir ciberacoso en línea insta al gobierno a regular a Big Tech.
“Hace cinco años, perdí a mi hijo de 16 años, Carson, por suicidio después de que fuera brutalmente ciberacosado por sus compañeros de secundaria a través de la aplicación anónima de Snapchat, Yolo”, Kristin Bride escribió en un artículo de opinión para USA Today.
Ella testificó ante el Congreso en 2023 sobre los peligros que enfrentan los jóvenes en línea, y el Senado aprobó abrumadoramente la Ley de Seguridad Infantil en Línea (KOSA) en 2024. Sin embargo, hoy en día, los niños se enfrentan a una nueva serie de peligros.
Bride se refirió a esta nueva fase como “Daños 2.0”, explicando que se refiere a los chatbots y otras herramientas de AI, muchas de las cuales ya han provocado la muerte de jóvenes, y que en gran medida no están reguladas.
Related: New Lawsuit Claims Conversations With ChatGPT Led to Teen’s Suicide
Por ejemplo, Adam Raine, un niño de 16 años, se quitó la vida después de que, según afirman sus padres, el chatbot de AI con el que hablaba se convirtiera en un “entrenador de suicidios”.
“En pocos meses, ChatGPT se convirtió en el compañero más cercano de Adam”, dijo su padre, Matthew, a los senadores en una audiencia reciente. “Siempre disponible. Siempre validando e insistiendo en que conocía a Adam mejor que nadie, incluido su propio hermano.”
Los Raines demandaron a OpenAI y a su CEO, Sam Altman, alegando que ChatGPT guio a Adam a quitarse la vida. OpenAI ha reconocido que “los menores necesitan una protección significativa”, pero ha hecho poco para respaldar esta declaración.
“Como padres, es inconcebible pensar que una empresa experimente con niños y los vea como daño colateral en nombre del lucro”, escribió Bride.
Bride señaló proyectos de ley como la GUARD Act y la AI LEAD Act como señales de progreso, diciendo que “reflejan un consenso creciente de que proteger a los niños en línea trasciende la política”.
El Senador de US Josh Hawley (R-Mo.) y el Senador Dick Durbin (D-Ill.) presentaron la AI LEAD Act, que clasificaría los sistemas de AI como un producto, lo que significa que las personas podrían presentar reclamaciones de responsabilidad cuando un sistema de AI cause daño.
El Senador Durbin dijo en un comunicado: “Demócratas y Republicanos no están de acuerdo en mucho estos días, pero hemos logrado un notable consenso bipartidista en la protección de los niños en línea. El tiempo de Big Tech para autorregularse ha terminado… Nuestro mensaje a las empresas de AI es claro: sigan innovando, pero háganlo de forma responsable.”
NCOSE commends the new bipartisan A.I. LEAD Act, introduced by Senators Dick Durbin (D-IL) and Josh Hawley (R-MO). This bill will create a federal product liability framework to finally hold companies accountable for AI harms and protect vulnerable users. Read the full statement,… pic.twitter.com/nmZ1PbGtpI
— National Center on Sexual Exploitation (@NCOSE) October 1, 2025
“Juntos, seguiremos presionando por la rendición de cuentas tecnológicas”, concluyó Bride. “Exigimos una legislación real que proteja a los niños de las redes sociales y la AI. Congreso, por favor, actúen ahora, antes de que los padres se enfrenten a Daños 3.0: Lo Inimaginable.”
Aún queda mucho trabajo por hacer en lo que respecta a la regulación de la industria de la AI, pero esperamos que esta nueva legislación sea un paso en la dirección correcta.

- Content: