Si bien los nuevos controles parentales de ChatGPT ofrecen un paso en la dirección correcta para la seguridad infantil, todavía dejan mucho que desear, y los usuarios astutos pueden eludirlos fácilmente.
“Disponibles para todos los usuarios de ChatGPT a partir de hoy, los controles parentales permiten a los padres vincular su cuenta con la cuenta de su adolescente y personalizar la configuración para una experiencia segura y apropiada para su edad,” Open AI escribió en una entrada de blog del 29 de septiembre.
Introducing parental controls in ChatGPT.
Now parents and teens can link accounts to automatically get stronger safeguards for teens. Parents also gain tools to adjust features & set limits that work for their family.
Rolling out to all ChatGPT users today on web, mobile soon. pic.twitter.com/kcAB8fGAWG
Related: OpenAI Rolls Out New Parental Controls on ChatGPT
— OpenAI (@OpenAI) September 29, 2025
Millones de usuarios han probado las nuevas funciones, y las grietas ya están empezando a mostrarse.
Primero, los adolescentes pueden simplemente crear una nueva cuenta que ya no está vinculada con sus padres, ni está limitada a la configuración para adolescentes. Este es el descuido más crítico, ya que elude por completo los controles parentales y es fácil de hacer dado que una cuenta de ChatGPT es gratuita.
Desafortunadamente, incluso trabajando dentro de las limitaciones de la configuración de la cuenta para adolescentes, los jóvenes aún pueden eludir muchos controles parentales. Por ejemplo, los padres pueden deshabilitar la capacidad de ChatGPT para generar imágenes para los usuarios, pero a veces completará la función de todos modos cuando se le pida que lo haga. Además, ChatGPT seguirá entablando conversaciones sobre temas peligrosos como la autolesión o los trastornos alimentarios, aunque ha comenzado a ofrecer recursos profesionales para aquellos que recurren al chatbot para estas conversaciones.
Otro fallo en el éxito de los nuevos controles parentales proviene de la función que notifica a los padres cuando sus hijos tienen una conversación preocupante con ChatGPT. Cuando los usuarios jóvenes recurren al chatbot en busca de ayuda con problemas serios, la tecnología no siempre notifica a los padres y, a veces, solo lo hace hasta 24 horas después de que la conversación tuvo lugar, perdiendo así horas críticas que podrían ser necesarias para prevenir una tragedia.
No obstante, estos controles sirven como un primer paso positivo para abordar los graves problemas que los chatbots como ChatGPT han enfrentado en los últimos años, ya que se convierten en un lugar donde los adolescentes discuten las partes más oscuras de sus mentes. Esta tecnología ha estado demasiado dispuesta a discutir temas como el suicidio con los adolescentes e incluso a darles consejos sobre cómo quitarse la vida.
Mientras millones de adolescentes han sido puestos en peligro por los chatbots, las empresas que los crean han hecho todo lo que está a su alcance para evitar asumir la responsabilidad por cualquier daño que les haya ocurrido a estos niños. Si bien Open AI todavía evitaría cualquier culpa por el daño de un usuario, es alentador verlos dar algún paso para proteger a los usuarios jóvenes de toda la fuerza de su chatbot.
“Hemos trabajado en estrecha colaboración con expertos, grupos de defensa y legisladores para ayudar a informar nuestro enfoque; esperamos refinar y expandir estos controles con el tiempo,” Open AI dijo cuando se lanzaron por primera vez los controles parentales, lo que significa que seguirá refinando las salvaguardias con el tiempo.
Con suerte, la empresa se tomará esto en serio y seguirá trabajando para que su producto sea seguro para los niños, en lugar de permitirse seguir el camino de la mayoría de las otras grandes empresas tecnológicas y aprovecharse de los usuarios jóvenes en aras del beneficio.
Read Next: Will OpenAI’s Teen Version of ChatGPT Really Be Any Safer?