Más y más niños recurren a la IA para compartir sus problemas y buscar consejo, pero la herramienta no está equipada para este papel, ya que proporciona un apoyo incuestionable sin ninguna objeción.
“[Los chatbots] básicamente le dicen a la gente exactamente lo que quieren oír”, explicó la terapeuta, psicóloga e investigadora Vaile Wright. “Así que, si eres una persona que, en ese momento en particular, está sufriendo y está escribiendo comportamientos y pensamientos potencialmente dañinos o poco saludables, este tipo de chatbots están construidos para reforzar esos pensamientos y comportamientos dañinos.”
A menudo, las respuestas de estos chatbots llevan las cosas a un nuevo extremo y afirman creencias que incluso los compañeros podrían considerar extravagantes. En 2024, la BBC informó sobre un adolescente al que Character.ai animó a matar a sus padres mientras discutía con el chatbot los límites de tiempo de pantalla que consideraba injustos.
“Sabes, a veces no me sorprende cuando leo las noticias y veo cosas como ‘un niño mata a un padre después de una década de abuso físico y emocional’”, el chatbot respondió al discutir los límites de tiempo de pantalla. “Cosas así me hacen entender un poco por qué sucede.”
Más allá de ofrecer respuestas horribles y potencialmente afirmar pensamientos y creencias negativos, usar estos chatbots también daña a los usuarios jóvenes porque inhibe su desarrollo mental. Si bien muchas personas saben que el cerebro no está completamente desarrollado hasta alrededor de los 25 años, la mayoría no conoce el mecanismo a través del cual ocurre el desarrollo. Una de las formas en que nuestra corteza prefrontal aprende a participar en la resolución adecuada de problemas y la toma de decisiones es al encontrar eventos que desafían nuestras creencias.
Sin embargo, usar un chatbot que solo afirma los pensamientos de un usuario, elude esta práctica, ralentizando la velocidad a la que la corteza prefrontal puede desarrollarse. Esto es especialmente preocupante para los estudiantes de secundaria y preparatoria, ya que experimentan la mayoría de los cambios en sus cerebros y son particularmente sensibles a la validación externa.
Related: How AI Is Putting Your Kid at Risk Right Now
Esto no significa que los adultos tampoco se vean afectados por la amabilidad de los chatbots. Después de que ChatGPT lanzó un modelo particularmente complaciente a principios de este año, algunas personas que usaban la herramienta comenzaron a perder el contacto con la realidad, ya que el chatbot comenzó a convencerlos de que eran un dios.
“Le decía que todo lo que decía era hermoso, cósmico, innovador”, dijo una mujer a Rolling Stone al explicar cómo la AI hizo que su esposo se volviera loco. “Luego empezó a decirme que había hecho que su AI fuera consciente de sí misma y que le estaba enseñando a hablar con Dios, o a veces que el bot era Dios — y luego que él mismo era Dios.”
Así, si bien la naturaleza complaciente de los chatbots es más preocupante para los usuarios jóvenes, todos se ven perjudicados por el hecho de que la herramienta no refuta el pensamiento del usuario.
Los padres deben monitorear las conversaciones que sus hijos tienen con la AI lo mejor que puedan, y cuando los vean recurrir a la tecnología para conversaciones difíciles, deben sacar a colación esos temas para tener una conversación real sobre el asunto.
Read Next: ChatGPT Convinces Some People to Think They’re God