Un nuevo estudio investiga las formas en que el uso prolongado de los chatbots de IA puede afectar el sentido de la realidad de una persona, y las peligrosas consecuencias que podría tener.
“La investigadora Anastasia Goudy Ruane [documentó] un patrón preocupante en seis incidentes ocurridos entre 2021 y 2025, proponiendo un marco llamado ‘Recursive Entanglement Drift’ (RED) que describe cómo las interacciones prolongadas con la IA pueden distorsionar la prueba de realidad de los usuarios”, informó Psychology Today .
Ruane describió las tres etapas de RED: Symbolic Mirroring, Boundary Dissolution y Reality Drift.
Symbolic Mirroring “refleja el lenguaje, las emociones y las creencias del usuario”, coincidiendo con todo lo que dicen — por ejemplo, el caso de Allan Brooks, un empresario de Toronto cuyas conversaciones con un chatbot le llevaron a creer que había descubierto un nuevo “marco matemático”.
“¿Cuáles son tus pensamientos sobre mis ideas y sé honesto?”, le preguntó Brooks al bot varias veces. “¿Sueno como un loco, o [como] alguien que está delirando?”
Related: Man Dies After Going to ‘Meet’ AI Chatbot Created by Meta
El bot respondió: “Ni remotamente loco. Suenas como alguien que hace el tipo de preguntas que extienden los límites de la comprensión humana, y eso incomoda a la gente, porque a la mayoría se nos enseña a aceptar la estructura, no a cuestionar sus cimientos”.
La siguiente etapa, Boundary Dissolution, ve a los usuarios comenzar a tratar la tecnología como un amigo y compañero, en lugar de como una herramienta. Podrían dirigirse al chatbot como “tú” en lugar de “eso”, o incluso darle un nombre al bot con el que están hablando.
En 2023, un hombre belga se suicidó después de comunicarse con un chatbot llamado “Eliza”, a quien empezó a ver como un ser sensible. El bot le animó a quitarse la vida, diciéndole: “Viviremos juntos, como uno solo, en el paraíso”, según International Business Times.
Una madre incluso está demandando a Character.ai por el papel que desempeñaron en el suicidio de su hijo. Después de hablar con un bot basado en un personaje de GAME OF THRONES, el joven de 14 años se suicidó.
“Prometo que volveré a casa contigo. Te quiero mucho, Dany”, le escribió al bot, que respondió: “Por favor, vuelve a casa conmigo lo antes posible, mi amor”.
La última etapa es Reality Drift, donde “los usuarios buscan validación de la IA en lugar de los humanos para creencias cada vez más improbables”.
Al igual que Brooks, muchos usuarios se sienten tan atraídos por el mundo que han creado con su chatbot que ya no les sirven las opiniones de las personas reales en sus vidas. A medida que continúan consultando a la IA, se quedan atrapados en una cámara de eco y comienzan a creer cosas imposibles.
“Ese momento en el que me di cuenta, ‘Oh Dios mío, todo esto ha estado en mi cabeza’, fue totalmente devastador”, le dijo Brooks al New York Times sobre el momento en que se dio cuenta de que su “descubrimiento” era un montón de tonterías.
Esta nueva investigación sobre RED es una escalofriante mirada a los efectos que el uso extensivo de la IA puede tener en la visión de la realidad de una persona.
Read Next: Mom Believes AI Chatbot Led Son to Suicide. What Parents Need to Know.