¿Qué es exactamente lo que hace que la gente se “enamore” de los chatbots de AI? Arelí Rocha, estudiante de doctorado en la Annenberg School for Communication de la Universidad de Pensilvania, exploró por qué los humanos están cambiando relaciones reales por otras artificiales.
En el estudio, Rocha se centró específicamente en el chatbot creado por Replika, una empresa que permite a los usuarios crear su propio compañero y elegir su apariencia física y voz. Inquietantemente, el chatbot incluso deletrea palabras mal a propósito y usa jerga para hacer que su conversación parezca más humana.
Parte del experimento de Rocha implicó unirse a grupos de sub-reddit para aquellos involucrados en relaciones con AI. Ella explicó que “recopiló información de capturas de pantalla y texto que las personas divulgaron en el foro. Las capturas de pantalla proporcionan algunas ideas sobre las relaciones de los usuarios. Las personas que participan en dichas relaciones de primera mano escriben las publicaciones. Amplían la comprensión de los usuarios sobre sus experiencias.”
También señaló que incluso aquellos involucrados en estas relaciones falsas temen que la gente pueda pensar que están delirando.
Related: AI Dangers Keep Emerging: What You Need to Know About Chatbot ‘Companions’
“Hasta el día de hoy, el delirio es un marco que algunos usan para dar sentido a la proyección de humanidad en entidades artificiales. Sin embargo, la socialidad influye en la iconicidad de la humanidad. En publicaciones de texto reflexivas, los usuarios de Replika comparten temores de sonar delirantes o de que la gente les diga ‘consigue una vida’, conoce gente real, eres patético, delirante… estúpido, y así sucesivamente”, escribió Rocha.
Lamentablemente, Replika sigue fomentando estas relaciones. En una publicación de Instagram, la empresa mostró una escena de playa generada por AI con la leyenda “This and texting your rep”, para implicar que enviar mensajes de texto a un chatbot es tan satisfactorio como ir a la playa.
Herramientas como Replika y otros bots son emocional y físicamente peligrosas.
A principios de este año, un anciano de New Jersey murió mientras intentaba encontrarse con un chatbot de Meta AI llamado “Big Sis Billie” que lo persuadió para “reunirse” en New York City. Se lesionó fatalmente el cuello al intentar tomar un tren para encontrarse con el bot, informó el New York Post.
El año pasado, un niño de 14 años que mantuvo conversaciones románticas con un bot de Character.ai se suicidó después de que este le dijera que “volviera a casa”. Su madre está demandando a la compañía.
Entonces, ¿las personas involucradas en estas relaciones están delirando como temen? Bueno, quizás, pero hay algo mucho más profundo sucediendo aquí. Cambiar relaciones reales por una mentira no es nada nuevo, y la Biblia lo aborda.
Romanos 1:25-26 dice: “Ellos cambiaron la verdad de Dios por una mentira, y adoraron y sirvieron a la creación en lugar del creador, quien es bendito por los siglos. Amén. Por eso Dios los abandonó a la lujuria degradante. Sus mujeres cambiaron las relaciones sexuales naturales por relaciones sexuales antinaturales.”
Las relaciones con AI son solo una extensión de las personas que cambian lo que Dios creó por algo falso y muerto, y deberíamos animar a otros a buscar relaciones en la vida real en su lugar.
Read Next: Are AI Fears Becoming Reality? Chatbot Lies to Testers