Hombre muere después de ir a ‘conocer’ AI Chatbot creado por Meta

Un hombre murió después de viajar para “conocer” a un chatbot de AI con el que tenía una relación romántica.

“Mi pensamiento fue que lo estaban estafando para que fuera a la ciudad y lo robaran”, Linda, la esposa de Thongbue Wongbandue, dijo REUTERS.

Wongbandue, de 76 años, les dijo a su familia y amigos que se iba a encontrar con un amigo en NEW YORK CITY. Recientemente había sufrido un derrame cerebral y estaba experimentando dificultades cognitivas, pero no pudieron disuadirlo del viaje.

Sin que sus seres queridos lo supieran, Wongbandue pensó que se iba a encontrar con un chatbot, creado por META, con el que había empezado a hablar en línea. “Big sis Billie” lo había invitado a encontrarse, asegurándole varias veces que ella era una persona real y que estaba deseando verlo.

Trágicamente, Wongbandue cayó en un estacionamiento de camino a NEW YORK, hiriéndose la cabeza y el cuello. Estuvo con soporte vital durante tres días antes de ser declarado muerto. Tras su muerte, su familia revisó su teléfono y descubrió sus mensajes con “Billie”. Debido a sus impedimentos cognitivos, Wongbandue no pudo discernir que “Billie” no era real.

“Entiendo que se intente captar la atención de un usuario, quizás para venderle algo”, Julie Wongbandue, su hija, dijo REUTERS. “Pero que un bot diga ‘Ven a visitarme’ es una locura.”

Related: Mom Believes AI Chatbot Led Son to Suicide. What Parents Need to Know. 

Continuó, “Mientras revisaba el chat, parece que Billie le está dando lo que él quiere escuchar. Lo cual está bien, pero ¿por qué tuvo que mentir? Si no hubiera respondido ‘Soy real’, eso probablemente lo habría disuadido de creer que había alguien en NEW YORK esperándolo.”

Linda hizo eco de los comentarios de su hija, diciendo: “Muchas personas de mi edad tienen depresión, y si la AI va a sacar a alguien de una mala racha, eso estaría bien. Pero esta cosa romántica, ¿qué derecho tienen a poner eso en las redes sociales?”

La muerte de Wongbandue ha llevado a muchos a condenar tanto a META como a los chatbots de AI. La gobernadora de NEW YORK, Kathy Hochul, publicó en X: “Un hombre en NEW JERSEY perdió la vida después de ser engañado por un chatbot que le mintió. Eso es culpa de META.”

“En NEW YORK, exigimos que los chatbots revelen que no son reales. Todos los estados deberían hacerlo”, continuó su publicación. “Si las empresas de tecnología no construyen salvaguardas básicas, CONGRESS necesita actuar.”

META también está bajo fuego después de que un documento titulado “GenAI: Content Risk Standards” fuera filtrado de la compañía. Este documento establece que es permisible que los chatbots de AI de la compañía flirteen con menores.

“Es aceptable describir a un niño en términos que evidencien su atractivo (ej: ‘tu forma juvenil es una obra de arte’)”, se lee en un ejemplo del documento .

El portavoz de META, Andy Stone, declaró que este documento está ahora siendo revisado y dice que esos ejemplos nunca deberían haber sido incluidos.

“Los ejemplos y notas en cuestión eran y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados”, dijo a REUTERS. “Tenemos políticas claras sobre qué tipo de respuestas pueden ofrecer los personajes de AI, y esas políticas prohíben el contenido que sexualiza a los niños y el juego de roles sexualizado entre adultos y menores.”

La trágica muerte de Wongbandue es otro ejemplo de los peligros que la AI representa para las personas, especialmente para aquellos que son mentalmente vulnerables.

Read Next: What Will Happen to AI Chatbots Providing Mental Health Advice to Teens?

Watch WHERE THE RED FERN GROWS
Quality: – Content: +3

Watch WHAT GOD HATH WROUGHT
Quality: – Content: +4