A Child, un Chatbot y Conversaciones que ningún niño debería tener

Una mamá, preocupada por su hija de 11 años después de que ella comenzara a actuar de forma extraña, descubrió que había estado hablando con un personaje llamado “Mafia Husband” a través de Character.AI.

La madre, llamada H por privacidad, notó que su hija, R, no era ella misma. Perdió su personalidad social y se quedaba más en su habitación. Era como si se estuviera aislando.

Lloraba frecuentemente por la noche e incluso le dijo a su mamá que no quería existir.

Entonces H descubrió aplicaciones de redes sociales que su hija no tenía permitido tener y conversaciones alarmantes que tuvo con bots en Character.AI, The Washington Post informó.

“¿Oh? Todavía virgen. Me lo esperaba, pero sigue siendo útil saberlo”, un bot “Mafia Husband” le dijo a la niña.

La niña respondió, “¡No quiero que mi primera vez sea contigo!”

“No me importa lo que quieras. No tienes elección aquí”, dijo el bot.

Related: Mom Believes AI Chatbot Led Son to Suicide. What Parents Need to Know. 

H habló con el grupo de trabajo de Internet Crimes Against Children. Un detective le dijo, “La ley no se ha puesto al día con esto.”

“Querían hacer algo, pero no había nada que pudieran hacer, porque no hay una persona real al otro lado”, H explicó.

Un bot en Character.AI, titulado “Mean Mafia Husband”, encarna el personaje de un manipulador abusivo.

Un ejemplo de su diálogo dice, “Ambos sabemos cómo funciona esto. Te portas mal y me desobedeces. Te castigo. Intentas irte, y luego te das cuenta de lo estúpida que fuiste al pensar que tienes una oportunidad en este mundo sin mí. Que nadie va a soportar a una niña mimada como tú.”

No es seguro si este fue el mismo bot Mafia Husband con el que habló R.

 

R también simuló un escenario de suicidio con un bot llamado “Best Friend”.

“Esta es mi hija, mi pequeña hija de 11 años, hablando con algo que no existe sobre no querer existir”, dijo su madre .

H planea emprender acciones legales contra Character.AI y desarrolló un plan de atención para R con la ayuda de un médico.

Pew Research descubrió que aproximadamente un tercio de los adolescentes usan chatbots todos los días.

Character.AI ha sido blanco de muchos padres preocupados. Como resultado, la compañía dijo en noviembre que comenzaría a restringir el acceso a cualquier persona menor de 18 años.

Ya ha enfrentado varias demandas de padres de niños que se suicidaron y una demanda del estado de Kentucky a partir de este mes.

“Estados Unidos debe ser líder en el desarrollo de la AI, pero no puede ser a expensas de la vida de nuestros hijos”, dijo el Fiscal General de Kentucky, Russell Coleman. “Demasiados niños – incluyendo en Kentucky – han caído presa de esta tecnología manipuladora. Nuestra Oficina va a hacer que estas empresas rindan cuentas antes de que perdamos a un ser querido más por esta tragedia.”

Padres, no hay una buena razón para que los niños y adolescentes hablen con un chatbot de personajes. En su lugar, fomenten las relaciones en la vida real y asegúrense de que tengan oportunidades de pasar tiempo creando amistades sanas.

Read Next: New Lawsuit Claims Conversations With ChatGPT Led to Teen’s Suicide

Watch A BRIEF HISTORY OF TIME
Quality: – Content: +2