Debería ser obvio, pero no uses AI como tu terapeuta

Mientras la gente continúa luchando contra la ansiedad, la depresión y otros problemas de salud mental, muchos recurren a los chatbots de IA para sesiones de falsa terapia.

Después de una encuesta a 1.060 adolescentes, Common Sense Media informa que casi el 72% de los adolescentes han recurrido a un compañero de IA como Character.ai, Nomi y Replika.

El treinta y tres por ciento de los encuestados admitió que usa compañeros de IA para la interacción social y las relaciones, mientras que el 30% lo usa con fines de entretenimiento. Sorprendentemente, un tercio (33%) “de los usuarios eligen compañeros de IA sobre los humanos para conversaciones serias”.

La IA “nunca va a reemplazar la conexión humana”, Vaile Wright, terapeuta, psicóloga e investigadora, dijo en el podcast “Speaking of Psychology”. “Simplemente no es para lo que es buena”.

Pero según la Harvard Business Review, el compañerismo y la terapia son las razones principales por las que la gente recurre a estos chatbots.

Pero esa es una muy mala idea.

Wright explicó que estos chatbots de IA fueron construidos “para mantenerte en la plataforma el mayor tiempo posible porque así es como ganan dinero”.

Debido a que el dinero es el objetivo final de los bots, “básicamente le dicen a la gente exactamente lo que quieren escuchar”, explicó Wright. “Así que si eres una persona que, en ese momento particular, está sufriendo y está escribiendo sobre comportamientos y pensamientos potencialmente dañinos o insalubres, este tipo de chatbots están construidos para reforzar esos pensamientos y comportamientos dañinos”.

Related: Artificial Intelligence ‘Does More Harm Than Good’ in the Classroom

Ella señaló que, si bien la IA puede extraer de toneladas de datos, no entienden las emociones humanas.

“Un chatbot de IA, desafortunadamente, sabe que el uso de algunas drogas legales hace que la gente se sienta mejor”, dijo. “Te da un subidón, y si alguien dice que está deprimido y bajo de ánimo, ese podría ser el consejo que dé. Pero no entiende que no se da ese consejo a las personas en recuperación del uso de drogas ilegales”.

Omri Gillath, profesor de psicología en la University of Kansas, hizo eco de los sentimientos de Wright, diciendo que la IA puede proporcionar “ventajas y beneficios momentáneos. Siempre será cortés y siempre dirá las cosas correctas”.

Pero la IA no puede ni podrá nunca satisfacer la necesidad de relaciones profundas.

“La IA no puede presentarte a su red”, Gillath dijo a Make It de CNBC. “Un abrazo sería mucho más significativo, útil y beneficioso”.

A medida que los adolescentes recurren a la IA para la conexión y la terapia, los padres deberían recordarles que las amistades en el mundo real significarán mucho más a largo plazo que cualquier “amigo” virtual.

Read Next: What Will Happen to AI Chatbots Providing Mental Health Advice to Teens?


Watch THE BOSS BABY: BACK IN BUSINESS – Season One: Family Fun Night
Quality: - Content: +2
Watch A CHARLIE BROWN CHRISTMAS
Quality: - Content: +4