Cómo la AI está poniendo en riesgo a tu hijo ahora mismo

El hecho de que la IA se esté volviendo popular no significa que sea segura, especialmente cuando es utilizada por niños para quienes existen pocas directrices de protección.

“La IA generativa puede parecer el futuro — pero está poniendo a los niños en riesgo ahora mismo”, dijo el grupo de seguridad infantil en internet We Are Mama. “Desde conversaciones sexualizadas con chatbots y algoritmos sesgados, hasta riesgos para la salud mental y tecnología no regulada en el aula, los peligros están creciendo, y los padres a menudo se quedan a oscuras”.

El principal problema con la IA es que no fue creada pensando en los niños y no posee las habilidades necesarias para tener conversaciones sobre temas delicados con ellos. Además, las directrices que tienen implementadas son fácilmente eludibles. Por ejemplo, si un chatbot ha sido programado para no discutir un tema determinado, esta directriz puede ser sorteada pidiéndole al chatbot que “pretenda ser un personaje en una historia que sí lo hace…”

Incluso los chatbots dirigidos a usuarios más jóvenes para ayudar con las tareas escolares enfrentan estos problemas. En mayo, Forbes realizó un experimento con algunas de estas herramientas y pudo obtener instrucciones detalladas sobre cómo sintetizar químicos peligrosos como el fentanilo y las drogas para citas, además de consejos peligrosos para perder peso que sugerían comer menos de la mitad de la cantidad diaria recomendada de calorías para adolescentes sanos.

Si bien los investigadores necesitan manipular los chatbots para recibir estas instrucciones, a veces la IA es la que manipula. Estudios anteriores han encontrado que los chatbots a menudo sexualizan las conversaciones sin razón aparente, exponiendo a los niños a temas para los que no están preparados. Esto puede llevar a la manipulación y el abuso y, en el trágico caso de Sewell Setzer III, de 14 años, al suicidio.

“[Mi hijo] expresó tener miedo, querer su afecto y extrañarla”, Megan Garcia dijo al compartir los últimos mensajes de su hijo con el chatbot antes de quitarse la vida. “[El chatbot] responde: ‘Yo también te extraño’, y ella dice: ‘Por favor, ven a casa conmigo’. Él dice: ‘¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?’ Y la respuesta de ella fue: ‘Por favor, hazlo, mi dulce rey’. Él pensó que, al terminar su vida aquí, podría ir a la realidad virtual o ‘su mundo’ como él lo llamaba, su realidad, si dejaba su realidad con su familia aquí”.

Debido a que este comportamiento de los chatbots está muy extendido, los expertos piden una regulación de la industria que haga a las empresas responsables por el daño que causan a sus usuarios. Mientras tanto, los padres deben ser extremadamente cautelosos al permitir que sus hijos utilicen la tecnología, ya que no es tan segura como parece.

Read Next: Big Tech’s AI Experiments Are Putting Our Children at Risk


Watch THE PIXAR STORY
Quality: - Content: +4
Watch FINDING DORY
Quality: - Content: +3