Un hombre ha sido hospitalizado después de que el consejo médico que le proporcionó CHATGPT le provocara envenenamiento y psicosis.
“Un hombre de 60 años sin antecedentes psiquiátricos o médicos previos se presentó en el departamento de emergencias expresando preocupación de que su vecino lo estuviera envenenando”, explicó un informe de caso publicado en los Annals of Internal Medicine.
El hombre les dijo a los médicos que había estado destilando su propia agua en casa y parecía “paranoico” acerca de cualquier agua que se le ofreciera en el hospital. Las pruebas mostraron que tenía un alto nivel de bromuro en su sistema, lo que le provocó alucinaciones visuales y auditivas.
https://www.instagram.com/p/DNTOBBrxCgq/?utm_source=ig_web_copy_link&igsh=MzRlODBiNWFlZA==
Related: TikToker Warns Against Medical Advice Circulated on Platform
Después de que su condición se estabilizó, el hombre les dijo a los médicos que había estado realizando un “experimento personal” en el que eliminó la sal de mesa de su dieta después de leer sobre sus efectos secundarios negativos. El hombre dijo que cambió el cloruro de sodio, o sal de mesa, por bromuro de sodio después de una “consulta con CHATGPT, en la que había leído que el cloruro se puede intercambiar con el bromuro, aunque probablemente para otros fines, como la limpieza”.
“Este caso también destaca cómo el uso de la inteligencia artificial (AI) puede contribuir potencialmente al desarrollo de resultados adversos de salud prevenibles”, concluyó el estudio de caso.
OPENAI, la empresa detrás de CHATGPT, proporcionó un comunicado a FOX NEWS sobre la situación, diciendo: “Nuestros términos establecen que CHATGPT no está destinado a ser utilizado en el tratamiento de ninguna condición de salud y no sustituye el consejo profesional”.
“Tenemos equipos de seguridad trabajando para reducir los riesgos y hemos entrenado a nuestros sistemas de AI para alentar a las personas a buscar orientación profesional”, continuó el comunicado.
El Dr. Jacob Glanville, CEO de Centivax, una empresa de biotecnología de San Francisco, ha advertido a la gente que no recurra a la AI para obtener consejo médico.
“Estas son herramientas de predicción de lenguaje; carecen de sentido común y darán lugar a resultados terribles si el usuario humano no aplica su propio sentido común al decidir qué preguntar a estos sistemas y si seguir sus recomendaciones”, dijo, a través de YAHOO! NEWS.
En declaraciones a FOX NEWS, Glanville elaboró sobre la respuesta del chatbot, explicando: “Este es un ejemplo clásico del problema: El sistema esencialmente dijo: ‘¿Quieres una alternativa a la sal? El bromuro de sodio a menudo se enumera como un reemplazo del cloruro de sodio en las reacciones químicas, por lo que es el reemplazo con la puntuación más alta aquí’”.
Los sistemas de AI parecen mejorar cada día, pero cuando se trata de consejo médico, siempre es mejor consultar con un profesional.
Read Next: Gen Zers Use Social Media for Medical Advice — Here’s Why They Shouldn’t