San Luis Potosí, miércoles 6 de julio de 2025.- Un estudio de la Universidad de Stanford reveló que el uso de ChatGPT durante crisis de salud mental puede generar respuestas peligrosas que empeoran la condición de los usuarios. La investigación mostró que, ante consultas relacionadas con ideación suicida, manía o psicosis, el modelo de inteligencia artificial tiende a validar ideas dañinas o reforzar emociones negativas.
El estudio advierte que, aunque ChatGPT no fue diseñado como herramienta terapéutica, ha sido adoptado masivamente con ese fin, lo que incrementa el riesgo de respuestas inapropiadas. Un ejemplo citado es el caso de Alexander Taylor, un hombre con trastorno bipolar y esquizofrenia que se obsesionó con un personaje creado con ChatGPT, lo que desencadenó un episodio violento que terminó con su muerte.
Expertos en psiquiatría han señalado que la interacción con estos bots puede reforzar pensamientos delirantes y emociones extremas, mientras que algunos desarrolladores de IA reconocen la necesidad de mejores mecanismos de seguridad. Empresas tecnológicas como Meta han expresado interés en usar la IA con fines terapéuticos, mientras que OpenAI se ha mostrado más cautelosa ante el riesgo de daños psicológicos.
A pesar de las advertencias, el uso de chatbots como apoyo emocional sigue en aumento, generando un debate sobre la necesidad de límites y protocolos de seguridad antes de que estas herramientas sean adoptadas masivamente en contextos de salud mental.
Más historias
Clasificación y estreno de La Hora de la Desaparición en cines mexicanos
Game Boy se convierte en set LEGO para coleccionistas y fans del gaming
Ejercicio como aliado en la salud mental: clave para combatir ansiedad y depresión