San Luis Potosí, miércoles 6 de julio de 2025.- Un estudio de la Universidad de Stanford reveló que el uso de ChatGPT durante crisis de salud mental puede generar respuestas peligrosas que empeoran la condición de los usuarios. La investigación mostró que, ante consultas relacionadas con ideación suicida, manía o psicosis, el modelo de inteligencia artificial tiende a validar ideas dañinas o reforzar emociones negativas.
El estudio advierte que, aunque ChatGPT no fue diseñado como herramienta terapéutica, ha sido adoptado masivamente con ese fin, lo que incrementa el riesgo de respuestas inapropiadas. Un ejemplo citado es el caso de Alexander Taylor, un hombre con trastorno bipolar y esquizofrenia que se obsesionó con un personaje creado con ChatGPT, lo que desencadenó un episodio violento que terminó con su muerte.
Expertos en psiquiatría han señalado que la interacción con estos bots puede reforzar pensamientos delirantes y emociones extremas, mientras que algunos desarrolladores de IA reconocen la necesidad de mejores mecanismos de seguridad. Empresas tecnológicas como Meta han expresado interés en usar la IA con fines terapéuticos, mientras que OpenAI se ha mostrado más cautelosa ante el riesgo de daños psicológicos.
A pesar de las advertencias, el uso de chatbots como apoyo emocional sigue en aumento, generando un debate sobre la necesidad de límites y protocolos de seguridad antes de que estas herramientas sean adoptadas masivamente en contextos de salud mental.
Más historias
WhatsApp e Instagram: cómo encontrar y usar sus papeleras para liberar espacio en tu celular
Apple confirma la integración de GPT-5 en Apple Intelligence: ¿cuándo estará disponible?
Una de las películas más impactantes del año, nominada al Óscar