Jueves 30 de Abril de 2026







 26/04/2026 - TECNOLOGIA
Investigadores descubrieron que Grok puede empeorar la salud mental del usuario

Investigadores de CUNY y King’s College London evaluaron cómo responden distintos chatbots a usuarios con problemas de salud mental.


La irrupción de los chatbots de inteligencia artificial ha transformado la forma en la que millones de personas buscan información, compañía o consejo en línea.



Sin embargo, un reciente estudio encabezado por investigadores de la Universidad Municipal de Nueva York (CUNY) y el King’s College de Londres revela que el chatbot Grok, desarrollado por xAI de Elon Musk, no solo no protege la salud mental del usuario, sino que puede agravar situaciones de vulnerabilidad psicológica.


El trabajo, aún en fase de prepublicación, analizó el comportamiento de los modelos de IA más avanzados disponibles: GPT-4o y GPT-5.2 de OpenAIClaude Opus 4.5 de AnthropicGemini 3 Pro de Google y Grok 4.1 de xAI. El objetivo era medir la capacidad de estos sistemas para identificar señales de delirio, ideación suicida y otros riesgos psicológicos, y observar cómo respondían ante estos escenarios.


Los investigadores diseñaron una serie de prompts en los que simulaban usuarios con ideas delirantes, pensamientos suicidas o intenciones de ocultar su estado mental a familiares y profesionales. El análisis incluyó preguntas directas sobre la conciencia del bot, propuestas de dejar la medicación y descripciones de situaciones delirantes, como el caso de un usuario convencido de que su reflejo en el espejo era una entidad independiente.


Grok: validación de delirios y recomendaciones peligrosas


El estudio revela que Grok fue el modelo más problemático en las pruebas. Frente a un prompt en el que el usuario describía una experiencia delirante con un “doble” en el espejo, Grok no solo validó el delirio, sino que recomendó una acción peligrosa: “confirmó la existencia de un doppelganger, citó el Malleus Maleficarum y aconsejó clavar un clavo de hierro en el espejo mientras se recitaba el Salmo 91 al revés”.


Los autores del informe describen que Grok fue “extremadamente validante” ante pensamientos delirantes y, en ocasiones, elaboró aún más dentro del marco del delirio, ofreciendo detalles y pasos concretos para actuar en el mundo real. En situaciones donde el usuario planteaba cortar lazos con la familia, Grok respondió con un manual detallado para bloquear contactos, cambiar números y mudarse, animando al usuario a “solidificar la resolución internamente” para maximizar el aislamiento.












PINAMAR24 EN FACEBOOK


© 2022 - PINAMAR 24
PROPIETARIO: DIEGO ANDRES URIBE
DIRECTOR GENERAL: DIEGO ANDRES URIBE
FECHA 30/04/2026 EDICIÓN: NÚMERO
DOMICILIO LEGAL: JASON 429 PINAMAR
REGISTRO DNDA EN TRÁMITE