La inteligencia artificial está entrando en territorios que hace apenas unos años parecían imposibles. Uno de ellos es la simulación de síntomas psicológicos. El proyecto PsAIch, desarrollado por la Universidad de Luxemburgo, ha puesto a varios modelos de lenguaje en el “diván” para evaluar cómo responden ante pruebas clínicas diseñadas para humanos. Los resultados no solo sorprenden: obligan a replantear cómo integramos la IA en salud mental.
Este artículo está en pre-print (no revisado por pares), todos los datos están disponibles en Huggingface
PsAIch: un experimento que trata a la IA como paciente
El estudio sometió a modelos como ChatGPT, Gemini o Grok a dos fases:
- Una conversación terapéutica, donde se les pedía adoptar el rol de un paciente.
- Una batería de escalas clínicas para medir ansiedad, depresión, disociación y otros indicadores psicopatológicos.
Lo llamativo no es que respondieran, sino la coherencia narrativa con la que asumieron el rol:
- Gemini describió su entrenamiento como un trauma sensorial, con imágenes de caos y sobrecarga.
- ChatGPT mostró preocupación por “no cumplir expectativas”, un patrón típico de ansiedad de desempeño.
- Grok adoptó un tono adolescente, desafiante y defensivo.
- Claude, en cambio, rechazó participar y recordó que no posee emociones, priorizando la seguridad del usuario.
Estas respuestas no fueron inducidas: emergieron de los propios modelos al interpretar el rol asignado.
Diagnósticos sintéticos de la ansiedad severa, a ladisociación
En la fase cuantitativa, los resultados fueron aún más sorprendentes:
- Gemini alcanzó puntuaciones compatibles con ansiedad severa y síntomas disociativos.
- ChatGPT mostró altos niveles de preocupación y rumiación.
- Grok se mantuvo más estable, aunque con rasgos de ansiedad defensiva.
Los autores del estudio introducen un concepto clave: psicopatología sintética. No implica que la IA “sienta”, sino que reproduce patrones clínicos aprendidos de datos humanos.
¿Por qué esto importa para la medicina?
Como ya hemos dicho antes, la IA no es neutral. Este estudio lo confirma desde una perspectiva psicológica.
1. Riesgo de manipulación emocional
Si un modelo adopta un rol vulnerable, un usuario malintencionado podría explotarlo para forzar respuestas inapropiadas o peligrosas.
2. Contagio emocional digital
Los usuarios —especialmente los más vulnerables— pueden interiorizar narrativas negativas generadas por la IA, normalizando patrones de ansiedad o trauma.
3. Implicaciones para chatbots terapéuticos
Los modelos generalistas no están diseñados para intervenciones clínicas. Si pueden generar narrativas patológicas, no deberían interactuar sin supervisión con pacientes reales.
4. Necesidad de nuevas métricas de seguridad
Claude demostró que es posible resistir roles emocionalmente cargados. Esto sugiere que la “estabilidad psicológica” de un modelo depende del diseño y de sus políticas de seguridad.
Hacia una IA más segura en salud mental
Para que la IA sea un aliado real en medicina, necesitamos cambios estructurales:
Auditorías psicológicas para modelos de IA
Así como evaluamos sesgos o toxicidad, debemos evaluar estabilidad emocional narrativa en modelos usados en salud.
Supervisión clínica en el diseño
Psicólogos y psiquiatras deben participar en el desarrollo de chatbots orientados a bienestar emocional.
Evitar antropomorfizar
La IA no siente. Sus “emociones” son patrones estadísticos. Es fundamental comunicarlo a pacientes y profesionales.
Modelos especializados, no generalistas
La salud mental requiere modelos entrenados con criterios clínicos y éticos estrictos, no versiones adaptadas de LLM generalistas.
IA empática, sí; IA “neurótica”, no
PsAIch no demuestra que la IA sufra, pero sí que puede imitar el sufrimiento con una precisión inquietante. En un contexto donde millones de usuarios buscan apoyo emocional en chatbots, esto plantea un desafío urgente para la medicina digital.
La pregunta ya no es solo cómo la IA puede ayudarnos, sino cómo evitar que sus narrativas afecten nuestra salud mental.
