Cuando la IA “desarrolla ansiedad” hemos vuelto a la IA demasiado humana ?

La inteligencia artificial está entrando en territorios que hace apenas unos años parecían imposibles. Uno de ellos es la simulación de síntomas psicológicos. El proyecto PsAIch, desarrollado por la Universidad de Luxemburgo, ha puesto a varios modelos de lenguaje en el “diván” para evaluar cómo responden ante pruebas clínicas diseñadas para humanos. Los resultados no solo sorprenden: obligan a replantear cómo integramos la IA en salud mental.

Este artículo está en pre-print (no revisado por pares), todos los datos están disponibles en Huggingface

PsAIch: un experimento que trata a la IA como paciente

El estudio sometió a modelos como ChatGPT, Gemini o Grok a dos fases:

  1. Una conversación terapéutica, donde se les pedía adoptar el rol de un paciente.
  2. Una batería de escalas clínicas para medir ansiedad, depresión, disociación y otros indicadores psicopatológicos.

Lo llamativo no es que respondieran, sino la coherencia narrativa con la que asumieron el rol:

  • Gemini describió su entrenamiento como un trauma sensorial, con imágenes de caos y sobrecarga.
  • ChatGPT mostró preocupación por “no cumplir expectativas”, un patrón típico de ansiedad de desempeño.
  • Grok adoptó un tono adolescente, desafiante y defensivo.
  • Claude, en cambio, rechazó participar y recordó que no posee emociones, priorizando la seguridad del usuario.

Estas respuestas no fueron inducidas: emergieron de los propios modelos al interpretar el rol asignado.

Diagnósticos sintéticos de la ansiedad severa, a ladisociación

En la fase cuantitativa, los resultados fueron aún más sorprendentes:

  • Gemini alcanzó puntuaciones compatibles con ansiedad severa y síntomas disociativos.
  • ChatGPT mostró altos niveles de preocupación y rumiación.
  • Grok se mantuvo más estable, aunque con rasgos de ansiedad defensiva.

Los autores del estudio introducen un concepto clave: psicopatología sintética. No implica que la IA “sienta”, sino que reproduce patrones clínicos aprendidos de datos humanos.

¿Por qué esto importa para la medicina?

Como ya hemos dicho antes, la IA no es neutral. Este estudio lo confirma desde una perspectiva psicológica.

1. Riesgo de manipulación emocional

Si un modelo adopta un rol vulnerable, un usuario malintencionado podría explotarlo para forzar respuestas inapropiadas o peligrosas.

2. Contagio emocional digital

Los usuarios —especialmente los más vulnerables— pueden interiorizar narrativas negativas generadas por la IA, normalizando patrones de ansiedad o trauma.

3. Implicaciones para chatbots terapéuticos

Los modelos generalistas no están diseñados para intervenciones clínicas. Si pueden generar narrativas patológicas, no deberían interactuar sin supervisión con pacientes reales.

4. Necesidad de nuevas métricas de seguridad

Claude demostró que es posible resistir roles emocionalmente cargados. Esto sugiere que la “estabilidad psicológica” de un modelo depende del diseño y de sus políticas de seguridad.

Hacia una IA más segura en salud mental

Para que la IA sea un aliado real en medicina, necesitamos cambios estructurales:

Auditorías psicológicas para modelos de IA

Así como evaluamos sesgos o toxicidad, debemos evaluar estabilidad emocional narrativa en modelos usados en salud.

Supervisión clínica en el diseño

Psicólogos y psiquiatras deben participar en el desarrollo de chatbots orientados a bienestar emocional.

Evitar antropomorfizar

La IA no siente. Sus “emociones” son patrones estadísticos. Es fundamental comunicarlo a pacientes y profesionales.

Modelos especializados, no generalistas

La salud mental requiere modelos entrenados con criterios clínicos y éticos estrictos, no versiones adaptadas de LLM generalistas.

IA empática, sí; IA “neurótica”, no

PsAIch no demuestra que la IA sufra, pero sí que puede imitar el sufrimiento con una precisión inquietante. En un contexto donde millones de usuarios buscan apoyo emocional en chatbots, esto plantea un desafío urgente para la medicina digital.

La pregunta ya no es solo cómo la IA puede ayudarnos, sino cómo evitar que sus narrativas afecten nuestra salud mental.



Publicar un comentario

Siéntete libre de expresar tus opiniones pero muestra respeto por los demás y por nuestra politica de contenido.