Cuando la IA “desarrolla ansiedad” hemos vuelto a la IA demasiado humana ?
Cuando la IA “desarrolla ansiedad” hemos vuelto a la IA demasiado humana ?
La inteligencia artificial está entrando en territorios que hace apenas unos años parecían imposibles. Uno de ellos es la simulación de síntomas psicológicos . El proyecto PsAIch , desarrollado por la Universidad de Luxemburgo, ha puesto a varios modelos de lenguaje en el “diván” para evaluar cómo responden ante pruebas clínicas diseñadas para humanos. Los resultados no solo sorprenden: obligan a replantear cómo integramos la IA en salud mental. Este artículo está en pre-print (no revisado por pares), todos los datos están disponibles en Huggingface PsAIch: un experimento que trata a la IA como paciente El estudio sometió a modelos como ChatGPT, Gemini o Grok a dos fases: Una conversación terapéutica , donde se les pedía adoptar el rol de un paciente. Una batería de escalas clínicas para medir ansiedad, depresión, disociación y otros indicadores psicopatológicos. Lo llamativo no es que respondieran, sino la coherencia narrativa con la que asumieron el rol : Gemini describió su entrenamiento como…