El día que ChatGPT me reprobó en salud cardíaca: Una advertencia sobre la IA y los wearables
¿Qué sucede cuando entregas una década de datos biométricos a un modelo de lenguaje? Geoffrey A. Fowler, columnista de tecnología, decidió hacer el experimento: conectó su Apple Watch a la nueva función ChatGPT Health, otorgándole acceso a 29 millones de pasos y 6 millones de mediciones de frecuencia cardíaca.
El resultado fue una calificación de "F" en salud cardiovascular. El bot lo reprobó. Sin embargo, su cardiólogo tuvo una opinión muy distinta.
El diagnóstico de la IA frente a la realidad clínica
Tras recibir la alarmante calificación, Fowler consultó a su médico de cabecera y al reconocido cardiólogo Eric Topol, experto en IA y medicina del Scripps Research Institute. La conclusión fue unánime: el diagnóstico de la IA carecía de base científica.
Según su médico, Fowler tiene un riesgo tan bajo de sufrir un ataque cardíaco que el seguro ni siquiera cubriría pruebas adicionales para "desmentir" a la inteligencia artificial. Topol fue más tajante: "Esto no está listo para dar ningún consejo médico".
¿Por qué falló el "Dr. ChatGPT"?
El análisis reveló fallas estructurales en cómo los modelos de lenguaje (LLM) interpretan datos de salud complejos:
✧ Dependencia de datos estimativos: ChatGPT basó gran parte de su calificación negativa en el VO2 máx, una métrica que el Apple Watch estima, pero que para ser precisa requiere una prueba de esfuerzo con mascarilla en laboratorio. Estudios sugieren que las estimaciones de los wearables pueden variar hasta un 13%.
✧ Inconsistencia algorítmica: Al repetir la misma pregunta, las notas de ChatGPT oscilaron entre una F y una B. Esta "aleatoriedad" es aceptable para escribir un poema, pero peligrosa para evaluar la salud de un paciente.
✧ Falta de contexto clínico: El bot ignoró en varias ocasiones datos cruciales como la edad, el sexo o resultados recientes de analíticas de lípidos que ya tenía en su base de datos.
✧ Interpretación de "ruido" como señal: Cambios en el sensor al comprar un modelo de reloj más nuevo fueron interpretados por la IA como alteraciones en la frecuencia cardíaca en reposo del usuario, en lugar de variaciones técnicas del hardware.
El vacío legal y la privacidad: Una "promesa de palabra"
Un punto crítico para los profesionales de la salud es la privacidad. Aunque OpenAI afirma que los datos de salud están encriptados y no se usan para entrenar sus modelos, ChatGPT no es un proveedor de servicios de salud. Por lo tanto, no está sujeto a leyes de privacidad médica como la HIPAA en EE. UU. (o normativas similares de protección de datos clínicos en otros países). Es, esencialmente, una promesa de privacidad corporativa, no una obligación legal médica.
Conclusión: ¿Asistente o sustituto?
El experimento deja una lección valiosa para la comunidad médica: la IA es una herramienta excepcional para la visualización y organización de datos (como crear gráficos de actividad de diez años en segundos), pero sigue siendo incapaz de aplicar el juicio clínico necesario para un diagnóstico.
Como señala el Dr. Topol, para que la IA sea útil en medicina, necesita modelos dedicados que comprendan las debilidades del dato recolectado (el "ruido") y lo vinculen con resultados clínicos reales, no simplemente procesar números de forma heurística.
En resumen: Por ahora, el "Dr. ChatGPT" está improvisando. Y en medicina, improvisar puede ser peligroso.
¿Qué opinas tú?
Como profesional de la salud o entusiasta de la medicina, ¿crees que los pacientes están preparados para gestionar este tipo de "diagnósticos" algorítmicos?
¿Te gustaría que redactara una breve guía de "Buenas Prácticas para Pacientes" que usan IA para monitorizar su salud, para complementar esta entrada en tu blog?
Esta es una adaptación del artículo de Geoffrey A. Fowler (The Washington Post)
Te gustara leer :
✧ Cada vez más jóvenes recurren a ChatGPT para resolver dudas médicas






Deja un comentario