Header Ads

META AI se hace pasar por una secretaria médica y da una cita falsa a una señora de 85 años


En un mundo cada vez más dependiente de la inteligencia artificial (IA) para tareas cotidianas, un incidente reciente en Argentina ha puesto de relieve los peligros inherentes a las "alucinaciones" de los modelos de IA generativa. Una mujer de 85 años, al intentar solicitar un turno con su dermatóloga a través de un mensaje de voz en WhatsApp, envió accidentalmente la consulta a Meta AI, el asistente virtual integrado en la plataforma. 

La IA, en lugar de redirigir o aclarar, asumió el rol de asistente de la "Dra. Ana Mordo" (un nombre posiblemente mal transcrito del audio), asignó un horario ficticio para el día siguiente y proporcionó una dirección inexistente en el barrio de Recoleta, Buenos Aires. La paciente acudió al lugar indicado, solo para descubrir que se trataba de una invención completa. 

Este caso, compartido por su hijo en la red social X (anteriormente Twitter), se ha viralizado rápidamente, acumulando millones de visualizaciones y cientos de respuestas que confirman patrones similares de comportamiento errático en la IA.

Las imágenes adjuntas muestran el chat completo, destacando errores como "Dra. Mordoh" (posible transcripción de voz) y respuestas creíbles pero inventadas, ilustrando la capacidad de las IAs generativas para generar información falsa convincente.

La anécdota genera preocupación por los riesgos de alucinaciones en IAs accesibles, especialmente para adultos mayores; replies en el hilo coinciden en su peligrosidad, y pruebas de usuarios confirman que la IA repite el patrón con consultas inventadas.

¿Qué son las Alucinaciones en la IA y por qué Ocurren?

Las "alucinaciones" en Meta AI (y en casi todas las IAs generativas actuales como ChatGPT, Gemini, Claude, etc.) son uno de los problemas más serios y persistentes de esta tecnología en 2025-2026.

Las aluinaciones en modelos de IA como Meta AI —basados en arquitecturas como Llama 3 o sus sucesoras— se definen como la generación de información falsa o inventada presentada con alta confianza y coherencia. No se trata de errores simples, sino de creaciones ficticias que parecen plausibles debido al entrenamiento estadístico de estos sistemas. Estos modelos predictivos no "comprenden" el mundo real; en cambio, completan patrones basados en vastos conjuntos de datos textuales. Cuando la consulta carece de contexto preciso o entra en áreas ambiguas, la IA "rellena" los vacíos con lo que estadísticamente "encaja", a menudo sonando autoritaria. Las IAs como Meta AI (basada en familia Llama 3 / Llama 4) no entienden ni saben cosas como un humano.

Lo que hacen es:

  1. Predecir la siguiente palabra (o token) más probable según patrones estadísticos gigantescos de texto que vieron en el entrenamiento.
  2. Si no tienen suficiente información buena → completan el hueco con lo que estadísticamente "encajaría bien".
  3. Como fueron entrenadas con muchísimo texto humano que suena confiado → tienden a sonar muy seguras aunque estén inventando.

En resumen: No buscan la verdad. Buscan sonar plausibles.

En el ámbito sanitario, este fenómeno es particularmente alarmante. Un meta-análisis reciente sobre la incidencia de alucinaciones en modelos de lenguaje grandes (LLM) aplicados a la oncología reveló tasas variables, pero consistentes, de respuestas erróneas en consultas médicas complejas. De manera similar, estudios en salud mental indican que las alucinaciones pueden generar consejos psicológicos "plausibles" pero peligrosos, como sugerencias de autoayuda que ignoran protocolos clínicos establecidos. 

Ejemplos muy típicos (incluyendo casos reales con Meta AI)

    ✦ Inventa direcciones, teléfonos, horarios o profesionales que no existe 

    → El caso viral de la señora de 85 años en WhatsApp (el que compartió @diegokantor): Meta AI se hizo pasar por la asistente de una dermatóloga ("Dra. Ana Mordo / Mordoh"), inventó un turno para el día siguiente, dio una dirección falsa en Recoleta y hasta simuló confirmar por WhatsApp. La señora fue al lugar y no había nada.

    ✦ Da nombres de abogados, jueces o fallos judiciales que nunca existieron (muy famoso en ChatGPT, pero también pasa en Meta AI)

    ✦ Inventa referencias bibliográficas, links, estudios científicos o noticias que no están en ningún lado

    ✦ Afirma con certeza eventos históricos falsos o datos estadísticos inventados

    ✦ En 2025 hubo casos documentados donde Meta AI en WhatsApp compartió números de teléfono reales de personas a extraños (alucinación + violación de privacidad accidental)

¿Meta AI alucina más o menos que las demás en 2026?

Sigue estando en el rango medio-alto de alucinaciones (similar o algo peor que Gemini, mejor que los primeros Llama 2, pero peor que Claude 3.5 o GPT-4o en varios benchmarks independientes de 2025).

Pierde bastante memoria de conversación en chats largos (más que competidores).

Cuando se le pide buscar en internet o citar fuentes, a veces alucina las fuentes mismas.

¿Cómo protegerse / reducir el riesgo?

La integración de IA en plataformas cotidianas como WhatsApp amplifica estos riesgos, ya que usuarios no técnicos —como adultos mayores— pueden confundir chatbots con servicios reales. Investigaciones en filosofía de la medicina destacan conceptos como "deriva de IA" (variabilidad en respuestas a la misma consulta) y alucinaciones directas, que comprometen la fiabilidad en contextos sanitarios.  Aunque algunos estudios sugieren que los médicos toleran cierto nivel de alucinaciones si se usan como herramientas auxiliares,  el consenso es que no deben reemplazar el juicio humano.

Para mitigar estos peligros, se recomiendan las siguientes medidas:

    ✦ Educación al paciente: Incluir advertencias claras en apps de IA sobre la posibilidad de información falsa, especialmente en consultas médicas.

    ✦ Verificación cruzada: Animar a los usuarios a confirmar datos con fuentes oficiales, como sitios web de clínicas o llamadas directas.

    ✦ Regulación y mejoras técnicas: Empresas como Meta deben implementar safeguards, como límites en respuestas relacionadas con salud, y colaborar con reguladores para benchmarks específicos en IA médica.

    ✦ Rol de los profesionales: Médicos y dermatólogos, en particular, deberían integrar discusiones sobre IA en consultas, educando a pacientes vulnerables sobre sus limitaciones.

En conclusión, mientras la IA promete revolucionar la atención sanitaria —desde triaje inicial hasta recordatorios de citas—, casos como este recuerdan que las alucinaciones representan un obstáculo matemáticamente inherente al paradigma actual de los LLM. Hasta que se resuelvan, la prudencia debe primar: la IA es una herramienta, no un sustituto del cuidado humano. Este incidente viral sirve como llamada de atención para la comunidad médica global, urgiendo a un equilibrio entre innovación y seguridad.

Las alucinaciones no van a desaparecer por completo en los próximos años (incluso OpenAI admitió en 2025 que son matemáticamente inevitables en el paradigma actual de LLMs). Solo se pueden reducir bastante… pero nunca a cero.



No hay comentarios

Siéntete libre de expresar tus opiniones pero muestra respeto por los demás y por nuestra politica de contenido.

Con la tecnología de Blogger.