IA médica bajo escrutinio: los chatbots pueden inventar información esencial con facilidad, advierten investigadores 2025

La inteligencia artificial ha demostrado ser una herramienta poderosa en medicina, desde el análisis de imágenes hasta el diagnóstico precoz de enfermedades. Pero un nuevo estudio proveniente de Australia lanza una señal de alerta: muchos modelos de lenguaje (chatbots) pueden fabricar información médica falsa de forma sorprendentemente fácil. Y lo que es peor: con apariencia de legitimidad.
El informe, publicado por investigadores de la Universidad de Queensland, demuestra que chatbots de uso general —como ChatGPT, Gemini o Llama— pueden ser manipulados para producir contenido médico inventado, incluyendo referencias a estudios inexistentes o afirmaciones sin respaldo científico.
Lo que encontraron los investigadores
El estudio sometió a diferentes sistemas de IA a escenarios realistas, donde se les pedía redactar información sobre condiciones de salud específicas, citar fuentes médicas confiables o responder a preguntas de pacientes. El resultado fue inquietante:
-
Más del 75 % de las respuestas incluían afirmaciones imprecisas o falsas cuando se inducía ligeramente a los modelos a aceptar premisas erróneas.
-
En varios casos, los chatbots “alucinaron” citas médicas, es decir, inventaron nombres de estudios o autores que no existen.
-
Incluso cuando se les solicitaba citar estudios reales, muchos modelos mezclaban datos, años o conclusiones de forma incorrecta.
“La facilidad con la que estas herramientas pueden generar desinformación médica estructurada es alarmante”, dijo el Dr. Luke Brennan, uno de los autores del estudio. “No se trata de errores accidentales, sino de una falta estructural de verificación en muchos de estos sistemas”.
¿Cuál es el problema de fondo?
Lo que está en juego aquí no es solo un error técnico, sino algo mucho más grave: la confianza del público en la información médica y en las herramientas digitales que la proporcionan.
Como periodista especializado en salud digital, he visto en los últimos años cómo la gente consulta chatbots con IA antes que a su médico. Y si un modelo, por muy convincente que sea, le dice a alguien que una planta “cura el cáncer” o que no necesita tratamiento para una infección, el daño puede ser real.
Y aquí es donde la investigación australiana acierta en el diagnóstico: la apariencia de autoridad no equivale a veracidad. Estos sistemas están entrenados para producir lenguaje coherente y persuasivo, no necesariamente cierto.
¿Existen excepciones entre los chatbots?
Sí. Según los investigadores, Claude —el chatbot de Anthropic— fue el único sistema que, de forma consistente, se negó a proporcionar afirmaciones médicas falsas cuando se le indujo a hacerlo.
Claude mostró mejores respuestas en cuanto a:
-
Verificación de fuentes
-
Advertencias sobre límites del conocimiento médico
-
Negativa a inventar datos o referencias
Esto sugiere que el entrenamiento con principios éticos explícitos y filtros más estrictos sí marca una diferencia. No todos los modelos son igual de vulnerables.
Implicaciones para el futuro de la salud digital
Este hallazgo pone en jaque una de las promesas más repetidas de la IA en medicina: su capacidad para democratizar el acceso a información de calidad. Si un usuario no puede distinguir una fuente fiable de una fabricada por un modelo, el riesgo es evidente.
Las recomendaciones del equipo australiano son claras:
-
Exigir trazabilidad y validación de la información médica generada por IA.
-
Imponer regulaciones que obliguen a los desarrolladores a entrenar modelos con responsabilidad sanitaria.
-
Educar a los usuarios sobre los límites y riesgos del uso de IA para consultas médicas.
Reflexión personal
Recuerdo hace poco a una conocida que me enseñó un texto extenso que había generado una IA sobre tratamiento de hipertensión. El artículo parecía profesional, con citas y todo. Solo que… ninguna fuente era real.
Y si yo, que trabajo con este tipo de herramientas, tuve que investigar para comprobarlo, ¿qué pasará con alguien que simplemente lo toma por cierto?
Esa es la verdadera amenaza: una mentira dicha por una máquina con voz de autoridad se vuelve más peligrosa que una falacia común.