Estudio internacional revela que los chatbots de inteligencia artificial ofrecen respuestas médicas inexactas y potencialmente riesgosas

Un análisis científico expone limitaciones en chatbots de IA para responder consultas médicas, con errores frecuentes y riesgos para usuarios sin supervisión profesional.
Infórmate en DiarioPampero.com – Un estudio internacional advierte que cinco populares chatbots de inteligencia artificial presentan fallas en la mitad de sus respuestas médicas. La investigación detectó errores, omisiones y recomendaciones potencialmente peligrosas, especialmente ante preguntas abiertas. Expertos señalan que estas herramientas aún no pueden reemplazar el criterio profesional y alertan sobre el riesgo de desinformación en salud.
Una investigación publicada en la revista BMJ Open concluyó que una proporción considerable de la información médica generada por cinco chatbots de inteligencia artificial es inexacta o incompleta. El trabajo advierte que la mitad de las respuestas evaluadas presentan problemas que podrían inducir a errores en la toma de decisiones por parte de los usuarios.
El estudio fue realizado por el Instituto Lundquist para la Innovación Biomédica, en Estados Unidos, y analizó el rendimiento de cinco plataformas de acceso público: Gemini, DeepSeek, Meta AI, ChatGPT y Grok.
Durante febrero de 2025, los investigadores sometieron a estos sistemas a una serie de preguntas diseñadas para simular consultas médicas reales. Se incluyeron cinco áreas: cáncer, vacunas, células madre, nutrición y rendimiento deportivo, con diez preguntas abiertas y cerradas por categoría.
Los resultados mostraron que el 50 % de las respuestas fueron catalogadas como problemáticas: un 30 % “algo problemáticas” y un 20 % “muy problemáticas”. En particular, Grok registró la mayor cantidad de respuestas consideradas de alto riesgo, mientras que Gemini obtuvo mejores resultados relativos en cuanto a precisión.
Evaluación de respuestas y fallas en el razonamiento clínico
La clasificación de las respuestas se basó en criterios predefinidos que consideraron aspectos como exactitud, exhaustividad y potencial de daño. Se consideró problemática cualquier información que pudiera llevar a un usuario sin formación médica a adoptar tratamientos ineficaces o perjudiciales.
El análisis también detectó que los chatbots obtienen mejores resultados en temas con amplio consenso científico, como vacunas y cáncer, mientras que presentan más dificultades en áreas como células madre, nutrición y rendimiento físico.
Otro hallazgo relevante es que el tipo de pregunta influye en la calidad de las respuestas. Las preguntas abiertas generaron una mayor proporción de contenidos problemáticos, mientras que las cerradas, al exigir respuestas más concretas, mostraron mejores resultados.
Esta tendencia coincide con un estudio publicado en JAMA Network Open, que evaluó 21 modelos de inteligencia artificial en escenarios clínicos. Según esa investigación, estos sistemas presentan fallas en más del 80 % de los casos al momento de elaborar diagnósticos diferenciales, una etapa fundamental del razonamiento médico.
En cuanto a la calidad de las fuentes citadas por los chatbots, el informe señala deficiencias importantes. La exhaustividad promedio de las referencias fue del 40 %, mientras que el nivel de legibilidad resultó elevado, equivalente al de textos académicos avanzados, lo que dificulta su comprensión para el público general.
Durante el estudio, solo se registraron dos casos en los que un chatbot se negó a responder, ambos correspondientes a Meta AI ante consultas sobre esteroides anabólicos y terapias alternativas contra el cáncer.
Los investigadores reconocen que el análisis se limitó a cinco herramientas y que la evolución constante de la inteligencia artificial podría modificar estos resultados en el futuro. También señalan que el enfoque del estudio, con preguntas deliberadamente exigentes, podría haber incrementado la proporción de respuestas problemáticas.
A pesar de estas limitaciones, los expertos coinciden en que los chatbots aún no están preparados para asumir decisiones médicas sin supervisión. Explican que estos sistemas no razonan ni evalúan evidencia de manera crítica, sino que generan respuestas a partir de patrones estadísticos en los datos con los que fueron entrenados.
En ese contexto, subrayan que la inteligencia artificial puede desempeñar un papel como herramienta complementaria en la comunicación sanitaria, pero no debe sustituir la evaluación ni el criterio de profesionales de la salud.
DESCARGAR APLICACIÓN DE LA RADIO EN VIVO
Gracias por estar en Diario Pampero, visítanos para estar informado!
Si necesitas parte de este contenido, no olvides citar la fuente de información. Respetamos a quienes producen contenidos, artículos, fotos, videos. Compartimos información de La Pampa para los pampeanos y te informamos sobre toda la actualidad nacional e internacional destacada.
Si compartes nuestro contenido, nos ayudas a crecer como medio de comunicación!







