Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |Falla en el 52% de los casos de emergencia

¡Ojo con las consultas al “Dr. ChatGPT” que erra más de lo que acierta!

¡Ojo con las consultas al “Dr. ChatGPT” que erra más de lo que acierta!
27 de Febrero de 2026 | 02:12
Edición impresa

Una investigación realizada por especialistas de la Escuela de Medicina Icahn del Mount Sinai puso bajo la lupa a ChatGPT Health, el sistema lanzado por OpenAI en enero de 2026 con la promesa de mejorar el triaje y la orientación médica digital.

El estudio analizó 960 escenarios clínicos simulados, construidos a partir de 60 viñetas elaboradas por médicos de distintas especialidades y correspondientes a 21 áreas clínicas. Los resultados mostraron que la herramienta presentó una tasa de error del 52% en situaciones consideradas emergencias médicas. En casos no urgentes, el margen de fallo fue del 35%.

Según los investigadores, esto implica que casi la mitad de las urgencias médicas no fueron correctamente identificadas ni derivadas a servicios de emergencia.

El informe indica que el sistema mostró mejor desempeño en emergencias ampliamente reconocidas, como accidentes cerebrovasculares o reacciones alérgicas graves. Sin embargo, tuvo mayores dificultades en cuadros menos frecuentes pero igualmente críticos, como la cetoacidosis diabética o la insuficiencia respiratoria inminente, donde la tasa de error volvió a ubicarse en torno al 52%.

El análisis también detectó que cuando los usuarios minimizaban sus síntomas o los describían de manera incompleta, aumentaba la probabilidad de que la inteligencia artificial recomendara cuidados de menor urgencia.

Un punto crítico: la salud mental

Uno de los hallazgos más sensibles fue la falta de derivación sistemática a la línea de crisis 988 en casos de ideación suicida. Los autores del estudio subrayaron que reconocer emergencias de salud mental y conectar a los usuarios con recursos especializados es un requisito básico para cualquier plataforma sanitaria destinada al público general.

El sistema fue incluso menos proclive a sugerir la línea de atención cuando los pacientes describían un plan concreto de autolesión, precisamente en situaciones donde la intervención inmediata resulta crucial.

Isaac S. Kohane, director del Departamento de Informática Biomédica de la Facultad de Medicina de Harvard y ajeno al estudio, sostuvo que las evaluaciones independientes deberían ser una práctica habitual. “Cuando millones de personas utilizan un sistema de IA para decidir si necesitan atención de emergencia, hay mucho en juego. La evaluación independiente debería ser rutinaria, no opcional”, afirmó.

Crece el uso, crece el debate

Antes del lanzamiento de ChatGPT Health, OpenAI había informado que el 25% de los 800 millones de usuarios semanales de ChatGPT realizaba al menos una consulta médica, lo que representa unos 40 millones de personas utilizando la plataforma con fines sanitarios.

Ashwin Ramaswamy, profesor de Urología en Mount Sinai y autor del estudio, explicó que el objetivo fue responder una pregunta central: “Si alguien sufre una emergencia médica real y acude a ChatGPT Health en busca de ayuda, ¿le indicará claramente que debe acudir a urgencias?”.

Si bien los investigadores no proponen prohibir estas herramientas, recomiendan que los profesionales de la salud orienten a los pacientes sobre su uso y adviertan sobre sus limitaciones.

¿A quién consultan los pacientes?

Según el informe, el 73% de las personas continúa recurriendo en primera instancia a médicos para obtener información sobre salud, mientras que el 16% utiliza herramientas de inteligencia artificial.

Para Alvira Tyagi, estudiante de medicina y coautora del trabajo, la rápida evolución de estos sistemas obliga a incorporar una mirada crítica en la formación sanitaria. “Parte de nuestra capacitación ahora debe considerar aprender a comprender sus resultados, identificar dónde fallan y utilizarlos de manera que protejan a los pacientes”, señaló.

Mientras la inteligencia artificial avanza en el ámbito sanitario, los especialistas coinciden en que su desarrollo todavía es incipiente y que el desafío será establecer pautas claras que prioricen la seguridad de los pacientes por encima de la innovación tecnológica.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial
+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$740/mes

*LOS PRIMEROS 3 MESES, LUEGO $6990

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$570/mes

*LOS PRIMEROS 3 MESES, LUEGO $4500

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$570.-

POR MES*

*Costo por 3 meses. Luego $4500.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla