Skip to content
  martes 14 abril 2026
  • Sobre Nosotros
  • Contacto
  • Portada
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
  • Portada
  • Cultura
  • Tecnología
  • Sociedad
  • Ciencia
  • Salud
  • Economía
  • Deportes
  • Mundo
  • Nacional
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
  • Portada
  • Cultura
  • Tecnología
  • Sociedad
  • Ciencia
  • Salud
  • Economía
  • Deportes
  • Mundo
  • Nacional
  • Sobre Nosotros
  • Contacto
  • Portada
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
  Tecnología  La inteligencia artificial aún necesita a los médicos para dar un buen diagnóstico
Tecnología

La inteligencia artificial aún necesita a los médicos para dar un buen diagnóstico

abril 13, 2026
FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail

Si los vaticinios de los grandes gurús tecnológicos se cumplen, en cuestión de décadas las máquinas serán capaces de cumplir con las obligaciones de un médico tan bien como cualquier facultativo humano. Pero para que eso ocurra todavía tienen mucho que mejorar. De acuerdo con un reciente estudio, publicado por un equipo de investigadores de Estados Unidos en JAMA Network Open , las herramientas como ChatGPT siguen sin contar con la capacidad de razonamiento necesaria para el diagnóstico de un paciente; por ello, se recomienda desconfiar de la información que ofrecen cuando no hay un médico real supervisando los resultados.Para la realización del estudio, los autores -dirigidos por la investigadora del Hospital General de Massachusetts Arya Rao- pusieron a prueba 21 de las herramientas de inteligencia artificial más populares y potentes, entre ellas las versiones más recientes de ChatGPT, Gemini, Claude o Grok. Utilizaron 29 casos clínicos reales similares a los que se emplean en la formación médica y analizaron cómo respondían las máquinas paso a paso. El objetivo no era solo que ofrecieran un diagnóstico final , también debían proponer posibles enfermedades, decidir qué pruebas realizar al paciente, interpretar los resultados y plantear tratamientos. Algo similar a lo que tienen que hacer los facultativos.MÁS INFORMACIÓN noticia No Las radiografías con IA ya engañan a los radiólogosEn total, los investigadores analizaron más de 16.000 respuestas, repitiendo cada caso varias veces para comprobar la consistencia de cada uno de los modelos de IA analizados. Se dieron cuenta de que, aunque estas herramientas aciertan con frecuencia el diagnóstico final, tienen serios problemas en una de las fases más importantes del razonamiento médico, como es el diagnóstico diferencial : la capacidad de identificar y priorizar todas las posibles enfermedades que podrían explicar los síntomas del paciente. Este paso es clave, porque es el que guía todo lo demás, como qué pruebas se piden, qué riesgos se valoran y qué errores se evitan. Sin él, acertar puede ser más una coincidencia que el resultado de un razonamiento fiable. Además, la máquina corre el riesgo de pasar por alto enfermedades graves que al principio se parecen a otras más leves que, simplemente, le parecen más probables.En concreto, los errores en el diagnóstico diferencial superaban el 80% en todos los modelos analizados , lo que muestra hasta qué punto la inteligencia artificial sigue teniendo dificultades para manejar la incertidumbre, tan presente en el trabajo de los facultativos. «Este punto tiene implicaciones importantes. Por un lado, cuestiona directamente la idea de utilizar estos sistemas como herramientas diagnósticas autónomas. Por otro, refuerza un enfoque más prudente, en el que los modelos de lenguaje se utilicen como apoyo al profesional sanitario, especialmente en tareas estructuradas o con menor grado de incertidumbre», explica en declaraciones recogidas por la revista SMC Susana Manso, médico de familia y miembro del grupo de trabajo de Inteligencia Artificial y Salud Digital de la Sociedad Española de Medicina de Familia y Comunitaria (semFYC).Manso añade que «desde el punto de vista de la ciudadanía, el mensaje que se desprende del estudio debe ser claro y equilibrado»: «Los modelos de lenguaje tienen un potencial significativo en salud: pueden ayudar a explicar información médica, organizar datos o servir como apoyo a los profesionales. Sin embargo, todavía no son fiables como sustitutos de los médicos, especialmente en situaciones complejas o en el momento del diagnóstico inicial».La IA no está listaCon todo, la doctora alerta de que el estudio también tiene sus limitaciones. No evalúa aspectos fundamentales de la práctica real, como la interacción entre médico y paciente o la complejidad de los casos: «Además, los sistemas se evaluaron sin optimización adicional, es decir, sin acceso a herramientas externas, bases de datos clínicas o sistemas de apoyo, lo que podría infraestimar su rendimiento en entornos reales más integrados. La evaluación de las respuestas fue realizada por estudiantes de Medicina, lo que introduce cierto grado de subjetividad».Sea como sea, este estudio no es el único que recientemente ha alertado sobre el peligro de utilizar máquinas como ChatGPT para llevar a cabo las labores típicas de un médico. El pasado febrero, otro artículo , en este caso publicado en ‘Nature Medicine’, alertaba de que ChatGPT tiende a subestimar más de la mitad de las emergencias médicas que le plantean los usuarios. «En concreto, el sistema subestimaba el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explicaba a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York. Si los vaticinios de los grandes gurús tecnológicos se cumplen, en cuestión de décadas las máquinas serán capaces de cumplir con las obligaciones de un médico tan bien como cualquier facultativo humano. Pero para que eso ocurra todavía tienen mucho que mejorar. De acuerdo con un reciente estudio, publicado por un equipo de investigadores de Estados Unidos en JAMA Network Open , las herramientas como ChatGPT siguen sin contar con la capacidad de razonamiento necesaria para el diagnóstico de un paciente; por ello, se recomienda desconfiar de la información que ofrecen cuando no hay un médico real supervisando los resultados.Para la realización del estudio, los autores -dirigidos por la investigadora del Hospital General de Massachusetts Arya Rao- pusieron a prueba 21 de las herramientas de inteligencia artificial más populares y potentes, entre ellas las versiones más recientes de ChatGPT, Gemini, Claude o Grok. Utilizaron 29 casos clínicos reales similares a los que se emplean en la formación médica y analizaron cómo respondían las máquinas paso a paso. El objetivo no era solo que ofrecieran un diagnóstico final , también debían proponer posibles enfermedades, decidir qué pruebas realizar al paciente, interpretar los resultados y plantear tratamientos. Algo similar a lo que tienen que hacer los facultativos.MÁS INFORMACIÓN noticia No Las radiografías con IA ya engañan a los radiólogosEn total, los investigadores analizaron más de 16.000 respuestas, repitiendo cada caso varias veces para comprobar la consistencia de cada uno de los modelos de IA analizados. Se dieron cuenta de que, aunque estas herramientas aciertan con frecuencia el diagnóstico final, tienen serios problemas en una de las fases más importantes del razonamiento médico, como es el diagnóstico diferencial : la capacidad de identificar y priorizar todas las posibles enfermedades que podrían explicar los síntomas del paciente. Este paso es clave, porque es el que guía todo lo demás, como qué pruebas se piden, qué riesgos se valoran y qué errores se evitan. Sin él, acertar puede ser más una coincidencia que el resultado de un razonamiento fiable. Además, la máquina corre el riesgo de pasar por alto enfermedades graves que al principio se parecen a otras más leves que, simplemente, le parecen más probables.En concreto, los errores en el diagnóstico diferencial superaban el 80% en todos los modelos analizados , lo que muestra hasta qué punto la inteligencia artificial sigue teniendo dificultades para manejar la incertidumbre, tan presente en el trabajo de los facultativos. «Este punto tiene implicaciones importantes. Por un lado, cuestiona directamente la idea de utilizar estos sistemas como herramientas diagnósticas autónomas. Por otro, refuerza un enfoque más prudente, en el que los modelos de lenguaje se utilicen como apoyo al profesional sanitario, especialmente en tareas estructuradas o con menor grado de incertidumbre», explica en declaraciones recogidas por la revista SMC Susana Manso, médico de familia y miembro del grupo de trabajo de Inteligencia Artificial y Salud Digital de la Sociedad Española de Medicina de Familia y Comunitaria (semFYC).Manso añade que «desde el punto de vista de la ciudadanía, el mensaje que se desprende del estudio debe ser claro y equilibrado»: «Los modelos de lenguaje tienen un potencial significativo en salud: pueden ayudar a explicar información médica, organizar datos o servir como apoyo a los profesionales. Sin embargo, todavía no son fiables como sustitutos de los médicos, especialmente en situaciones complejas o en el momento del diagnóstico inicial».La IA no está listaCon todo, la doctora alerta de que el estudio también tiene sus limitaciones. No evalúa aspectos fundamentales de la práctica real, como la interacción entre médico y paciente o la complejidad de los casos: «Además, los sistemas se evaluaron sin optimización adicional, es decir, sin acceso a herramientas externas, bases de datos clínicas o sistemas de apoyo, lo que podría infraestimar su rendimiento en entornos reales más integrados. La evaluación de las respuestas fue realizada por estudiantes de Medicina, lo que introduce cierto grado de subjetividad».Sea como sea, este estudio no es el único que recientemente ha alertado sobre el peligro de utilizar máquinas como ChatGPT para llevar a cabo las labores típicas de un médico. El pasado febrero, otro artículo , en este caso publicado en ‘Nature Medicine’, alertaba de que ChatGPT tiende a subestimar más de la mitad de las emergencias médicas que le plantean los usuarios. «En concreto, el sistema subestimaba el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explicaba a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York.  

Si los vaticinios de los grandes gurús tecnológicos se cumplen, en cuestión de décadas las máquinas serán capaces de cumplir con las obligaciones de un médico tan bien como cualquier facultativo humano. Pero para que eso ocurra todavía tienen mucho que mejorar. De acuerdo … con un reciente estudio, publicado por un equipo de investigadores de Estados Unidos en JAMA Network Open, las herramientas como ChatGPT siguen sin contar con la capacidad de razonamiento necesaria para el diagnóstico de un paciente; por ello, se recomiendo desconfiar de la información que ofrecen cuando no hay un médico real supervisando los resultados.

Para la realización del estudio, los autores -dirigidos por la investigadora del Hospital General de Massachusetts Arya Rao- pusieron a prueba 21 de las herramientas de inteligencia artificial más populares y potentes, entre ellas las versiones más recientes de ChatGPT, Gemini, Claude o Grok. Utilizaron 29 casos clínicos reales similares a los que se emplean en la formación médica y analizaron cómo respondían las máquinas paso a paso. El objetivo no era solo que ofrecieran un diagnóstico final, también debían proponer posibles enfermedades, decidir qué pruebas realizar al paciente, interpretar los resultados y plantear tratamientos. Algo similar a lo que tienen que hacer los facultativos humanos.

Más noticias

Del último Mario al terror más espeluznante: cinco videojuegos ideales para la Semana Santa

abril 1, 2026

Probamos el DJI Avata 360, ¿el mejor dron 360 del mercado?

abril 6, 2026

Miles de españoles intercambian contenido sexual de mujeres y niñas en Telegram

abril 8, 2026

El primer iPhone plegable puede llegar más tarde de lo que esperábamos

abril 7, 2026

MÁS INFORMACIÓN


  • Las radiografías con IA ya engañan a los radiólogos

En total, los investigadores analizaron más de 16.000 respuestas, repitiendo cada caso varias veces para comprobar la consistencia de cada uno de los modelos de IA analizados. Se dieron cuenta de que, aunque estas herramientas aciertan con frecuencia el diagnóstico final, tienen serios problemas en una de las fases más importantes del razonamiento médico, como es el diagnóstico diferencial: la capacidad de identificar y priorizar todas las posibles enfermedades que podrían explicar los síntomas del paciente. Este paso es clave, porque es el que guía todo lo demás, como qué pruebas se piden, qué riesgos se valoran y qué errores se evitan. Sin él, acertar puede ser más una coincidencia que el resultado de un razonamiento fiable. Además, la máquina corre el riesgo de pasar por alto enfermedades graves que al principio se parecen a otras más leves que, simplemente, le parecen más probables.

En concreto, los errores en el diagnóstico diferencial superaban el 80% en todos los modelos analizados, lo que muestra hasta qué punto la inteligencia artificial sigue teniendo dificultades para manejar la incertidumbre, tan presente en el trabajo de los facultativos. «Este punto tiene implicaciones importantes. Por un lado, cuestiona directamente la idea de utilizar estos sistemas como herramientas diagnósticas autónomas. Por otro, refuerza un enfoque más prudente, en el que los modelos de lenguaje se utilicen como apoyo al profesional sanitario, especialmente en tareas estructuradas o con menor grado de incertidumbre.», explica, en declaraciones recogidas por la revista SMC, Susana Manso, médico de familia y miembro del grupo de trabajo de Inteligencia Artificial y Salud Digital de la Sociedad Española de Medicina de Familia y Comunitaria.

Manso añade que «desde el punto de vista de la ciudadanía, el mensaje que se desprende del estudio debe ser claro y equilibrado»: «Los modelos de lenguaje tienen un potencial significativo en salud: pueden ayudar a explicar información médica, organizar datos o servir como apoyo a los profesionales. Sin embargo, todavía no son fiables como sustitutos de los médicos, especialmente en situaciones complejas o en el momento del diagnóstico inicial».

La IA no está lista

Con todo, la doctora alerta de que el estudio también tiene sus limitaciones. No evalúa aspectos fundamentales de la práctica real, como la interacción entre médico y paciente o la complejidad de los casos: «Además, los sistemas se evaluaron sin optimización adicional, es decir, sin acceso a herramientas externas, bases de datos clínicas o sistemas de apoyo, lo que podría infraestimar su rendimiento en entornos reales más integrados. La evaluación de las respuestas fue realizada por estudiantes de Medicina, lo que introduce cierto grado de subjetividad».

Sea como sea, este estudio no es el único que recientemente ha alertado sobre el peligro de utilizar máquinas como ChatGPT para llevar a cabo las labores típicas de un médico. El pasado febrero otro artículo, en este caso publicado en ‘Nature Medicine’, alertaba de que ChatGPT tiende a subestimar más de la mitad de las emergencias médicas que le plantean los usuarios. «En concreto, el sistema subestimaba el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explicaba a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York.

 RSS de noticias de tecnologia

FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail
Carlos Alcaraz: “En la pista cuesta controlarte y luego te das cuenta de la gravedad de las palabras”
Trágico episodio para Susanna Griso: dos perros asesinan a su caniche en una residencia canina
Leer también
Sociedad

Marta Hazas confiesa su dolor más profundo: “El año pasado fue un año terrible, fue muy duro a nivel personal”

abril 14, 2026
Nacional

Nueva carta a la ciudadanía de Sánchez por la regularización extraordinaria: «La migración debe gestionarse con responsabilidad y convertirse en prosperidad compartida»

abril 14, 2026
Mundo

Los reyes Guillermo y Máxima duermen con los Trump en la Casa Blanca en una excepcional noche que divide a los holandeses

abril 14, 2026
Deportes

Barcelona Open Banc Sabadell – Trofeo Conde de Godó: el legado de una leyenda del tenis

abril 14, 2026
Sociedad

Katy Perry niega haber agredido sexualmente a Ruby Rose: “Son mentiras peligrosas y temerarias”

abril 14, 2026
Ciencia

Michel Mayor, Nobel de Física: “La gente piensa que la humanidad es eterna, pero somos animales y nos extinguiremos”

abril 14, 2026
Cargar más

La Maestranza aplaude al rey Juan Carlos

abril 6, 2026

Un futbolista israelí participa en la ofensiva contra Líbano como reservista del Ejército

marzo 31, 2026

«Candelaria»,  Mercedes Elvira Acosta Castillo denuncia una realidad desgarradora en su nueva obra

septiembre 4, 2024

Aleix Espargaró sufre una grave caída en un test con Honda

abril 9, 2026
Marcos Sánchez Fernández sorprende con su debut literario en "Una historia corriente"

Marcos Sánchez Fernández sorprende con su debut literario en «Una historia corriente»

marzo 4, 2025

Heide Yokoono Herrera Espinosa convierte el dolor en poesía con una obra profundamente emocional

marzo 10, 2026

Aday Mara: “Llevar la bandera de mi país a lo más alto del baloncesto universitario es un honor”

abril 7, 2026

Referentes de Podemos torpedean la unidad de la izquierda con los ‘morados’ ya dentro

abril 6, 2026
Patricia García Lamela presenta su primer libro, un viaje transformador hacia el autoconocimiento

Patricia García Lamela presenta su primer libro, un viaje transformador hacia el autoconocimiento

febrero 12, 2025
Ecto de Persanqui - Mr. Maybe presentó El Samurái y El Dragón en Sant Jordi 2025 con la Editorial Letrame

Ecto de Persanqui – Mr. Maybe presentó El Samurái y El Dragón en Sant Jordi 2025 con la Editorial Letrame

abril 29, 2025

    2024 © NoticiasdeCadaDia. Todos los derechos reservados
    • Condiciones de Uso para NoticiasdeCadaDia
    • Política de Cookies
    • Política de Privacidad