Anales de la RANM

71 A N A L E S R A N M R E V I S T A F U N D A D A E N 1 8 7 9 INTELIGENCIA ARTIFICIAL Y MEDICINA Maojo V, et al. An RANM. 2026;143(01): 67 - 75 Las conclusiones de los sistemas expertos se podían explicar gracias a que su razonamiento y conocimiento eran explícitos y se conocían en detalle, mientras que los modelos generativos, basados ​ en sus capacidades predictivas, al ser redes neuronales artificiales aún se comportan como cajas negras. La explicabilidad de los modelos grandes de lenguaje es limitada, aunque se han propuesto técnicas como el llamado “chain- of-thought”, el uso de otros LLMs o modelos híbridos, neurosimbólicos. Un estudio reciente mostró que un amplio porcentaje de los médicos que habían utilizado un sistema de IA generativo consideraba que las explicaciones correctas del sistema no eran un problema particularmente relevante, siempre que el sistema proporcionara buenas decisiones (33). Podríamos decir que, si los sistemas pioneros de la IA se encontraron con una desconfianza abrumadora de los médicos clínicos, en muchos casos encontramos ahora la situación contraria. RAZONAMIENTO MÉDICO E IA Las estrategias de razonamiento para la resolu- ción de problemas utilizadas por los médicos en la práctica clínica incluyen diferentes estrate- gias, como el uso de heurísticas, la aplicación de diferentes tipos de lógica (deductiva, inductiva y abductiva), la estimación de probabilidades de enfermedades basándose en comparaciones entre ellas en lugar de estadísticas, el recono- cimiento rápido de patrones textuales y visuales, el razonamiento causal, la experiencia con casos previos o el sentido común, entre otros. Figura 1. Relación entre exactitud e interpretabilidad para diferentes técnicas de IA. Publicado originalmente por los autores en (29).

RkJQdWJsaXNoZXIy ODI4MTE=