Anales de la RANM

68 A N A L E S R A N M R E V I S T A F U N D A D A E N 1 8 7 9 INTELIGENCIA ARTIFICIAL Y MEDICINA Maojo V, et al. An RANM. 2026;143(01): 67 - 75 información en sistemas como Pubmed, entre otros. Estos sistemas pioneros tuvieron deficien- cias y errores, en una época en la que no se disponía de experiencia previa y la investigación comenzaba desde cero. Sorprendentemente, muchas de estas mismas deficiencias y conceptos erróneos parecen repetirse hoy, en aplicaciones de aprendizaje profundo e IA generativa. En este artículo, inspirados especialmente en nuestra propia experiencia en investigación avanzada en IA en medicina desde las décadas de 1960 (CK) y 1980 (VM), queremos señalar una serie de lecciones aprendidas (y a veces olvidadas) de la IA en medicina. LA IA NO ES NUEVA - Y LO QUE ESTO IMPLICA -. La aparición de ChatGPT en 2022 ha provocado un aumento enorme en el número de usuarios de IA. En este contexto, muchas personas desconocen la historia de la IA, que surgió oficialmente como disciplina en 1956 en una reunión celebrada en el Dartmouth College por diez pioneros ahora legendarios (9). Lo ocurrido en esta reunión no puede entenderse sin la investigación sobre matemáticas y lógica del siglo XX, el desarrollo previo de la Ciberné- tica por Wiener o la conferencia Macy de Ciencias Cognitivas, celebrada ese mismo verano de 1956; sin embargo, pocos profesionales (incluso univer- sitarios) parecen preocuparse por la historia de la IA y su relevancia para los desafíos actuales, ignorando que, sin dicha información, no es posible comprender plenamente las complejidades de la IA. El aprendizaje en IA tiene un componente estadís- tico clave y, por esta razón no podemos afirmar que esté libre de errores (10). Como ha descrito Jelinek, pionero del procesamiento del lenguaje natural (“natural language processing” o NLP, nombre y acrónimo en inglés, usado comúnmente), la estadística ha dominado ese área por razones prácticas (11). En esencia, los sistemas de IA generativa son sistemas estadísticamente eficientes que a menudo producen resultados espectacu- lares, pero carecen de una comprensión profunda de cómo se han generado computacionalmente los resultados que ofrecen. ¿Pueden los sistemas actuales de IA genera- tiva, basados ​ en el procesamiento del lenguaje natural o imágenes digitalizadas, sin control humano sobre la interacción con el mundo externo, alcanzar el mismo nivel de razonam- iento que los humanos? Por ahora, no parece ser así, pero la IA tampoco es un “loro estocás- tico”, como afirman algunos profesionales. Los científicos de IA no pueden explicar todas las complejidades y propiedades emergentes de los razonamientos inesperados que surgen dentro de las redes neuronales artificiales complejas (12), lo que crea un nuevo y sustancial campo de investigación. La IA es una disciplina cientí- fica y tecnológica muy compleja y no sólo  como se dice habitualmente  una herramienta capaz de realizar complejas tareas inteligentes. En medicina, estas complejidades son aún mayores. PROCESOS CONSCIENTES E INCONSCIENTES E IA En los primeros sistemas de IA, “prácticos”, los llamados sistemas expertos, el objetivo era adquirir el conocimiento y los métodos de razonamiento de los expertos en un dominio específico para transferirlos a un ordenador. Para lograrlo, otra persona, llamada ingeniero del conocimiento, debía extraer ese conocimiento de los expertos mediante métodos como entrevistas, análisis de protocolos y otras técnicas (13) y producir una representación informática. Estos sistemas tuvieron éxito académico y algunas pocas aplicaciones llegaron a ser comerciales durante esos primeros veinte años, pero pocos se llegaron a utilizar con éxito y de forma rutinaria en la práctica clínica, algo que aún ocurre hoy en día con muchos sistemas de IA basados ​en aprendi- zaje automático. ¿Por qué no tuvieron éxito estos sistemas expertos en la práctica clínica? Una poderosa razón cognitiva subyacente es que es imposible para un experto verbalizar completamente el conocimiento y los métodos de razonamiento que utiliza, y por tanto, transferirlo a un ordenador. La adquisición de habilidades cognitivas ocurre en varias etapas (14,15), y después de un período de aproximada- mente diez años, el razonamiento de un experto -y los procesos cognitivos en general- en un dominio específico se vuelve automatizado y parcial- mente inconsciente. En esta etapa posterior, no es posible verbalizar completamente el razonami- ento que una persona hace. Esta limitación ha sido un problema central para el "cuello de botella en la adquisición de conocimiento" en los sistemas expertos, convirtiéndose en una barrera para el desarrollo de sistemas expertos generalizables (16). Los autores recuerdan a un colega, médico experimentado, que comentaba que a veces sentía una sensación difícil de definir, a la que llamaba “gut feeling” - que podríamos traducir por “presentimiento"-, cuando pensaba que algo faltaba en el diagnóstico de un paciente especí- fico, pero no podía comprender ni articular qué era hasta evaluarlo en profundidad. Este tipo de intuiciones, a menudo denominadas bajo el amplio concepto de "ojo clínico", corresponden a razonamientos cognitivos sobre la situación clínica del paciente, a menudo inconscientes, que utilizan los médicos al examinar a un paciente e implica una serie de cuestiones -éticas, sociales, psicológicas, empáticas, de comprensión personal y de experiencias, entre otras- que, por ahora, son muy difíciles de captar para los sistemas pasados y actuales de IA.

RkJQdWJsaXNoZXIy ODI4MTE=