Anales de la RANM

256 A N A L E S R A N M R E V I S T A F U N D A D A E N 1 8 7 9 SERENDIPIA Y MEDICINA Maojo V, et al. An RANM. 2024;141(03): 248 - 258 Como anécdota, un descubrimiento serendípico puede implicar que el científico sea inmediata- mente consciente de su importancia potencial, pero no de sus consecuencias secundarias -¿o sí?. Röntgen descubre los Rayos X en su laboratorio pero la primera prueba que realiza para probar su posible aplicación médica la hizo con la mano de su mujer, con varios experimentos que implicaban una alta exposición de ella a los Rayos X, con efectos difíciles de predecir en ese momento. También hay una radiografía conocida que hizo Röntgen de la mano del histólogo Kolliker -también recordado porque fue la primera figura de la medicina que reconoció la importancia de los descubrimientos neuronales de Ramón y Cajal. También Jenner, que tenía varios hijos, hizo el primer experimento de su vacuna con el hijo de su jardinero, o Leonardo Da Vinci renunció al orgullo de poder ser el primer hombre en volar dejando la prueba de su artilugio volador a algún otro confiado probador. ¿INTELIGENCIA ARTIFICIAL + SERENDIPIA = SERENDIPIA ARTIFICIAL? Desde el año 1956 -año “oficial” de inicio de la Inteligencia Artificial (IA)- se ha propuesto en numerosas ocasiones que la IA podría realizar todo tipo de tareas cognitivas que realizan los seres humanos. Entre estas se puede destacar la memoria, razonamiento lógico, planificación, búsqueda de información, manejo del lenguaje, etc. Posterior- mente ya se empezaron a sumar diversas propuestas más complejas acerca de cómo los sistemas de IA podrían plantear ideas creativas artísticas, por ejemplo, en literatura, música o pintura, por ejemplo- o realizar descubrimientos científicos. En los últimos años, el desarrollo de sistemas del llamado “Deep Learning” y de la IA genera- tiva plantea también la posibilidad de que estos sistemas acaben creando nuevas hipótesis, obras artísticas, descubrimientos científicos, incluso si en la actividad o planificación de sus desarrolla- dores no había sido diseñado así. Estos sistemas de IA generativa comienzan a tener comporta- mientos autónomos inesperados (33), que pueden ser incluso peligrosos -como engañar a sus diseña- dores o tener iniciativas propias no previstas-, que serían una de las posibles consecuencias futuras de la propia complejidad -creciente, casi mes a mes- de estas redes profundas, con cientos de capas de neuronas artificiales, que acabarían teniendo comportamientos emergentes no previstos en un principio en su diseño original. La enorme cantidad de datos de los que puede disponerse en múltiples áreas, y la medicina es solo un ejemplo de ello, ha favorecido la creación de bases de datos gigantescas. Colaboradores de los autores trabajan en proyectos en los que manejan datos de cientos de millones de pacientes para selección de candidatos a ensayos clínicos. Estas bases de datos se amplían hasta el punto que es previsible que toda la población humana esté incluida en un tiempo cercano en estas bases de datos, consciente o inconscientemente. Cuando uno acepta sin más las “cookies” asociadas a las comúnmente llamadas “apps” o a páginas Web concretas, o acepta asimismo el contrato que casi nadie suele leer al descargar estas apps, está poniendo sus datos a disposi- ción de la empresa que ha creado esta aplicación. Obviamente estos datos pueden ser usados para el propio beneficio de la empresa -económico, social, incluso político, como ha pasado con el caso de uso de información de votantes estadounidenses que tenían información personal en Facebook, que fue aprovechada por otra empresa para la primera campaña presidencial de Donald Trump en Estados Unidos, que finalmente llegó a ser presidente. Estas enormes bases de datos facilitan la búsqueda de correlaciones que pueden tener también un gran interés científico o médico. Es sabido que las correlaciones no implican una relación causal, pero pueden ser el inicio de generación de una hipótesis o conjetura que puede ser posteriormente confir- mada. De hecho, el primer sistema de aplicación de la IA con éxito, el sistema experto DENDRAL, tenía como meta la generación de hipótesis científicas partiendo del conocimiento y la información que manejaba, para el análisis de señales de espectro- grafía, el premio Nobel Joshua Lederberg (34) El ejemplo antes comentado de Barry Marshall y la correlación que aparecía en un número de artículos científicos en Medline, entre el Helicobacter pylori y la úlcera gástrica, que luego él pudo sugerir como significativa, es un ejemplo. En un trabajo previo, uno de los autores, años antes de que apareciese ChatGPT, ya había usado con sus colaboradores un Transformer para analizar Pubmed completo para la búsqueda de ciertos tipos de información (35). Transformers son sistemas preentrenados de IA, capaces de realizar procesamientos muy complejos centrando su atención en un conjunto concreto de palabras en un texto, usados en sistemas como ChatGPT, cuya T viene de Transformer . Este uso de los Large Language Models (grandes modelos de lenguaje, en español) y Transformers de la IA genera- tiva para analizar conjuntos de datos gigantescos como los de Pubmed, puede favorecer muy pronto la posibilidad de generar un alto número de hipótesis y conjeturas, algunas de las cuales podrían ser comprobadas o descartadas por científicos que usan estos sistemas de IA. Un sistema como DeepMind con AlphaFold de Google (36), que ha conseguido predecir la estructura tridimensional de cientos de miles de proteínas, había sido premiada con el premio Lasker, que suele ser anticipo del Premio Nobel, y que en efecto consiguieron sus autores en Octubre de 2024. Asimismo, sólo un día antes Hopfield y Hinton consiguieron el Premio Nobel de Física por sus avances en las redes de neuronas artificiales, también de IA, y es posible anticipar que haya en un futuro cercano un premio Nobel de Fisiología y Medicina concedido a una investiga- ción que haya sido fuertemente apoyada ,o incluso basada, en una propuesta realizada con IA gracias a sus capacidades de análisis masivo de datos en áreas como la medicina. Las “alucinaciones” mismas, que son efectos no deseados de las preguntas -los llamados “prompts”

RkJQdWJsaXNoZXIy ODI4MTE=