Entrevista al Dr. David Olivieri
David Olivieri es doctor en Física por la Universidad de Massachussets y el Fermi National Accelerator Lab (EE.UU.) y profesor titular en el departamento de Informática de la Universidade de Vigo. El pasado 26 de enero, nos visitó en el Instituto de Investigación Sanitaria Galicia Sur para compartir con nosotros su amplia experiencia en uno de los temas que hoy en día causa mayor interés: el uso de la Inteligencia Artificial en la investigación bioquímica. Bajo el título de: Uso de Machine Learning e IA en Problemas Biomédicos: Pasado, presente, futuro cercano, Olivieri realizó un repaso a los avances en los últimos quince años en este ámbito, remontándose a lo que él denomina “la prehistoria de la IA”, dejando pinceladas de lo que será el futuro en el empleo de la IA en la biomedicina. Un futuro que, nos advierte, puede ser sorprendente.
1.- Hace más de diez años que usted colabora con la investigación mediante sus conocimientos informáticos y el diseño de algoritmos optimizados. Hoy en día lo hace con el apoyo de la Inteligencia Artificial y cuando echa la vista atrás (a tan sólo diez o quince años vista), se refiere a esos momentos como si hablara de la prehistoria en comparación con la actualidad, ¿no es así?
Sí, creo que en cierto modo esto no es una exageración. Por supuesto, hay algunas constantes en la metodología utilizada y las matemáticas/técnicas subyacentes, que son bastante similares, pero ha habido un cambio radical en la forma en que se resuelven los problemas. Una explicación simplificada es la siguiente: originalmente, la IA (Inteligencia Artificial) consistía en un conjunto de reglas seleccionadas manualmente y el reconocimiento de patrones también era un conjunto de características concebidas manualmente. Esto evolucionó a características y reglas más abstractas, y ahora, estamos en un punto donde solo hay un gran modelo interconectado.
El gran cambio de paradigma es que ahora no necesitamos definir estas características, es la computadora misma la que “aprende las mejores funciones” (que a menudo son un conjunto numérico tan grande que solo la computadora puede interpretarlas). Esta idea no es del todo nueva. A principios de la década de 2000, tales ideas se concibieron con transformaciones matemáticas. Sin embargo, lo nuevo es que el aprendizaje profundo, instanciado con grandes redes neuronales artificiales, evita incluso transformaciones matemáticas tan complejas. Si se desea encontrar algo en una imagen, simplemente hay que introducir la imagen completa en la red neuronal. Las mejores funciones “emergerán” a medida que la red neuronal se adapte a más datos de imagen.
2.- Hagamos un pequeño repaso. En 2013 fueron capaces de mapear y sacar tracks de linfocitos con técnicas informáticas y solucionaron el problema de estabilización de la imagen gracias a un algoritmo optimizado con el que se podía identificar el tejido moviéndose. ¿Cómo ha sido esta experiencia?
El trabajo estaba relacionado con el análisis de imágenes biológicas, generalmente utilizando imágenes de microscopía confocal o microscopía de dos fotones para imágenes in vivo. El primer trabajo de este tipo que hice fue en colaboración con el doctor José Faro, biólogo con especialidad en inmunología de la Universidad de Vigo. Para ese trabajo, escribí un software personalizado para realizar el reconocimiento de patrones de centros germinales en imágenes de microscopía confocal de ganglios linfáticos. Luego, el software podría extraer modelos tridimensionales de los centros germinales. Esto fue un desafío porque en ese momento escribimos un algoritmo personalizado que incluía varios parámetros que debían ajustarse. Hicimos esto a través de iteraciones sucesivas, o un procedimiento de optimización hecho a mano. El algoritmo funcionó bastante bien y publicamos los hallazgos en BMC Bioinformatics. Más tarde, utilicé un procedimiento de optimización similar en muchos otros trabajos, como “estabilizar” el movimiento del tejido blando asociado con la microscopía in vivo para que se pudiera rastrear el movimiento celular. Este fue un trabajo que hice en colaboración con grupos de Alemania y Portugal. Varios de estos trabajos se publicaron en Plos Pathogens, así como en el American Journal of Reproductive Immunology.
Lo que quiero decir con optimización en este contexto es que, de esta forma, se encuentran de manera iterativa los mejores “parámetros libres” que resuelven el problema de descubrir un patrón; es decir, intentar ajustar los parámetros hacia su objetivo. Este es un tema común incluso ahora. La palabra “Aprender” para un algoritmo de IA (cualquier forma de IA, ya sea IA superficial o IA profunda con una red neuronal) significa que está tratando de encontrar los parámetros del modelo interno que mejor se ajusten a los datos presentados, de modo que este modelo pueda ser predictivo. Es decir, si solo tengo el modelo, puede predecir basándose en nueva información o predecir un resultado futuro.
Sin embargo, la experiencia en esos años fue interesante y con sus propios desafíos. Por ejemplo, había una gran cantidad de técnicas “aparentemente” separadas. De hecho, parecía un popurrí de técnicas “desconectadas” que se originaban en campos separados, como la estadística, la informática e incluso la física. Por ejemplo, ha habido personas que trabajaron en SVM (algoritmo de aprendizaje supervisado), otras, en árboles de decisión y otras que trabajaron en las primeras formas de redes neuronales. Los que trabajaban con SVM rara vez hablaban con los que trabajaban en árboles de decisión y cada grupo sintió que su método seleccionado funcionó mejor. A medida que el campo maduró, al igual que en muchos campos científicos, nos dimos cuenta de que había conexiones profundas entre todas estas técnicas. Lo que surgió fue un concepto más unificado de aprendizaje automático dentro de un esfuerzo mucho más grande, la inteligencia artificial. Entonces, lo que sucedió fue que muchas partes diferentes del campo se unieron, y creo que lo que sucedió en los últimos años es ahora una unificación de todos los subcampos de la IA. Una especie de “gran IA unificada”, robando el término de la analogía de la física (“Gran Teoría Unificada”).
3.- En 2020, y tras sus trabajos en torno al SARS-CoVid 2, su equipo posee experiencia en buscar biomarcadores en enfermedades raras. ¿Cómo ha sido este avance?
Bueno, estaba empezando a trabajar en algunas cosas relacionadas con el SARS-CoVid2, pero no publiqué ese trabajo. Sin embargo, tenía el conocimiento suficiente para seguir la literatura científica y probar algunas de las simulaciones moleculares. En cualquier caso, había adquirido previamente algunos conocimientos en cuestiones relacionadas con la bioinformática aplicada a la genómica en inmunología. En particular, tuve la suerte de contar con una estrecha colaboración durante muchos años con el doctor Francisco Gambón, del Hospital Meixoeiro en Vigo. Juntos utilizamos una gran colección de genomas secuenciados recientemente de muchos taxones (superiores a 500, en el árbol de la vida de los vertebrados con mandíbula) para estudiar el repertorio genómico de inmunoglobulina (IG), receptores de linfocitos T (TCR) y genes del complejo mayor de histocompatibilidad (MHC).
El objetivo de este trabajo fue observar la evolución de estos genes/moléculas, ya que juegan un papel clave en el Sistema Inmune Adaptativo (AIS). Este trabajo requirió desarrollar un software de aprendizaje automático que pudiera identificar segmentos “motifs” genómicos específicos en exones viables de un genoma. Computacionalmente, esto fue un desafío por varias razones: la primera de ellas, porque los genomas secuenciados consistían en una gran colección (superior a millones) de “contigs”, aún no ensamblados en cromosomas. La segunda, la evidencia experimental de genes viables de IG y TCR existía solo para un pequeño subconjunto de taxones, lo que requiere un aprendizaje iterativo, y finalmente, porque necesitábamos confirmar muchos de los genes con RNAseq (transcriptomas).
Con este conocimiento adquirido para analizar transcriptomas con aprendizaje automático, comencé otra colaboración con el doctor Luiz Stark, investigador del Instituto de Investigación Sanitaria del Hospital Universitario La Paz (IdiPAZ). Tenían pequeños conjuntos de datos de transcriptoma (RNAseq y MicroRNA) asociados con una enfermedad rara e idiopática en bebés, la atresia biliar, y querían poder identificar biomarcadores. Este fue un problema desafiante por varias razones; principalmente, porque había muy pocas muestras para usar un modelo de DNN directamente.
Por lo tanto, desarrollé un software que incorpora información adicional de bases de conocimiento biológico (usando STRING, KEGG y otros). De esta manera, en comparación con otras enfermedades que comparten síntomas similares (enfermedades colestásicas), la expresión diferencial (genes frente a vía de la enfermedad frente a enfermedad) crea huellas dactilares únicas para cada paciente (algo así como una etiqueta QR) que se puede introducir en una IA, modelo (un DNN) para clasificar a un paciente en una clase de enfermedad. El software y el método identifican con éxito biomarcadores biológicamente relevantes. Ahora estamos trabajando para que los resultados sean útiles como herramienta de pruebas clínicas.
4.- En su conferencia afirma que: “La ciencia no avanza en instantes pequeños, si no que, de repente, da un salto” y nos coloca en otro escenario. ¿Esto es lo qué está pasando con la integración de la Inteligencia Artificial a la biomedicina?
Bueno, ¡me encantaría haber sido la persona que acuñó esa frase! Sin embargo, se debe a Thomas Khun, que en 1962 escribió una monografía ahora famosa: La estructura de las revoluciones científicas1. Khun, con brillantez y mucha erudición, defendió la idea de que la ciencia “normal” progresa gradualmente con contribuciones dentro de una escuela de pensamiento establecida. El verdadero progreso en la ciencia, argumentó, solo ocurre cuando esta escuela de pensamiento se abandona por una idea radicalmente nueva. Esta es la encarnación del concepto de “cambio de paradigma”. Sólo entonces la ciencia avanza a un salto rápido. En su ensayo, usó ejemplos de la física clásica y describió la revolución copernicana como una desviación radical del sistema ptolemaico.
En retrospectiva, tales nociones parecen confirmarse, tanto dentro de la física como en casi todas las demás áreas del pensamiento, algunas con más o menos implicaciones para la humanidad; sí por algún estándar, pero sin derrocar a la ciencia que la creó. Permítame proporcionar algunos ejemplos antes de responder a su pregunta, ya que creo que requiere algo de contexto. Así, si bien la teoría de la relatividad de Einstein representó verdaderamente una desviación completa del pensamiento en todos los niveles, la idea de un espacio-tiempo donde la velocidad de la luz (“c“) es constante en todos los marcos de referencia, es una propuesta de gran alcance que significa que el espacio y el tiempo no es plano, sino más bien curvo o doblado; lo que implica que hará cualquier cosa que se le requiera solo para que “c” permanezca constante. Esto puede parecer teórico, pero proporciona las ecuaciones correctas necesarias para usar el GPS, de lo contrario, las señales y demás estarían en constante error.
Ahora, considere otros “eventos” más cercanos a la biomedicina. En biología, una plétora de descubrimientos nos trajo hasta donde estamos hoy siendo, todos a su manera, cambios de paradigma, tales como: como la genética de Mendelev, el descubrimiento de la doble hélice, el descubrimiento de los mecanismos moleculares de inmunidad y rechazo de órganos, y toda la revolución de genómica (edición de genes CRISPR), etcétera… . Cada uno fue un cambio de paradigma por derecho propio, si bien no derrocó todo lo que siguió, en contraste con cómo la teoría copernicana reemplazó completamente al sistema ptolemaico (o cómo la teoría de Einstein o teoría cuántica sustituyó a la anterior), sin embargo, la implicación ha sido igual de radical.
La inteligencia artificial ha pasado por un cierto cambio de paradigma con las redes neuronales profundas combinado con otros dos factores: cantidades masivas de datos y capacidades computacionales más potentes. Todavía no conocemos todas las implicaciones de esto. Las aplicaciones de IA se están abriendo camino en nuestra vida diaria, algunas buenas, otras no tan buenas. Si se combina con otras tecnologías transformadoras -como la computación cuántica- este período de IA podría ser formidable de hecho. El impacto medido y caracterizado como un “cambio de paradigma” en el pensamiento humano estaría justificado.
5.- Tal vez por el hecho de estar a diario en contacto con estos avances usted se muestra cauto a la hora de advertir de las posibilidades de la Inteligencia Artificial y de los peligros de que pueda set empleada al margen de la ética. ¿Es tan serio el peligro?
Soy cautelosamente optimista, sin embargo diría que todavía no podemos determinar el nivel de peligro. Estamos en un momento en que hay tanta información disponible y el cambio se está produciendo a gran velocidad. Sin embargo, también debo decir que hay mucha información que NO (enfatiza) está disponible. Esto genera una situación confusa y difícil de predecir los resultados futuros.
Muchos pensadores están tratando de reconstruir e interpretar exactamente lo que está pasando. Destacan algunas obras, a las que aludí al final de la presentación. La hipótesis de los mundos vulnerables2 , de Nick Bostrom, se destaca en mi mente. Es un ensayo de 2019 que plantea ciertos escenarios de descubrimiento científico que pueden clasificarse según su nivel de amenaza existencial. Se basa en una metáfora que utilizó anteriormente3 , donde los descubrimientos tecnológicos (la IA incluida entre ellos) es similar a extraer a ciegas bolas de colores de una urna. Mientras que en una escala de grises una bola negra es un evento que termina con una civilización, su afirmación es que hasta ahora hemos tenido suerte y solo hemos extraído bolas grises; es decir, tecnologías que son verdaderamente devastadoras (armas nucleares, armas biológicas, CFC, etcétera… ) pero que son difíciles de implementar por parte de malos actores. En su mayor parte, la tecnología ha sido muy ventajosa para la civilización hasta ahora.
Sin embargo, Bostrom hace la pregunta de ¿qué pasaría si tuviéramos una tecnología y sacaramos de una urna una bola “negra”, que es tan destructiva y fácil de implementar, que finalmente destruye la civilización que la creó? Dada la simple observación de que no es posible “desaprender” algo, ¿cómo se enfrenta uno a tal situación? Luego, él imagina formas de limitar el acceso a estas tecnologías. Sin embargo, señala con varios argumentos que tales esfuerzos se convierten en una fracaso con rendimientos rápidamente decrecientes. Otros, como pensadores como Sam Harris, sugieren que el problema del control de la IA, es decir, ponerle límites, es necesario. Sus argumentos son siempre creativos y da innumerables ejemplos en los que se implementó la tecnología “sólo para ver qué pasaba”. Una vez más, en su mayor parte, hemos tenido suerte.
Para la biomedicina, ¿qué significa esto? Para un observador benévolo, todas las luces parecen estar en verde y debemos avanzar lo más rápido posible; producir curas para las enfermedades. Ciertamente estoy a favor de esto, si solo considera la parte positiva.
Ahora, consideremos los riesgos. A principios de 2022, apareció en Nature, un artículo llamado el Uso dual del desarrollo de fármacos impulsado por IA4 . Describió cómo una pequeña empresa farmacéutica modificó su programa de software basado en IA, uno que normalmente usan para el diseño de fármacos moleculares beneficiosos, para ver si podía producir diseños moleculares de agentes nerviosos tóxicos. Ejecutando su programa durante seis horas, produjeron aproximadamente 40 mil nuevos diseños de compuestos moleculares, algunos de los cuales son incluso más letales que el gas nervioso VX.
Si una pequeña empresa farmacéutica que consta de unos pocos doctores puede hacer esto, ¿cuáles son las perspectivas de un gran actor estatal, con intenciones malévolas? Ahora, si nos preguntamos: ¿qué medidas se toman para controlar esto? Desafortunadamente, habría un silencio absoluto. Las barreras de esta tecnología son inexistentes en su mayor parte. Hay mucho marketing sobre transparencia, divulgación y juego limpio, sin embargo, la verdad es que simplemente no lo sabemos. La mayor parte del trabajo está en el sector privado, y está cuidadosamente custodiado, o por actores estatales/militares que no lo divulgan.
6.- Cada vez son más las personas que se suman a la aplicación de Chat-GPT, algo que en este momento es una novedad a la que la gente se une por curiosidad. Sin embargo, usted advierte del peligro potencial de acercarse a ella sin saber qué hay detrás.
No. Ese no era mi punto de vista exactamente. Lo que realmente quería decir era que en el uso y consumo de tecnología, particularmente con respecto a Internet, hemos estado en una trayectoria inevitable. Durante las últimas décadas, la idea principal defendida es que Internet debe estar disponible gratuitamente para todos. Además, la información en Internet representa el conocimiento y la actividad de casi todo el mundo y de casi todos los estratos sociales. Por lo tanto, representa la inteligencia colectiva de todo el mundo.
En su mayor parte, esto ha traído un tremendo progreso al mundo. Claramente, estos beneficios no se han compartido por igual (el mundo desarrollado se ha beneficiado mucho más). No obstante, ha sido un importante factor de nivelación hacia el bienestar socioeconómico.
Sin embargo, programas como Chat-GPT (o DALL-E u otros) permiten vislumbrar el futuro, aunque por ahora son meros visos pequeños. Por supuesto que en términos de tecnología es una herramienta increíble. Representa el éxito de los modelos modernos de IA, aun teniendo en cuenta sus deficiencias, e incluso sugiere que es una buena aproximación a una “inteligencia artificial general” (al menos es “suficientemente buena” para la mayoría de las tareas y tiene el beneficio adicional de que carece de “intención”).
Ahora, aquí está mi argumento: se construye precisamente sobre la inteligencia colectiva que todos hemos aportado. Ha sido entrenado en revistas científicas, programas de computadora, arte, literatura, cultura, idiomas y casi todo lo demás. Ha sido entrenado en 50 mil millones de fuentes de información. Esa es una cifra increíble, y seguramente ha costado cientos de millones de dólares desarrollarla (Microsoft ha invertido 11 mil millones de dólares en la empresa).
Aunque la PI (propiedad intelectual) es de todos nosotros (gracias al código abierto, las redes sociales, etcétera…), el beneficio económico no se distribuirá de manera tan equitativa. Será espectacularmente desproporcionado porque la información que proporcione será un nuevo “petróleo” que solo explotarán las empresas grandes de tecnologías y otras jugadores más grandes.
Si bien la productividad de una parte relativamente pequeña de la población aumentará drásticamente, tiene el potencial de desplazar a muchos otros. Estas tecnologías disruptivas alterarán el status quo actual, pero también crearán nuevas oportunidades. Así como la economía es un diferenciador, sospecho que tecnologías como Chat-GPT crearán nuevos “ricos” y “pobres”. Habrá personas que podrán aprovechar esta tecnología, mientras que otras se encontrarán mucho peor y con una mayor desventaja. Y todo esto sin siquiera considerar los sistemas que se desarrollarán similares a Chat-GPT que permiten un mal uso.
7.- ¿Sería exagerado afirmar que en un futuro una “máquina” llegue a diagnosticar o tratar a una persona sin que el facultativo sepa por qué ha adoptado determinadas decisiones?
No, no es una exageración, pero esto necesita ser aclarado también. Los algoritmos de IA (lo que llamamos IA estrecha) ya están proporcionando información para ayudar a un médico a hacer un diagnóstico final (incluso con el reconocimiento de tumores dentro de resonancias magnéticas o cualquier otro ejemplo similar). Cada día, estos algoritmos están mejorando. Por el momento, el médico experto todavía está informado y siempre permanecerá informado en el futuro previsible. Sin embargo, dichos sistemas de IA pueden proporcionar predicciones más confiables para ayudar e influir en esta toma de decisiones. El camino hacia un diagnóstico es información explicable; lo que significa que debe haber suficiente evidencia que apunte hacia una decisión.
Además de proporcionar predicciones precisas, un sistema que ofrezca un diagnóstico final de un paciente necesitaría otras dos características: ser explicado y confianza. Estos son dos campos activos en IA que se están desarrollando rápidamente.
Visita nuestras redes sociales