Entrevista ao Dr. David Olivieri
David Olivieri é doutor en Física pola Universidade de Massachussets e o Fermi National Accelerator Lab (EE.UU.) e profesor titular no departamento de Informática da Universidade de Vigo. O pasado 26 de xaneiro, visitounos no Instituto de Investigación Sanitaria Galicia Sur para compartir connosco a súa ampla experiencia nun dos temas que hoxe en día causa maior interese: o uso da Intelixencia Artificial na investigación bioquímica. Baixo o título de: Uso de Machine Learning e IA en Problemas Biomédicos: Pasado, presente, futuro próximo, Olivieri realizou un repaso aos avances no últimos quince anos neste ámbito, remontándose ao que él denomina “a prehistoria da IA”, deixando pinceladas do que será o futuro no emprego da IA na biomedicina. Un futuro que, advírtenos, pode ser sorprendente.
1.- Hai máis de dez anos que vostede colabora coa investigación mediante os seus coñecementos informáticos e o deseño de algoritmos optimizados. Hoxe en día, faio co apoio da Intelixencia Artificial e cando bota a vista atrás (a tan só dez ou quince anos vista), refírese a eses momentos coma se falase da prehistoria en comparación coa actualidade, non é así?
Si, creo que en certa maneira isto non é unha esaxeración. Por suposto, hai algunhas constantes na metodoloxía utilizada e as matemáticas/técnicas subxacentes, que son bastante similares, pero houbo un cambio radical na forma en que se resolven os problemas. Unha explicación simplificada é a seguinte: orixinalmente, a IA (Intelixencia Artificial) consistía nun conxunto de regras seleccionadas manualmente e o recoñecemento de patróns tamén era un conxunto de características concibidas manualmente. Isto evolucionou a características e regras máis abstractas, e agora, estamos nun punto onde só hai un gran modelo interconectado.
O gran cambio de paradigma é que agora non necesitamos definir estas características, é a computadora mesma a que “aprende as mellores funcións” (que a miúdo son un conxunto numérico tan grande que só a computadora pode interpretalas). Esta idea non é do todo nova. A principios da década de 2000, tales ideas concibíronse con transformacións matemáticas. Con todo, o novo é que a aprendizaxe profunda, instanciado con grandes redes neuronais artificiais, evita mesmo transformacións matemáticas tan complexas. Se se desexa atopar algo nunha imaxe, simplemente hai que introducir a imaxe completa na rede neuronal. As mellores funcións “emerxerán” a medida que a rede neuronal adáptese a máis datos de imaxe.
2.- Fagamos un pequeno repaso. En 2013 foron capaces de mapear e sacar tracks de linfocitos con técnicas informáticas e solucionaron o problema de estabilización da imaxe grazas a un algoritmo optimizado co que se podía identificar o tecido movéndose. Como foi esta experiencia?
O traballo estaba relacionado coa análise de imaxes biolóxicas, xeralmente utilizando imaxes de microscopía confocal ou microscopía de dous fotóns para imaxes in vivo. O primeiro traballo deste tipo que fixen foi en colaboración co doutor José Faro, biólogo con especialidade en inmunología da Universidade de Vigo. Para ese traballo, escribín un software personalizado para realizar o recoñecemento de patróns de centros xerminais en imaxes de microscopía confocal de ganglios linfáticos. Logo, o software podería extraer modelos tridimensionais dos centros xerminales. Isto foi un desafío porque nese momento escribimos un algoritmo personalizado que incluía varios parámetros que debían axustarse. Fixemos isto a través de iteracións sucesivas, ou un procedemento de optimización feito a man. O algoritmo funcionou bastante ben e publicamos os achados en BMC Bioinformatics. Máis tarde, utilicei un procedemento de optimización similar en moitos outros traballos, como “estabilizar” o movemento do tecido brando asociado coa microscopía in vivo para que se puidese rastrexar o movemento celular. Leste foi un traballo que fixen en colaboración con grupos de Alemaña e Portugal. Varios destes traballos publicáronse en Plos Pathogens, así como no American Journal of Reproductive Immunology.
O que quero dicir con optimización neste contexto é que, desta forma, atópanse de maneira iterativa os mellores “parámetros libres” que resolven o problema de descubrir un patrón; é dicir, tentar axustar os parámetros cara ao seu obxectivo. Este é un tema común incluso agora. A palabra “Aprender” para un algoritmo de IA (calquera forma de IA, xa sexa IA superficial ou IA profunda cunha rede neuronal) significa que está a tratar de atopar os parámetros do modelo interno que mellor se axusten aos datos presentados, de modo que este modelo poida ser preditivo. É dicir, se só teño o modelo, pode predicir baseándose en nova información ou predicir un resultado futuro.
Con todo, a experiencia neses anos foi interesante e cos seus propios desafíos. Por exemplo, había unha gran cantidade de técnicas “aparentemente” separadas. De feito, parecía un popurrí de técnicas “desconectadas” que se orixinaban en campos separados, como a estatística, a informática e mesmo a física. Por exemplo, houbo persoas que traballaron en SVM (algoritmo de aprendizaxe supervisada), outras, en árbores de decisión e outras que traballaron nas primeiras formas de redes neuronais. Os que traballaban con SVM de cando en cando falaban cos que traballaban en árbores de decisión e cada grupo sentiu que o seu método seleccionado funcionou mellor. A medida que o campo madurou, do mesmo xeito que en moitos campos científicos, démonos conta de que había conexións profundas entre todas estas técnicas. O que xurdiu foi un concepto máis unificado de aprendizaxe automática dentro dun esforzo moito máis grande, a intelixencia artificial. Entón, o que sucedeu foi que moitas partes diferentes do campo uníronse, e creo que o que sucedeu nos últimos anos é agora unha unificación de tódoslos subcampos da IA. Unha especie de “gran IA unificada”, roubando o termo da analoxía da física (“Gran Teoría Unificada”).
3.- En 2020, e tras os seus traballos en torno ao SARS-CoVid 2, o seu equipo posúe experiencia en buscar biomarcadores en enfermidades raras. Como foi este avance?
Ben, estaba a empezar a traballar nalgunhas cousas relacionadas co SARS-CoVid2, pero non publiquei ese traballo. Con todo, tiña o coñecemento suficiente para seguir a literatura científica e probar algunhas das simulacións moleculares. En calquera caso, adquirira previamente algúns coñecementos en cuestións relacionadas coa bioinformática aplicada á xenómica en inmunología. En particular, tiven a sorte de contar cunha estreita colaboración durante moitos anos co doutor Francisco Gambón, do Hospital Meixoeiro en Vigo. Xuntos utilizamos unha gran colección de xenomas secuenciados recentemente de moitos taxones (superiores a 500, na árbore da vida dos vertebrados con mandíbula) para estudar o repertorio xenómico de inmunoglobulina (IG), receptores de linfocitos T (TCR) e xenes do complexo maior de histocompatibilidad (MHC).
O obxectivo deste traballo foi observar a evolución destes xenes/moléculas, xa que xogan un papel crave no Sistema Inmune Adaptativo (AIS). Este traballo requiriu desenvolver un software de aprendizaxe automática que puidese identificar segmentos “motifs” xenómicos específicos en exones viables dun xenoma. Computacionalmente, isto foi un desafío por varias razóns: a primeira delas, porque os xenomas secuenciados consistían nunha gran colección (superior a millóns) de “contigs”, aínda non ensamblados en cromosomas. A segunda, a evidencia experimental de xenes viables de IG e TCR existía só para un pequeno subconjunto de taxones, o que require unha aprendizaxe iterativa, e finalmente, porque necesitabamos confirmar moitos dos xenes con RNAseq (transcriptomas).
Con este coñecemento adquirido para analizar transcriptomas con aprendizaxe automática, comecei outra colaboración co doutor Luiz Stark, investigador do Instituto de Investigación Sanitaria do Hospital Universitario A Paz (IdiPAZ). Tiñan pequenos conxuntos de datos de transcriptoma (RNAseq e MicroRNA) asociados cunha enfermidade rara e idiopática en bebés, a atresia biliar, e querían poder identificar biomarcadores. Este foi un problema desafiante por varias razóns; principalmente, porque había moi poucas mostras para usar un modelo de DNN directamente.
Por tanto, desenvolvín un software que incorpora información adicional de bases de coñecemento biolóxico (usando STRING, KEGG e outros). Desta maneira, en comparación con outras enfermidades que comparten síntomas similares (enfermidades colestásicas), a expresión diferencial (xenes fronte a vía da enfermidade fronte a enfermidade) crea impresións dixitais únicas para cada paciente (algo así como unha etiqueta QR) que se pode introducir nunha IA, modelo (un DNN) para clasificar a un paciente nunha clase de enfermidade. O software e o método identifican con éxito biomarcadores biológicamente relevantes. Agora estamos a traballar para que os resultados sexan útiles como ferramenta de probas clínicas.
4.- Na súa conferencia afirma que: “A ciencia non avanza en instantes pequenos, se non que, de súpeto, dá un salto” e colócanos noutro escenario. Isto é o que está a pasar coa integración da Intelixencia Artificial á biomedicina?
Ben, encantaríame ser a persoa que acuñou esa frase! Con todo, débese a Thomas Khun, que en 1962 escribiu unha monografía agora famosa: A estrutura das revolucións científicas1. Khun, con brillantez e moita erudición, defendeu a idea de que a ciencia “normal” progresa gradualmente con contribucións dentro dunha escola de pensamento establecida. O verdadeiro progreso na ciencia, argumentou, só ocorre cando esta escola de pensamento abandónase por unha idea radicalmente nova. Esta é a encarnación do concepto de “cambio de paradigma”. Só entón a ciencia avanza a un salto rápido. No seu ensaio, usou exemplos da física clásica e describiu a revolución copernicana como unha desviación radical do sistema ptolemaico.
En retrospectiva, tales nocións parecen confirmarse, tanto dentro da física como en case todas as demais áreas do pensamento, algunhas con máis ou menos implicacións para a humanidade; si por algún estándar, pero sen derrocar á ciencia que a creou. Permítame proporcionar algúns exemplos antes de responder á súa pregunta, xa que creo que require algo de contexto. Así, aínda que a teoría da relatividade de Einstein representou verdadeiramente unha desviación completa do pensamento en todos os niveis, a idea dun espazo-tempo onde a velocidade da luz (“c“) é constante en todos os marcos de referencia, é unha proposta de gran alcance que significa que o espazo e o tempo non é plano, senón máis ben curvo ou dobrado; o que implica que fará calquera cousa que se lle requira só para que “c” permaneza constante. Isto pode parecer teórico, pero proporciona as ecuacións correctas necesarias para usar o GPS, pola contra, os sinais e demais estarían en constante erro.
Agora, considere outros “eventos” máis próximos á biomedicina. En bioloxía, unha plétora de descubrimentos tróuxonos ata onde estamos hoxe sendo, todos á súa maneira, cambios de paradigma, tales como: como a xenética de Mendelev, o descubrimento da dobre hélice, o descubrimento dos mecanismos moleculares de inmunidade e rexeitamento de órganos, e toda a revolución de xenómica (edición de xenes CRISPR), etcétera… . Cada un foi un cambio de paradigma por dereito propio, aínda que non derrocou todo o que seguiu, en contraste con como a teoría copernicana substituíu completamente ao sistema ptolemaico (ou como a teoría de Einstein ou teoría cuántica substituíu á anterior), con todo, a implicación foi igual de radical.
A intelixencia artificial ha pasado por un certo cambio de paradigma coas redes neuronais profundas combinado con outros dous factores: cantidades masivas de datos e capacidades computacionales máis potentes. Aínda non coñecemos todas as implicacións disto. As aplicacións de IA están a abrirse camiño na nosa vida diaria, algunhas boas, outras non tan boas. Se se combina con outras tecnoloxías transformadoras -como a computación cuántica- este período de IA podería ser formidable de feito. O impacto medido e caracterizado como un “cambio de paradigma” no pensamento humano estaría xustificado.
5.- Talvez polo feito de estar a diario en contacto con estes avances vostede móstrase cauto á hora de advertir das posibilidades da Intelixencia Artificial e dos perigos de que poida set empregada á marxe da ética. É tan serio o perigo?
Son cautelosamente optimista, con todo diría que aínda non podemos determinar o nivel de perigo. Estamos nun momento en que hai tanta información dispoñible e o cambio está a producirse a gran velocidade. Con todo, tamén debo dicir que hai moita información que NON (salienta) está dispoñible. Isto xera unha situación confusa e difícil de predicir os resultados futuros.
Moitos pensadores están a tratar de reconstruír e interpretar exactamente o que está a pasar. Destacan algunhas obras, ás que aludín ao final da presentación. A hipótese dos mundos vulnerables2 , de Nick Bostrom, destácase na miña mente. É un ensaio de 2019 que expón certos escenarios de descubrimento científico que poden clasificarse segundo o seu nivel de ameaza existencial. Baséase nunha metáfora que utilizou anteriormente3 , onde os descubrimentos tecnolóxicos (a IA incluída entre eles) é similar a extraer a cegas bólas de cores dunha urna. Mentres que nunha escala de grises unha bóla negra é un evento que termina cunha civilización, a súa afirmación é que ata o de agora tivemos sorte e só extraemos bólas grises; é dicir, tecnoloxías que son verdadeiramente devastadoras (armas nucleares, armas biolóxicas, CFC, etcétera… ) pero que son difíciles de implementar por parte de malos actores. No seu maior parte, a tecnoloxía foi moi vantaxosa para a civilización ata o de agora.
Con todo, Bostrom fai a pregunta de que pasaría se tivésemos unha tecnoloxía e sacaramos dunha urna unha bóla “negra”, que é tan destrutiva e fácil de implementar, que finalmente destrúe a civilización que a creou? Dada a simple observación de que non é posible “desaprender” algo, como se enfronta un a tal situación? Logo, el imaxina formas de limitar o acceso a estas tecnoloxías. Con todo, sinala con varios argumentos que tales esforzos convértense nunha fracaso con rendementos rapidamente decrecentes. Outros, como pensadores como Sam Harris, suxiren que o problema do control da IA, é dicir, poñerlle límites, é necesario. Os seus argumentos son sempre creativos e dá innumerables exemplos nos que se implementou a tecnoloxía “só para ver que pasaba”. Unha vez máis, no seu maior parte, tivemos sorte.
Para a biomedicina, que significa isto? Para un observador benévolo, todas as luces parecen estar en verde e debemos avanzar o máis rápido posible; producir curas para as enfermidades. Certamente estou a favor disto, se só considera a parte positiva.
Agora, consideremos os riscos. A principios de 2022, apareceu en Nature, un artigo chamado o Uso dual do desenvolvemento de fármacos impulsado por IA4 . Describiu como unha pequena empresa farmacéutica modificou o seu programa de software baseado en IA, un que normalmente usan para o deseño de fármacos moleculares beneficiosos, para ver se podía producir deseños moleculares de axentes nerviosos tóxicos. Executando o seu programa durante seis horas, produciron aproximadamente 40 mil novos deseños de compostos moleculares, algúns dos cales son mesmo máis letais que o gas nervioso VX.
Se unha pequena empresa farmacéutica que consta duns poucos doutores pode facer isto, cales son as perspectivas dun gran actor estatal con intencións malévolas? Agora, se nos preguntamos: que medidas tómanse para controlar isto? Desafortunadamente, habería un silencio absoluto. As barreiras desta tecnoloxía son inexistentes na súa maior parte. Hai moito márketing sobre transparencia, divulgación e xogo limpo. Con todo, a verdade é que simplemente non o sabemos. A maior parte do traballo está no sector privado e está coidadosamente custodiado por el ou por actores estatais/militares que non o divulgan.
6.- Cada vez son máis as persoas que se suman á aplicación de Chat-GPT, algo que neste momento é unha novidade á que a xente se une por curiosidade. Con todo, vostede advirte do perigo potencial de achegarse a ela sen saber que hai detrás.
Non. Ese non era o meu punto de vista exactamente. O que realmente quería dicir era que no uso e consumo de tecnoloxía, particularmente con respecto a Internet, estivemos nunha traxectoria inevitable. Durante as últimas décadas, a idea principal defendida é que Internet debe estar dispoñible de balde para todos. Ademais, a información na internet representa o coñecemento e a actividade de case todo o mundo e de case todos os estratos sociais. Por tanto, representa a intelixencia colectiva de todo o mundo.
No seu maior parte, isto trouxo un tremendo progreso ao mundo. Claramente, estes beneficios non se compartiron por igual (o mundo desenvolvido beneficiouse moito máis). Con todo, foi un importante factor de nivelación cara ao benestar socioeconómico.
Con todo, programas como Chat-GPT (ou DALL-E ou outros) permiten albiscar o futuro, aínda que por agora son meros visos pequenos. Por suposto que en termos de tecnoloxía é unha ferramenta incrible. Representa o éxito dos modelos modernos de IA, aínda tendo en conta as súas deficiencias, e mesmo suxire que é unha boa aproximación a unha “intelixencia artificial xeral” (polo menos é “suficientemente boa” para a maioría das tarefas e ten o beneficio adicional de que carece de “intención”).
6.- Cada vez son más las personas que se suman a la aplicación de Chat-GPT, algo que en este momento es una novedad a la que la gente se une por curiosidad. Sin embargo, usted advierte del peligro potencial de acercarse a ella sin saber qué hay detrás.
No. Ese no era mi punto de vista exactamente. Lo que realmente quería decir era que en el uso y consumo de tecnología, particularmente con respecto a Internet, hemos estado en una trayectoria inevitable. Durante las últimas décadas, la idea principal defendida es que Internet debe estar disponible gratuitamente para todos. Además, la información en Internet representa el conocimiento y la actividad de casi todo el mundo y de casi todos los estratos sociales. Por lo tanto, representa la inteligencia colectiva de todo el mundo.
En su mayor parte, esto ha traído un tremendo progreso al mundo. Claramente, estos beneficios no se han compartido por igual (el mundo desarrollado se ha beneficiado mucho más). No obstante, ha sido un importante factor de nivelación hacia el bienestar socioeconómico.
Sin embargo, programas como Chat-GPT (o DALL-E u otros) permiten vislumbrar el futuro, aunque por ahora son meros visos pequeños. Por supuesto que en términos de tecnología es una herramienta increíble. Representa el éxito de los modelos modernos de IA, aun teniendo en cuenta sus deficiencias, e incluso sugiere que es una buena aproximación a una “inteligencia artificial general” (al menos es “suficientemente buena” para la mayoría de las tareas y tiene el beneficio adicional de que carece de “intención”).
Agora, aquí está o meu argumento: constrúese precisamente sobre a intelixencia colectiva que todos achegamos. Foi adestrado en revistas científicas, programas de computadora, arte, literatura, cultura, idiomas e case todo o demais. Foi adestrado en 50 mil millóns de fontes de información. Esa é unha cifra incrible, e seguramente custou centos de millóns de dólares desenvolvela (Microsoft investiu 11 mil millóns de dólares na empresa).
Aínda que a PI (propiedade intelectual) é de todos nós (grazas ao código aberto, as redes sociais, etcétera…), o beneficio económico non se distribuirá de maneira tan equitativa. Será espectacularmente desproporcionado porque a información que proporcione será un novo “petróleo” que só explotarán as empresas grandes de tecnoloxías e outros xogadores máis grandes.
Aínda que a produtividade dunha parte relativamente pequena da poboación aumentará drasticamente, ten o potencial de desprazar a moitos outros. Estas tecnoloxías disruptivas alterarán o status quo actual, pero tamén crearán novas oportunidades. Así como a economía é un diferenciador, sospeito que tecnoloxías como Chat-GPT crearán novos “ricos” e “pobres”. Haberá persoas que poderán aproveitar esta tecnoloxía, mentres que outras se atoparán moito peor e cunha maior desvantaxe. E todo isto sen sequera considerar os sistemas que se desenvolverán similares a Chat-GPT que permiten un mal uso.
7.- Sería esaxerado afirmar que nun futuro unha “máquina” chegue a diagnosticar ou tratar a unha persoa sen que o facultativo saiba por que adoptou determinadas decisións?
Non, non é unha esaxeración, pero isto necesita ser aclarado tamén. Os algoritmos de IA (o que chamamos IA estreita) xa están a proporcionar información para axudar a un médico para facer un diagnóstico final (mesmo co recoñecemento de tumores dentro de resonancias magnéticas ou calquera outro exemplo similar). Cada día, estes algoritmos están a mellorar. Polo momento, o médico experto aínda está informado e sempre permanecerá informado no futuro previsible. Con todo, devanditos sistemas de IA poden proporcionar predicións máis confiables para axudar e influír nesta toma de decisións. O camiño cara a un diagnóstico é información explicable; o que significa que debe haber suficiente evidencia que apunte cara a unha decisión.
Ademais de proporcionar predicións precisas, un sistema que ofreza un diagnóstico final dun paciente necesitaría outras dúas características: ser explicado e confianza. Estes son dous campos activos en IA que se están desenvolvendo rapidamente.
7.- ¿Sería exagerado afirmar que en un futuro una “máquina” llegue a diagnosticar o tratar a una persona sin que el facultativo sepa por qué ha adoptado determinadas decisiones?
No, no es una exageración, pero esto necesita ser aclarado también. Los algoritmos de IA (lo que llamamos IA estrecha) ya están proporcionando información para ayudar a un médico a hacer un diagnóstico final (incluso con el reconocimiento de tumores dentro de resonancias magnéticas o cualquier otro ejemplo similar). Cada día, estos algoritmos están mejorando. Por el momento, el médico experto todavía está informado y siempre permanecerá informado en el futuro previsible. Sin embargo, dichos sistemas de IA pueden proporcionar predicciones más confiables para ayudar e influir en esta toma de decisiones. El camino hacia un diagnóstico es información explicable; lo que significa que debe haber suficiente evidencia que apunte hacia una decisión.
Además de proporcionar predicciones precisas, un sistema que ofrezca un diagnóstico final de un paciente necesitaría otras dos características: ser explicado y confianza. Estos son dos campos activos en IA que se están desarrollando rápidamente.
Visita nuestras redes sociales