La IA promete ayudar a fabricar medicamentos que salvan vidas

admin

La inteligencia artificial (IA) está alterando fundamentalmente la forma en que interactuamos y experimentamos el mundo, desde chatbots impulsados ​​por IA como ChatGPT y arte generado por IA como DALL-E hasta las finanzas, la lingüística y la gobernanza. ¿Pero es la IA un superhéroe o un supervillano? ¿La IA corromperá el corazón humano como el “un anillo para gobernarlos a todos” en JRR Tolkien? señor de los Anillos ¿Trilogía o podrá la humanidad dominar su propia creación?

En este artículo me centro en una aplicación en la que la IA puede usarse para bien o para mal: el descubrimiento de fármacos. Hablaré del éxito innovador de AlphaFold de DeepMind, que puso en marcha el descubrimiento de fármacos con IA, el posible lado oscuro de la IA para el descubrimiento de fármacos y cómo podríamos abordar el dilema ético que nos presentan las tecnologías de descubrimiento de fármacos con IA.

Actualmente, desarrollar un fármaco que sea seguro y eficaz lleva entre 11 y 16 años y cuesta entre 1 y 2 mil millones de dólares.1 pero la IA promete reducir drásticamente tanto el tiempo como el costo de fabricar medicamentos que salvan vidas. Una de las razones por las que la IA es tan prometedora en el descubrimiento de fármacos es que puede ayudar a automatizar el proceso de enumerar los 1060(ese asombroso número es un 1 seguido de 60 ceros) compuestos de moléculas pequeñas que existen, de los cuales sólo una pequeña fracción ha sido explorada para comprender sus propiedades medicinales. Una capacidad de procesamiento tan asombrosa viene con una advertencia.

En un artículo reciente publicado en Naturaleza,2 Los investigadores descubrieron que los modelos de IA utilizados para evitar compuestos químicos tóxicos al crear medicamentos pueden, con cambios mínimos, también usarse para producir compuestos tóxicos. En otras palabras, los modelos de IA destinados a hacer que las drogas sean seguras podrían, en teoría, usarse para crear armas químicas.

Cómo AlphaFold cambió el descubrimiento de fármacos
La predicción precisa de las estructuras de las proteínas es crucial para comprender cómo funcionan las proteínas, lo que a su vez puede ayudar a los científicos a diseñar nuevos medicamentos, comprender las causas subyacentes de las enfermedades y desarrollar tratamientos para una amplia gama de afecciones. En 1994, los científicos interesados ​​en el plegamiento de proteínas formaron CASP (Evaluación crítica de la predicción de la estructura de las proteínas), una competencia para predecir la estructura de proteínas no liberadas. AlphaFold es un sistema de aprendizaje automático desarrollado por DeepMind que está diseñado para predecir la estructura tridimensional de proteínas. AlphaFold sorprendió al mundo en 2018 y 2020 al superar significativamente a cualquier otro método conocido para identificar la estructura de proteínas en la competencia CASP.3

La capacidad de AlphaFold para predecir con precisión las estructuras de las proteínas es particularmente importante para el descubrimiento de fármacos porque muchos fármacos están diseñados para atacar proteínas específicas del cuerpo. Al predecir con precisión la estructura de estas proteínas, los científicos pueden diseñar más fácilmente medicamentos que se unan a la proteína objetivo e inhiban su función, lo que puede ser una forma eficaz de tratar una variedad de enfermedades. Además, la capacidad de AlphaFold para predecir con precisión la estructura de proteínas que son difíciles de estudiar experimentalmente puede ayudar a los científicos a comprender mejor las causas subyacentes de las enfermedades e identificar nuevos objetivos terapéuticos.

El jefe de ciencia de datos del Instituto de Investigación del Cáncer, el profesor Bissan Al-Lazikani, que formó parte del equipo que ganó CASP en 2000, dijo: «Si podemos aprovechar eficazmente la tecnología de DeepMind, obtendremos una comprensión mucho mejor de todos los proteínas y mutaciones que causan cáncer. Nos ayudará a diseñar y descubrir con precisión medicamentos mejores y más seguros que podrían tratar o curar con éxito a innumerables personas”.4

El lado oscuro de la IA para el descubrimiento de fármacos
El biólogo celular Fabio Urbina trabajó para Collaborations Pharmaceuticals, una empresa que se enfoca en el tratamiento de enfermedades infecciosas raras y el uso de inteligencia artificial para el descubrimiento de fármacos y la evaluación toxicológica. Cuando recibió una invitación del Laboratorio Spiez (el instituto suizo para la protección contra amenazas y peligros nucleares, biológicos y químicos) para hablar en su conferencia de “convergencia” de 2021 sobre cómo se podría abusar de las tecnologías de inteligencia artificial para el descubrimiento de fármacos, surgió la idea de hacer un mal uso. Estas tecnologías nunca se le habían ocurrido. Pero a medida que el Dr. Urbina pensaba más en ello, rápidamente se dio cuenta de que estas tecnologías podían modificarse fácilmente para dañar en lugar de ayudar.

La empresa de Urbina tenía un generador de moléculas basado en IA llamado MegaSyn que normalmente penalizaba la toxicidad y premiaba la bioactividad. Pero al otorgar toxicidad en lugar de penalizarla, Urbina pudo utilizar MegaSyn para generar 40.000 moléculas potencialmente mortales, algunas de las cuales eran conocidos agentes de guerra química. En palabras de Urbina,

“Nuestros modelos de toxicidad se crearon originalmente para evitar la toxicidad, lo que nos permite examinar mejor virtualmente las moléculas (para aplicaciones farmacéuticas y de productos de consumo) antes de confirmar finalmente su toxicidad mediante pruebas in vitro. Sin embargo, siempre ha sido cierto lo contrario: cuanto mejor podamos predecir la toxicidad, mejor podremos dirigir nuestro modelo generativo para diseñar nuevas moléculas en una región del espacio químico poblada por moléculas predominantemente letales”.5

Prevenir el abuso de la IA
Urbina sugiere varias medidas de seguridad para prevenir el abuso de las tecnologías de IA para el descubrimiento de fármacos y señala específicamente las Directrices Éticas de La Haya.6 y medidas de seguridad implementadas por tecnologías de chatbots de IA como GPT (consulte este artículo para obtener una explicación y un examen de las implicaciones éticas de los chatbots impulsados ​​por IA como LaMBDA de Google). Sus sugerencias incluyen las siguientes:

Barcos vikingos, IA y el corazón humano
¿Qué es más aterrador: un drakkar escandinavo o un modelo de descubrimiento de fármacos mediante IA? Eso depende. Si el drakkar transporta una horda vikinga furiosa decidida a destruir una aldea pacífica, eso da bastante miedo. Por otro lado, si el modelo de descubrimiento de fármacos de IA se utiliza para crear una neurotoxina mortal, eso también es aterrador. Sin embargo, cualquiera de las tecnologías también podría usarse para propósitos mucho menos nefastos, como transportar mercancías costa abajo para comerciar o crear medicamentos para el tratamiento del cáncer que salven vidas. El uso de una tecnología para el bien o para el mal depende en última instancia de los humanos que la utilizan.

La inteligencia artificial, como Internet o los teléfonos inteligentes, alterará significativamente la forma en que los humanos trabajan, aprenden e interactúan. La adopción generalizada traerá consecuencias no deseadas y la necesidad de pensar de manera ética y creativa sobre cómo integrar y adaptar la IA en la vida cotidiana para prevenir injusticias y daños a los humanos. Y puede haber usos específicos de la IA que sería mejor no abordar debido a la inevitabilidad del mal uso.

Pero la raíz del problema no es la inteligencia artificial: es el corazón humano. Son los humanos quienes hacen mal uso de la tecnología para dañar, extorsionar y lucrar con otros humanos. Como cristianos, estamos llamados a ser sal para el mundo amando tanto a Dios como a nuestros semejantes, así que lideremos el camino creando tecnología que honre a las personas que la usan y apoyando tecnologías que beneficien a la sociedad en su conjunto. Utilicemos la IA para el bien y protejamos a los desvalidos de aquellos que abusarían de ellos o los extorsionarían a través de la tecnología.

Notas finales

Deja un comentario