banner
Centro de Noticias
Amplia experiencia en ventas y producción.

Por qué la inteligencia artificial necesita entender las consecuencias

Sep 13, 2023

Neil Savage es un escritor independiente en Lowell, Massachusetts.

También puede buscar este autor en PubMed Google Scholar

Crédito: Neil Webb

Tiene acceso completo a este artículo a través de su institución.

Cuando Rohit Bhattacharya comenzó su doctorado en informática, su objetivo era crear una herramienta que pudiera ayudar a los médicos a identificar a las personas con cáncer que responderían bien a la inmunoterapia. Esta forma de tratamiento ayuda al sistema inmunitario del cuerpo a combatir los tumores y funciona mejor contra los crecimientos malignos que producen proteínas a las que se pueden unir las células inmunitarias. La idea de Bhattacharya era crear redes neuronales que pudieran perfilar la genética tanto del tumor como del sistema inmunitario de una persona, y luego predecir qué personas probablemente se beneficiarían del tratamiento.

Pero descubrió que sus algoritmos no estaban a la altura. Podía identificar patrones de genes que se correlacionaban con la respuesta inmunitaria, pero eso no era suficiente1. "No podría decir que este patrón específico de unión, o esta expresión específica de genes, sea un determinante causal en la respuesta del paciente a la inmunoterapia", explica.

Parte de Nature Outlook: Robótica e inteligencia artificial

Bhattacharya se vio obstaculizado por el viejo dicho de que la correlación no es igual a la causalidad, un obstáculo fundamental en la inteligencia artificial (IA). Las computadoras pueden ser entrenadas para detectar patrones en los datos, incluso patrones que son tan sutiles que los humanos podrían pasarlos por alto. Y las computadoras pueden usar esos patrones para hacer predicciones, por ejemplo, que una mancha en una radiografía de pulmón indica un tumor2. Pero cuando se trata de causa y efecto, las máquinas suelen estar perdidas. Carecen de una comprensión de sentido común de cómo funciona el mundo que la gente tiene simplemente por vivir en él. Los programas de IA entrenados para detectar enfermedades en una radiografía de pulmón, por ejemplo, a veces se han equivocado al centrarse en las marcas utilizadas para etiquetar el lado derecho de la imagen3. Es obvio, al menos para una persona, que no existe una relación causal entre el estilo y la ubicación de la letra 'R' en una radiografía y los signos de enfermedad pulmonar. Pero sin esa comprensión, cualquier diferencia en cómo se dibujan o colocan dichas marcas podría ser suficiente para conducir una máquina por el camino equivocado.

Para que las computadoras realicen cualquier tipo de toma de decisiones, necesitarán una comprensión de la causalidad, dice Murat Kocaoglu, ingeniero eléctrico de la Universidad de Purdue en West Lafayette, Indiana. "Cualquier cosa más allá de la predicción requiere algún tipo de comprensión causal", dice. "Si quieres planificar algo, si quieres encontrar la mejor política, necesitas algún tipo de módulo de razonamiento causal".

La incorporación de modelos de causa y efecto en los algoritmos de aprendizaje automático también podría ayudar a las máquinas autónomas móviles a tomar decisiones sobre cómo navegan por el mundo. "Si eres un robot, quieres saber qué sucederá cuando des un paso aquí con este ángulo o ese ángulo, o si empujas un objeto", dice Kocaoglu.

En el caso de Bhattacharya, era posible que algunos de los genes que destacaba el sistema fueran los responsables de una mejor respuesta al tratamiento. Pero la falta de comprensión de la causalidad significaba que también era posible que el tratamiento estuviera afectando la expresión génica, o que otro factor oculto estuviera influyendo en ambos. La posible solución a este problema radica en algo conocido como inferencia causal, una forma matemática formal de determinar si una variable afecta a otra.

El científico informático Rohit Bhattacharya (atrás) y su equipo en Williams College en Williamstown, Massachusetts, analizan la adaptación del aprendizaje automático para la inferencia causal. Crédito: Mark Hopkins

La inferencia causal ha sido utilizada durante mucho tiempo por economistas y epidemiólogos para probar sus ideas sobre la causalidad. El premio Nobel de Ciencias Económicas de 2021 fue para tres investigadores que utilizaron la inferencia causal para hacer preguntas como si un salario mínimo más alto conduce a un menor empleo o qué efecto tiene un año adicional de educación en los ingresos futuros. Ahora, Bhattacharya se encuentra entre un número creciente de científicos informáticos que están trabajando para fusionar la causalidad con la IA para brindar a las máquinas la capacidad de abordar tales preguntas, ayudándolas a tomar mejores decisiones, aprender de manera más eficiente y adaptarse al cambio.

Una noción de causa y efecto ayuda a guiar a los humanos por el mundo. "Tener un modelo causal del mundo, incluso uno imperfecto, porque eso es lo que tenemos, nos permite tomar decisiones y predicciones más sólidas", dice Yoshua Bengio, científico informático que dirige Mila, el Instituto de Inteligencia Artificial de Quebec, una colaboración entre cuatro universidades en Montreal, Canadá. La comprensión de la causalidad por parte de los humanos respalda atributos como la imaginación y el arrepentimiento; dar a las computadoras una habilidad similar podría transformar sus capacidades.

Los éxitos principales de la IA durante la última década, como ganar contra personas en varios juegos competitivos, identificar el contenido de las imágenes y, en los últimos años, generar texto e imágenes en respuesta a indicaciones escritas, han sido impulsados ​​​​por el aprendizaje profundo. Al estudiar montones de datos, estos sistemas aprenden cómo se correlaciona una cosa con otra. Estas asociaciones aprendidas pueden entonces ponerse en uso. Pero este es solo el primer peldaño en la escalera hacia un objetivo más elevado: algo a lo que Judea Pearl, científica informática y directora del Laboratorio de Sistemas Cognitivos de la Universidad de California, Los Ángeles, se refiere como "comprensión profunda".

En 2011, Pearl ganó el premio AM Turing, a menudo conocido como el premio Nobel de informática, por su trabajo en el desarrollo de un cálculo que permite el razonamiento probabilístico y causal. Describe una jerarquía de tres niveles de razonamiento4. El nivel base es 'ver', o la habilidad de hacer asociaciones entre cosas. Los sistemas de inteligencia artificial actuales son extremadamente buenos en esto. Pearl se refiere al siguiente nivel como 'hacer': hacer un cambio en algo y notar lo que sucede. Aquí es donde entra en juego la causalidad.

Una computadora puede desarrollar un modelo causal examinando intervenciones: cómo los cambios en una variable afectan a otra. En lugar de crear un modelo estadístico de la relación entre variables, como en la IA actual, la computadora crea muchos. En cada uno se mantiene la relación entre las variables, pero se alteran los valores de una o varias de las variables. Esa alteración podría conducir a un nuevo resultado. Todo esto se puede evaluar utilizando las matemáticas de probabilidad y estadística. "La forma en que lo pienso es que la inferencia causal se trata solo de matematizar cómo los humanos toman decisiones", dice Bhattacharya.

Yoshua Bengio (al frente) dirige Mila – Instituto de Inteligencia Artificial de Quebec en Montreal, Canadá. Crédito: Mila-Quebec AI Institute

Bengio, quien ganó el Premio AM Turing en 2018 por su trabajo en aprendizaje profundo, y sus estudiantes entrenaron una red neuronal para generar gráficos causales5, una forma de representar relaciones causales. En su forma más simple, si una variable causa otra variable, se puede mostrar con una flecha que va de una a la otra. Si se invierte la dirección de la causalidad, también se invierte la flecha. Y si los dos no están relacionados, no habrá ninguna flecha que los una. La red neuronal de Bengio está diseñada para generar aleatoriamente uno de estos gráficos y luego verificar qué tan compatible es con un conjunto de datos dado. Los gráficos que se ajustan mejor a los datos tienen más probabilidades de ser precisos, por lo que la red neuronal aprende a generar más gráficos similares a esos, buscando uno que se ajuste mejor a los datos.

Este enfoque es similar a cómo las personas resuelven algo: las personas generan posibles relaciones causales y asumen que las que mejor se ajustan a una observación son las más cercanas a la verdad. Ver un vaso romperse cuando se deja caer sobre el concreto, por ejemplo, puede llevar a una persona a pensar que el impacto en una superficie dura hace que el vidrio se rompa. Dejar caer otros objetos sobre el concreto, o golpear un vaso sobre una alfombra suave, desde una variedad de alturas, le permite a una persona refinar su modelo de relación y predecir mejor el resultado de fumbles futuros.

Un beneficio clave del razonamiento causal es que podría hacer que la IA sea más capaz de lidiar con circunstancias cambiantes. Los sistemas de IA existentes que basan sus predicciones solo en asociaciones en los datos son muy vulnerables a cualquier cambio en la forma en que se relacionan esas variables. Cuando cambia la distribución estadística de las relaciones aprendidas, ya sea debido al paso del tiempo, las acciones humanas u otro factor externo, la IA se volverá menos precisa.

Suscríbase al boletín de Nature sobre robótica e IA

Por ejemplo, Bengio podría entrenar un automóvil autónomo en sus carreteras locales en Montreal, y la IA podría volverse buena para operar el vehículo de manera segura. Pero exportar ese mismo sistema a Londres, y se rompería de inmediato por una simple razón: los automóviles se conducen por la derecha en Canadá y por la izquierda en el Reino Unido, por lo que algunas de las relaciones que la IA había aprendido serían al revés. Podría volver a entrenar la IA desde cero utilizando datos de Londres, pero eso llevaría tiempo y significaría que el software ya no funcionaría en Montreal, porque su nuevo modelo reemplazaría al anterior.

Un modelo causal, por otro lado, permite que el sistema aprenda sobre muchas relaciones posibles. "En lugar de tener solo un conjunto de relaciones entre todas las cosas que puedes observar, tienes un número infinito", dice Bengio. "Tienes un modelo que da cuenta de lo que podría suceder con cualquier cambio en una de las variables del entorno".

Los humanos operan con un modelo causal de este tipo y, por lo tanto, pueden adaptarse rápidamente a los cambios. Un conductor canadiense podría volar a Londres y, después de tomarse unos momentos para adaptarse, podría conducir perfectamente por el lado izquierdo de la carretera. El Código de Carreteras del Reino Unido significa que, a diferencia de Canadá, los giros a la derecha implican cruzar el tráfico, pero no tiene ningún efecto sobre lo que sucede cuando el conductor gira el volante o cómo interactúan los neumáticos con la carretera. "Todo lo que sabemos sobre el mundo es esencialmente lo mismo", dice Bengio. El modelado causal permite que un sistema identifique los efectos de una intervención y los tenga en cuenta en su comprensión existente del mundo, en lugar de tener que volver a aprender todo desde cero.

Judea Pearl, directora del Laboratorio de Sistemas Cognitivos de la Universidad de California, Los Ángeles, ganó el Premio AM Turing 2011. Crédito: Escuela de Ingeniería Samueli de la UCLA

Esta capacidad de lidiar con los cambios sin descartar todo lo que sabemos también permite a los humanos dar sentido a situaciones que no son reales, como las películas de fantasía. “Nuestro cerebro es capaz de proyectarnos a nosotros mismos en un entorno inventado en el que algunas cosas han cambiado”, dice Bengio. "Las leyes de la física son diferentes, o hay monstruos, pero el resto es igual".

La capacidad de imaginación está en la cima de la jerarquía de razonamiento causal de Pearl. La clave aquí, dice Bhattacharya, es especular sobre los resultados de las acciones que no se toman.

A Bhattacharya le gusta explicar estos contrafactuales a sus alumnos leyéndolos 'El camino no tomado' de Robert Frost. En este poema, el narrador habla de tener que elegir entre dos caminos a través del bosque y lamenta no poder saber a dónde conduce el otro camino. "Se imagina cómo sería su vida si camina por un camino en lugar de otro", dice Bhattacharya. Eso es lo que a los informáticos les gustaría replicar con máquinas capaces de hacer inferencias causales: la capacidad de hacer preguntas del tipo "qué pasaría si".

Imaginar si un resultado hubiera sido mejor o peor si hubiéramos tomado una acción diferente es una forma importante en que los humanos aprenden. Bhattacharya dice que sería útil dotar a la IA de una capacidad similar para lo que se conoce como "arrepentimiento contrafáctico". La máquina podría ejecutar escenarios sobre la base de elecciones que no hizo y cuantificar si hubiera sido mejor hacer una diferente. Algunos científicos ya han utilizado el arrepentimiento contrafáctico para ayudar a una computadora a mejorar su forma de jugar al póquer6.

La capacidad de imaginar diferentes escenarios también podría ayudar a superar algunas de las limitaciones de la IA existente, como la dificultad de reaccionar ante eventos raros. Por definición, dice Bengio, los eventos raros aparecen escasamente, si es que aparecen, en los datos con los que se entrena un sistema, por lo que la IA no puede aprender sobre ellos. Una persona que conduce un automóvil puede imaginar un suceso que nunca ha visto, como un pequeño avión que aterriza en la carretera, y usar su comprensión de cómo funcionan las cosas para idear posibles estrategias para hacer frente a esa eventualidad específica. Sin embargo, un automóvil autónomo sin la capacidad de razonamiento causal podría, en el mejor de los casos, dar una respuesta genérica para un objeto en la carretera. Mediante el uso de contrafactuales para aprender reglas sobre cómo funcionan las cosas, los automóviles podrían estar mejor preparados para eventos raros. Trabajar a partir de reglas causales en lugar de una lista de ejemplos anteriores, en última instancia, hace que el sistema sea más versátil.

Usar la causalidad para programar la imaginación en una computadora podría incluso conducir a la creación de un científico automatizado. Durante una cumbre en línea de 2021 patrocinada por Microsoft Research, Pearl sugirió que dicho sistema podría generar una hipótesis, elegir la mejor observación para probar esa hipótesis y luego decidir qué experimento proporcionaría esa observación.

En este momento, sin embargo, esto sigue estando lejos. La teoría y las matemáticas básicas de la inferencia causal están bien establecidas, pero los métodos para que la IA realice intervenciones y contrafácticos aún se encuentran en una etapa temprana. "Esta sigue siendo una investigación muy fundamental", dice Bengio. "Estamos en la etapa de descifrar los algoritmos de una manera muy básica". Una vez que los investigadores hayan comprendido estos fundamentos, será necesario optimizar los algoritmos para que funcionen de manera eficiente. No se sabe cuánto tiempo llevará todo esto. "Siento que tenemos todas las herramientas conceptuales para resolver este problema y es solo cuestión de unos pocos años, pero por lo general toma más tiempo de lo que esperas", dice Bengio. "Podría tomar décadas en su lugar".

Más de Nature Outlooks

Bhattacharya cree que los investigadores deberían seguir el ejemplo del aprendizaje automático, cuya rápida proliferación se debió en parte a que los programadores desarrollaron software de código abierto que brinda a otros acceso a las herramientas básicas para escribir algoritmos. Las herramientas equivalentes para la inferencia causal podrían tener un efecto similar. "Ha habido muchos desarrollos emocionantes en los últimos años", dice Bhattacharya, incluidos algunos paquetes de código abierto del gigante tecnológico Microsoft y de la Universidad Carnegie Mellon en Pittsburgh, Pensilvania. Él y sus colegas también desarrollaron un módulo causal de código abierto al que llaman Ananke. Pero estos paquetes de software siguen siendo un trabajo en progreso.

A Bhattacharya también le gustaría que se introdujera el concepto de inferencia causal en las primeras etapas de la educación informática. En este momento, dice, el tema se enseña principalmente a nivel de posgrado, mientras que el aprendizaje automático es común en la formación de pregrado. "El razonamiento causal es lo suficientemente fundamental como para que espero verlo introducido de alguna forma simplificada también en la escuela secundaria", dice.

Si estos investigadores logran incorporar la causalidad en la informática, podría llevar la IA a un nivel completamente nuevo de sofisticación. Los robots podrían navegar por el mundo más fácilmente. Los coches autónomos podrían volverse más fiables. Los programas para evaluar la actividad de los genes podrían conducir a una nueva comprensión de los mecanismos biológicos, lo que a su vez podría permitir el desarrollo de nuevos y mejores fármacos. "Eso podría transformar la medicina", dice Bengio.

Incluso algo como ChatGPT, el popular generador de lenguaje natural que produce texto que se lee como si hubiera sido escrito por un humano, podría beneficiarse de la incorporación de la causalidad. En este momento, el algoritmo se traiciona a sí mismo al producir una prosa claramente escrita que se contradice y va en contra de lo que sabemos que es verdad sobre el mundo. Con la causalidad, ChatGPT podría construir un plan coherente para lo que estaba tratando de decir y asegurarse de que fuera consistente con los hechos tal como los conocemos.

Cuando se le preguntó si eso dejaría fuera del negocio a los escritores, Bengio dice que eso podría tomar algún tiempo. “Pero qué tal si pierdes tu trabajo en diez años, pero te salvas del cáncer y el Alzheimer”, dice. "Es un buen trato."

doi: https://doi.org/10.1038/d41586-023-00577-1

Este artículo es parte de Nature Outlook: Robótica e inteligencia artificial, un suplemento editorialmente independiente producido con el apoyo financiero de terceros. Sobre este contenido.

Shao, X. M. et al. Cancer Immunol. Res. 8, 396–408 (2020).

Artículo PubMed Google Académico

Chiu, H.-Y., Chao, H.-S. y Chen, Y.-M. Cánceres 14, 1370 (2022).

Artículo PubMed Google Académico

DeGrave, AJ, Janizek, JD y Lee, S.-I. Naturaleza Mach. Intel. 3, 610–619 (2021).

Artículo Google Académico

Perla, J. Commun. ACM 62, 54–60 (2019).

Artículo Google Académico

Deleu, T. et al. Preprint at https://archiv.org/abs/2202.13903 (2022).

Brown, N., Lerer, A., Gross, S. & Sandholm, T. Preprint en https://arxiv.org/abs/1811.00164 (2019).

Descargar referencias

Abandonado: el costo humano del fracaso de la neurotecnología

Robots bioinspirados caminan, nadan, se deslizan y vuelan

Aprendiendo durante toda la vida

Enseñando a los robots a tocar

Irrumpiendo en la caja negra de la inteligencia artificial

Robots médicos en miniatura salen de la ciencia ficción

ChatGPT: pautas estándar de informes para un uso responsable

Correspondencia 06 JUN 23

Seis consejos para codificar mejor con ChatGPT

Característica tecnológica 05 JUN 23

El aprendizaje por transferencia permite predicciones en biología de redes

Artículo 31 23 DE MAYO

Seis consejos para codificar mejor con ChatGPT

Característica tecnológica 05 JUN 23

Hacia el aprendizaje automático cuántico

Foco 24 MAYO 23

Ordenadores cuánticos: ¿para qué sirven?

Foco 24 MAYO 23

Seis consejos para codificar mejor con ChatGPT

Característica tecnológica 05 JUN 23

Reescribiendo el modelo de la computadora cuántica

Perspectiva 24 MAYO 23

Comercialización de computadoras cuánticas paso a paso

Perspectiva 24 MAYO 23

Basado en los esfuerzos conjuntos de todo el personal y los estudiantes, así como el apoyo sustancial de todos los sectores de la sociedad.

Beijing, China

Facultad de Ciencias del Agua, Universidad Normal de Beijing

La Agencia de Sanidad Animal y Vegetal (APHA) es una agencia ejecutiva del Departamento de Medio Ambiente, Alimentación y Asuntos Rurales, y trabaja en nombre de la S

Addlestone, Surrey

Agencia de Sanidad Animal y Vegetal

Una organización de investigación interdisciplinaria donde la ciencia y la tecnología de vanguardia impulsan el descubrimiento de Insights impactantes

Nueva área de Pudong, Shanghái

Instituto BeiGene

Ubicada en la parte este de Nanjing, la Universidad Forestal de Nanjing es una universidad integral.

Nanjing, Jiangsu (CN)

Universidad Forestal de Nanjing (NFU)

Representante de DMPK/PD en equipos de expertos multifuncionales para la evaluación de nuevas entidades químicas

Cantón, Guangdong, China

BeiGene Ltd.