Shopping cart

Magazines cover a wide array subjects, including but not limited to fashion, lifestyle, health, politics, business, Entertainment, sports, science,

  • Home
  • Ciencia
  • Cómo funcionan las redes neuronales detrás de la IA premiadas con el Nobel de Física 2024
Ciencia

Cómo funcionan las redes neuronales detrás de la IA premiadas con el Nobel de Física 2024

46

El año pasado fue el turno de la física experimental, hoy le tocó a la física teórica. Los miembros de la Real Academia Sueca de las Ciencias decidieron conceder el Premio Nobel de Física 2024 a John J. Hopfield y Geoffrey E. Hinton “por sus descubrimientos e invenciones fundamentales que hicieron posible el aprendizaje automático con redes neuronales artificiales”. Son palabras muy de moda hoy en día, sobre todo después de que los grandes modelos de lenguaje hayan llegado al gran público: prácticamente siempre y en todas partes (a veces incluso sin avisar) se cita a estas entidades como los bloques de construcción fundamentales de las herramientas de inteligencia artificial que están cambiando el mundo. Y el reconocimiento de Estocolmo no es sino una certificación más del enorme impacto de estas innovaciones, no solamente en el campo de la física y otras ciencias, sino también en la vida cotidiana de todos: “Las redes neuronales artificiales “, comentó el propio Hinton, contactado telefónicamente por el comité tras el anuncio del premio, ”tendrán consecuencias comparables a la revolución industrial. Pero no podemos excluir el riesgo de que escapen a nuestro control”. Veamos, pues, de qué se tratan.

Como un cerebro, pero sin humano

Empecemos por el principio. Si se le pide que explique qué es una red neuronal, responde más o menos así: “Una red neuronal es un modelo computacional inspirado en la estructura del cerebro humano, formado por nodos (neuronas) organizados en capas. Cada nodo procesa la información recibida de los demás y, mediante un proceso de aprendizaje, la red puede reconocer patrones y tomar decisiones. Se utiliza en campos como la inteligencia artificial para tareas complejas, como el reconocimiento de imágenes o el lenguaje natural”. Todo esto está muy bien, pero intentemos hablar un poco más de estas herramientas capaces de traducir textos de un idioma a otro, interpretar imágenes, conducir autos o apoyar conversaciones creíbles. En general (muy en general), cuando hablamos de inteligencia artificial, casi siempre nos referimos a una serie de tecnologías basadas en el llamado machine learning, o aprendizaje automático, que a su vez utiliza una estructura llamada red neuronal artificial, cuyo nombre ya remite directamente al funcionamiento de un cerebro natural. A diferencia de los algoritmos y los programas informáticos “tradicionales”, que reciben datos, los procesan mediante reglas fijas y estructuradas y finalmente producen otros en respuesta, los basados en el aprendizaje automático aprenden mediante el ejemplo y la imitación, lo que les permite abordar y resolver problemas demasiado vagos, genéricos o complicados como para estructurarlos en una lista de información. Es la diferencia, por ejemplo, entre la receta de un pastel, que implica dosis y procedimientos bien definidos, que deben ejecutarse en una secuencia precisa, y el problema de reconocer que el animal retratado en una foto es efectivamente un perro, y no un gato o un conejo: en este caso no hay indicaciones precisas, pero somos capaces de reconocer al perro porque hemos visto miles de perros, todos diferentes entre sí y referibles al arquetipo del perro. En la jerga técnica diríamos que estamos reconociendo un patrón, y eso es exactamente lo que hace una red neuronal.

La primera red neuronal artificial se presentó en un artículo académico en 1943: sus autores, el psicólogo cognitivo Walter Pitts y el experto en cibernética Warren McCulloch, mostraron cómo, en principio, era posible idear un sistema de neuronas artificiales capaces de aprender del mismo modo que los humanos. Su teoría, de hecho, sigue siendo hoy la base del aprendizaje profundo y de los algoritmos de aprendizaje automático. En resumen, los dos científicos demostraron que, a través de una serie de ensayos y errores, las conexiones entre las neuronas artificiales que conducían a la acción correcta se fortalecen, mientras que las que conducían a la acción incorrecta se debilitan. Este sistema, precisamente, no necesita ser programado con reglas fijas, sino que aprende de forma autónoma, explotando los datos que posee: es el primer modelo matemático de una red artificial, pero en aquel momento no existían ni los datos ni la potencia de cálculo para intentar ponerlo en práctica.

Exploremos esta analogía con más detalle: la red neuronal de un cerebro biológico se compone de células especiales, las neuronas, capaces de intercambiar señales a través de sinapsis: Cuando aprendemos algo, la conexión entre unas neuronas se refuerza y la de otras se debilita; del mismo modo, una red neuronal se compone de varios nodos a cada uno de los cuales se asigna un valor y, durante la fase de aprendizaje, las conexiones de los nodos activos se refuerzan y las de los nodos no activos se debilitan. Tras los trabajos de Pitts y McCullogh y otros colegas, el campo de investigación fue perdiendo interés, en parte debido a la imposibilidad tecnológica de intentar aplicar los nuevos descubrimientos: solo a finales de los años 80, gracias también a los trabajos de los galardonados de este año, volvió a discutirse con entusiasmo.

Problemas de memoria

En 1982, John Hopfield se interesó por el problema de los recuerdos asociativos, el fenómeno por el que, por ejemplo, uno recupera una palabra determinada recordando otra con un sonido similar. El científico consiguió inventar un método por el cual una máquina era capaz de memorizar diferentes patrones (un análogo de los “recuerdos”) y, al ser interrogada, recuperar el patrón más similar al que se le proponía. Tal red, que recibe el nombre de red de Hopfield, está muy próxima al concepto de memoria asociativa, y al científico, como suele ocurrir en la investigación, se le ocurrió esta idea mientras trabajaba en algo totalmente distinto, concretamente en un fenómeno relacionado con los sistemas de espín de los materiales magnéticos. Básicamente, el espín de cada átomo de estos materiales (imagínalo como una flecha apuntando hacia arriba o hacia abajo) cambia de dirección en función de cómo se comporte el espín de los átomos vecinos, lo que puede llevar a la formación de regiones enteras de átomos con igual espín: Hopfield imaginó sus neuronas artificiales como un sistema de espín en el que el comportamiento, o más bien el valor, de cada neurona influye en el de sus vecinas, y estos valores cambian hasta alcanzar un estado de equilibrio, es decir, de mínima energía. El sistema funciona: las redes de Hopfield, base de los sistemas de aprendizaje automático, consiguen “recordar” datos parcialmente borrados o cubiertos por el ruido.

Recordar es una cosa, comprender es otra

Una vez que se consigue recordar, también hay que interpretar. Y aquí es donde entra en juego el otro Premio Nobel, Geoffrey Hinton, que en la época de los trabajos de Hopfield sobre memorias asociativas trabajaba en la Universidad Carnegie Mell e investigaba posibles técnicas que permitieran a una máquina interpretar la información del mismo modo que lo hacemos los humanos. Tomó como punto de partida las redes de Hopfield, inspirándose en la física estadística y en los gases en particular. Ya muchos años antes, el gran físico Ludwig Boltzmann, padre de la mecánica estadística y la termodinámica, se había dado cuenta de que era imposible rastrear el comportamiento de cada molécula en sistemas complejos como los gases, y había desarrollado una arquitectura con la que es posible vincular las propiedades microscópicas a las macroscópicas, como la presión y la temperatura, evaluando el estado de los componentes individuales mediante métodos estadísticos, es decir, en términos probabilísticos: algunos estados, decía Boltzmann, son más probables que otros. A partir de la ecuación de Boltzmann, Hinton desarrolló en 1985 un método, denominado máquina de Boltzmann, que permitía “superponer” varias redes de Hopfield: El conjunto evolucionaba de forma similar a los gases descritos por Boltzmann, y era capaz de “aprender” y “comprender” patrones específicos, produciendo otros patrones en la salida. Este tipo de comportamiento es la base, por ejemplo, de los algoritmos que nos recomiendan una película basándose en las que ya hemos visto: la máquina de Boltzmann “entiende” nuestros gustos y evoluciona, se reorganiza, hasta un estado equivalente a una nueva película. Este es uno de los primeros modelos de inteligencia generativa, la base de los que utilizamos hoy en día. En los años siguientes, Hopfield y Hinton (y muchos otros) perfeccionaron sus métodos hasta llegar a los asombrosos resultados que están a la vista de todos: “Con estas tecnologías “, afirman desde Estocolmo, ”empieza a ser posible calcular y predecir las propiedades de moléculas y materiales, como las estructuras de las proteínas, y trabajar con nuevas versiones de materiales que podrían utilizarse en células solares más eficientes; se usan en el análisis de datos procedentes del espacio, por ejemplo de la colisión de agujeros negros o la búsqueda de exoplanetas; en medicina, para interpretar imágenes de diagnóstico; en física de partículas”. Y lo mejor está aún por llegar.

Artículo originalmente publicado en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.

source

Leave a Reply

Your email address will not be published. Required fields are marked *