
Premio Nobel de Física 2024 reconoce avances en aprendizaje automático que fundamentan la Inteligencia Artificial moderna.
La Real Academia Sueca de Ciencias ha otorgado el Premio Nobel de Física 2024 a los científicos John Hopfield, originario de Chicago, Estados Unidos, y Geoffrey Hinton, del Reino Unido, por sus contribuciones fundamentales al desarrollo del aprendizaje automático, una herramienta considerada clave para la Inteligencia Artificial (IA) en la actualidad. John Hopfield, nacido en 1933, lleva a cabo su investigación en la Universidad de Princeton, en Estados Unidos, mientras que Geoffrey Hinton, que comenzó su carrera en Londres en 1947, es investigador en Toronto, Canadá.
Al presentar a los laureados, el comité destacó que “aunque las computadoras no pueden pensar, las máquinas ahora imitan funciones de memoria”. Los galardonados de este año han sido reconocidos por su trabajo que ha permitido que esto sea posible. Utilizando principios de la física, ambos científicos lograron avances que sentaron las bases de las redes neuronales artificiales, una estructura computacional inspirada en el funcionamiento del cerebro humano. Este hallazgo no solo transformó la manera en que se procesan y almacenan los datos, sino que también fue fundamental para el desarrollo de la inteligencia artificial moderna, especialmente en el ámbito del aprendizaje profundo.
El trabajo de Hopfield en Princeton y de Hinton en Toronto está profundamente relacionado con conceptos de física y biología. Aunque hoy en día asociamos los algoritmos con la inteligencia artificial, los primeros pasos hacia su creación surgieron del deseo de entender cómo el ser humano procesa la información. Hopfield, un físico teórico, desempeñó un papel decisivo al aplicar principios de la física a la neurociencia para explicar cómo se puede almacenar y recuperar información.
En 1982, Hopfield desarrolló un modelo de red neuronal que permite reconocer patrones y recuperarlos incluso cuando estos están incompletos o alterados. Este concepto, conocido como memoria asociativa, imita la capacidad humana de recordar, como cuando se busca una palabra que está en la punta de la lengua, procesando otras cercanas en significado hasta encontrar la correcta. Para ello, aplicó conocimientos que rigen los sistemas de espín atómico a su red. La propiedad de las partículas subatómicas que genera un campo magnético fue la inspiración para diseñar un sistema de neuronas, donde los nodos se conectan entre sí con diferentes intensidades, similar a cómo los átomos de un material magnético influyen en las direcciones de los espines de sus vecinos.
Este enfoque permitió asociar y reconstruir información de manera eficiente, lo que marcó el inicio de una nueva era en la computación. La red representa un avance significativo porque es capaz de procesar múltiples patrones simultáneamente. Cuando se le presenta un patrón incompleto, la red puede reconstruirlo basándose en el más cercano que ya ha memorizado. Este proceso se asemeja a dejar caer una bola en un paisaje de picos y valles: si se deja caer cerca de un valle (patrón), rodará hacia el fondo, donde encontrará el patrón más cercano.
En términos técnicos, el programa asigna valores binarios a cada nodo en una imagen en blanco y negro (0 para negro y 1 para blanco). Luego, utiliza una fórmula de energía para ajustar las conexiones, lo que permite reducir el total de energía hasta alcanzar un estado estable que ha recreado la imagen original. Este enfoque demostró ser escalable, ya que podía diferenciar imágenes, abriendo la puerta al almacenamiento distribuido que más tarde inspiraría el desarrollo de la inteligencia artificial.
Mientras desarrollaba su red, Hopfield exploraba cómo estas redes podrían aprender a procesar información de manera similar a los humanos, encontrando sus propias categorías sin necesidad de instrucciones explícitas. Fue un pionero en el uso de métodos estadísticos para descubrir estructuras en grandes cantidades de datos. Este enfoque se asemeja a cómo se comportan muchos elementos similares, como las moléculas de un gas, cuyos estados individuales son impredecibles, pero que, al ser analizados colectivamente, pueden determinar propiedades como la presión y la temperatura.
Hopfield aprovechó esta idea para diseñar un sistema que pudiera analizar la probabilidad de que un conjunto específico de datos ocurriera, basándose en un conjunto de ecuaciones. Utilizó la ecuación de Ludwig para calcular configuraciones dentro de su red, que tiene dos tipos de nodos: visibles y ocultos. Los nodos visibles reciben la información inicial, mientras que los nodos ocultos generan información a partir de esa entrada, ajustando ejemplos entrenados para que tengan la mayor probabilidad posible de ocurrir. De esta manera, la red aprende a reconocer ejemplos nuevos que no ha visto previamente.
El trabajo de Hopfield y Hinton ha revitalizado el interés en las redes neuronales y ha abierto una nueva rama de la inteligencia artificial que hoy impulsa gran parte de las innovaciones tecnológicas, desde asistentes virtuales hasta vehículos autónomos. Los modelos profundos, que son redes con muchas capas, deben su existencia a los primeros desarrollos en inteligencia artificial. En la actualidad, estas herramientas son capaces de identificar patrones complejos en imágenes y sonidos, mejorando la toma de decisiones en sectores que van desde la medicina hasta la astrofísica.
Geoffrey Hinton también fue galardonado en 2013 por su trabajo relacionado con la partícula de Higgs. Además, sus investigaciones han permitido la detección de ondas gravitacionales, otro hito científico reciente. Gracias a estos descubrimientos, la inteligencia artificial sigue evolucionando a un ritmo vertiginoso, con aplicaciones en la predicción de estructuras moleculares y en la mejora de materiales para células solares más eficientes.