John Hopfield y Geoffrey Hinton fueron pioneros en métodos computacionales que permitieron el desarrollo de redes neuronales.
Dos investigadores que desarrollaron herramientas para comprender las redes neuronales que sustentan el auge actual de la inteligencia artificial (IA) ganaron el Premio Nobel de Física 2024. John Hopfield, de la Universidad de Princeton en Nueva Jersey, y Geoffrey Hinton, de la Universidad de Toronto, Canadá, comparten el premio de 11 millones de coronas suecas (un millón de dólares estadounidenses), anunciado por la Real Academia Sueca de Ciencias en Estocolmo el 8 de octubre.
Ambos utilizaron herramientas de la física para idear métodos que impulsan las redes neuronales artificiales, que explotan estructuras en capas inspiradas en el cerebro para aprender conceptos abstractos. Sus descubrimientos “forman los componentes básicos del aprendizaje automático , que puede ayudar a los humanos a tomar decisiones más rápidas y confiables”, dijo la presidenta del comité Nobel, Ellen Moons, física de la Universidad de Karlstad, Suecia, durante el anuncio. “Las redes neuronales artificiales se han utilizado para avanzar en la investigación en temas de física tan diversos como la física de partículas, la ciencia de los materiales y la astrofísica”.
Memoria maquinal
En 1982, Hopfield, un biólogo teórico con formación en física, ideó una red que describía las conexiones entre neuronas virtuales como fuerzas físicas1. Al almacenar patrones como un estado de baja energía de la red, el sistema podía recrear el patrón cuando se le pedía algo similar. Se lo conoció como memoria asociativa, porque la forma en que «recuerda» cosas es similar a la del cerebro cuando intenta recordar una palabra o un concepto basándose en información relacionada.
Hinton, un científico informático, utilizó principios de la física estadística, que describe colectivamente sistemas que tienen demasiadas partes para rastrearlas individualmente, para desarrollar aún más la «red de Hopfield». Al incorporar probabilidades en una versión en capas de la red, creó una herramienta que podía reconocer y clasificar imágenes, o generar nuevos ejemplos del tipo con el que se había entrenado.
Estos procesos se diferenciaban de los métodos computacionales anteriores en que las redes podían aprender de ejemplos, incluso de datos complejos, algo que habría resultado complicado para el software convencional, que dependía de cálculos paso a paso.
Las redes son “modelos extremadamente idealizados que son tan diferentes de las redes neuronales biológicas reales como las manzanas lo son de los planetas”, escribió Hinton en Nature Neuroscience en2000. Sin embargo, demostraron ser útiles y se han desarrollado ampliamente. Las redes neuronales que imitan el aprendizaje humano forman la base de muchas herramientas de inteligencia artificial de última generación, desde grandes modelos de lenguaje (LLM) hasta algoritmos de aprendizaje automático capaces de analizar grandes cantidades de datos, incluido el modelo de predicción de la estructura de las proteínas AlphaFold.
En declaraciones telefónicas durante el anuncio, Hinton dijo que enterarse de que había ganado el Nobel fue “un rayo de luz”. “Estoy estupefacto, no tenía idea de que esto sucedería”, dijo. Agregó que los avances en el aprendizaje automático “tendrán una influencia enorme, será comparable con la revolución industrial. Pero en lugar de superar a las personas en fuerza física, superará a las personas en capacidad intelectual”.
En los últimos años, Hinton se ha convertido en una de las voces más fuertes que piden que se adopten medidas de protección en torno a la IA. Dice que el año pasado se convenció de que la computación digital se había vuelto mejor que el cerebro humano, gracias a su capacidad de compartir el aprendizaje de múltiples copias de un algoritmo que se ejecutan en paralelo. “Hasta ese momento, había pasado 50 años pensando que si pudiéramos hacerla más parecida al cerebro, sería mejor”, dijo el 31 de mayo, hablando virtualmente en la Cumbre Mundial AI for Good en Ginebra, Suiza. “Me hizo pensar que [estos sistemas] se volverán más inteligentes que nosotros antes de lo que pensaba”.
Motivado por la física
Hinton también ganó el premio Alan Turing en 2018, a veces descrito como el «Nobel de la informática» . Hopfield también ha ganado otros prestigiosos premios de física, incluida la Medalla Dirac.
“La motivación [de Hopfield] era realmente la física, e inventó este modelo de física para comprender ciertas fases de la materia”, dice Karl Jansen, físico del Laboratorio Alemán de Sincrotrón de Electrones (DESY) en Zeuthen, quien describe el trabajo como “revolucionario”. Después de décadas de desarrollos, las redes neuronales se han convertido en una herramienta importante para analizar datos de experimentos de física y para comprender los tipos de transiciones de fase que Hopfield se había propuesto estudiar, agrega Jansen.
Lenka Zdeborová, especialista en física estadística de la computación en la Escuela Politécnica Federal de Lausana (EPFL), se muestra gratamente sorprendida por el reconocimiento por parte del Comité Nobel de la importancia de las ideas de la física para comprender los sistemas complejos. “Se trata de una idea muy genérica, ya se trate de moléculas o de personas en la sociedad”.
En los últimos cinco años, el Premio Abel y las Medallas Fields también han celebrado la fertilización cruzada entre las matemáticas, la física y la informática, en particular las contribuciones a la física estadística.
Ambos ganadores “han aportado ideas increíblemente importantes de la física a la IA”, dice Yoshua Bengio, un científico informático que compartió el Premio Turing 2018 con Hinton y su compañero pionero de las redes neuronales Yann LeCun. El trabajo seminal de Hinton y su entusiasmo contagioso lo convirtieron en un gran modelo a seguir para Bengio y otros defensores tempranos de las redes neuronales. “Me inspiró increíblemente cuando era solo un estudiante universitario”, dice Bengio, quien es director del Instituto de Algoritmos de Aprendizaje de Montreal en Canadá. Muchos científicos informáticos consideraron que la red neuronal era infructuosa durante décadas, dice Bengio; un punto de inflexión importante fue cuando Hinton y otros la usaron para ganar una importante competencia de reconocimiento de imágenes en 2012.
Beneficios del modelo cerebral
La biología también se ha beneficiado de estos modelos artificiales del cerebro. May-Britt Moser, neurocientífica de la Universidad Noruega de Ciencia y Tecnología en Trondheim y ganadora del Premio Nobel de Fisiología o Medicina 2014 , dice que se puso «muy feliz» cuando vio a los ganadores. Las versiones de los modelos de red de Hopfield han sido útiles para los neurocientíficos, dice, al investigar cómo las neuronas trabajan juntas en la memoria y la navegación. Su modelo, que describe los recuerdos como puntos bajos de una superficie, ayuda a los investigadores a visualizar cómo ciertos pensamientos o ansiedades pueden fijarse y recuperarse en el cerebro, agrega. “Me encanta usar esto como una metáfora para hablar con las personas cuando están estancadas”.
Hoy en día, la neurociencia se apoya en teorías de redes y herramientas de aprendizaje automático, derivadas del trabajo de Hopfield y Hinton, para comprender y procesar datos de miles de células simultáneamente, afirma Moser. “Es como un combustible para comprender cosas con las que ni siquiera podíamos soñar cuando empezamos en este campo”.
“El uso de herramientas de aprendizaje automático está teniendo un impacto inmensurable en el análisis de datos y en nuestra posible comprensión de cómo los circuitos cerebrales pueden calcular”, afirma Eve Marder, neurocientífica de la Universidad Brandeis en Waltham, Massachusetts. “Pero estos impactos son insignificantes en comparación con los muchos impactos que el aprendizaje automático y la inteligencia artificial están teniendo en todos los aspectos de nuestra vida diaria”.
Fuente: Nature
Autores: Elizabeth Gibney y Davide Castelvecchi
Documento: https://doi.org/10.1038/d41586-024-03213-8