Premio Nobel de Física: Cómo la IA de Hopfield y Hinton transformó nuestro mundo

Si ha disfrutado de un vídeo generado por IA, de protección contra el fraude o de voz a texto, puede agradecérselo a científicos como el físico John Hopfield y el informático Geoffrey Hinton. El 8 de octubre de 2024 recibieron el Premio Nobel de Física por su trabajo pionero sobre las redes neuronales artificiales, que, aunque inspiradas en la biología, se basan en gran medida en la física estadística.
Cómo calculan las neuronas
Las redes neuronales artificiales se inspiran en el funcionamiento de las neuronas biológicas. En 1943, Warren McCulloch y Walter Pitts introdujeron un modelo sencillo que mostraba cómo las neuronas se conectan, reciben señales y envían sus propias señales.
Las neuronas sopesan las señales entrantes de forma diferente, de forma similar a cuando se valora la opinión de unos amigos más que la de otros a la hora de decidir la compra de un teléfono. Por ejemplo, si Alice y Bob dicen que sí, pero Charlie, en quien confías más por sus consejos técnicos, dice que no, puede que su opinión tenga más peso. Esto podría cambiar tu decisión de comprar o no el teléfono.
Red de Hopfield
Las redes neuronales artificiales se inspiraron inicialmente en la biología, pero su desarrollo pronto incorporó ideas de la lógica, las matemáticas y la física. El físico John Hopfield aplicó conceptos de la física para estudiar un tipo específico de red neuronal recurrente, ahora conocida como red de Hopfield, centrándose en cómo evoluciona con el tiempo.
Esta dinámica también es relevante en las redes sociales, donde la información se propaga rápidamente, dando lugar a memes virales y cámaras de eco a partir de simples interacciones.
Hopfield fue pionero en el uso de modelos físicos, especialmente los que estudian el magnetismo, para entender las redes neuronales. Demostró que estas dinámicas podían dotar a dichas redes de una forma de memoria.
Máquinas de Boltzmann y retropropagación
En la década de 1980, Geoffrey Hinton, Terrence Sejnowski y otros desarrollaron a partir del trabajo de Hopfield una nueva clase de modelos denominados máquinas de Boltzmann, en honor al físico del siglo XIX Ludwig Boltzmann. Estos modelos, como su nombre indica, se basaban en los trabajos de Boltzmann sobre física estadística.
Mientras que las redes de Hopfield podían almacenar y corregir patrones, de forma similar a un corrector ortográfico, las máquinas de Boltzmann iban más allá. Podían generar nuevos patrones, sentando las bases de la IA generativa actual.
El papel de la retropropagación en las redes neuronales
En los años 80, Hinton también participó en un gran avance: la retropropagación. Para que las redes neuronales realicen tareas útiles, hay que elegir los pesos de conexión adecuados entre las neuronas. La retropropagación es un algoritmo esencial que ayuda a ajustar estos pesos en función del rendimiento de la red en un conjunto de datos de entrenamiento. Sin embargo, entrenar redes con muchas capas seguía siendo difícil.
En la década de 2000, Hinton y su equipo encontraron una solución inteligente. Utilizaron máquinas de Boltzmann para preentrenar cada capa de una red multicapa, seguidas de un algoritmo de ajuste fino para afinar aún más los pesos. Estas redes multicapa, ahora llamadas redes profundas, desencadenaron la revolución del aprendizaje profundo.
La IA devuelve a la física.
El Premio Nobel de Física destaca cómo las ideas de este campo han impulsado el crecimiento del aprendizaje profundo. Ahora, el aprendizaje profundo está devolviendo el favor a la física al permitir simulaciones rápidas y precisas de sistemas que van desde las moléculas hasta el clima de la Tierra.
Al galardonar a Hopfield y Hinton con el Premio Nobel, el comité muestra su optimismo en nuestra capacidad de utilizar estos avances para mejorar el bienestar humano y contribuir a un futuro sostenible.
Read original article on: Science Alert
Read more: Scitke