O Prêmio Nobel de Física de 2024 foi concedido aos cientistas John Hopfield e Geoffrey Hinton “por descobertas e invenções fundamentais que possibilitam o aprendizado de máquina com redes neurais artificiais”.
Inspirados por ideias da física e da biologia, Hopfield e Hinton desenvolveram sistemas de computador que podem memorizar e aprender com padrões nos dados. Apesar de nunca terem colaborado diretamente, eles se basearam no trabalho um do outro para desenvolver os fundamentos do atual boom do aprendizado de máquina e da inteligência artificial (IA).
O que são redes neurais? (E o que elas têm a ver com a física?)
As redes neurais artificiais estão por trás de grande parte da tecnologia de IA que usamos atualmente.
Da mesma forma que seu cérebro tem células neuronais ligadas por sinapses, as redes neurais artificiais têm neurônios digitais conectados em várias configurações. Cada neurônio individual não faz muita coisa. Em vez disso, a mágica está no padrão e na força das conexões entre eles.
Os neurônios de uma rede neural artificial são “ativados” por sinais de entrada. Essas ativações passam em cascata de um neurônio para o outro de forma a transformar e processar as informações de entrada. Como resultado, a rede pode executar tarefas computacionais, como classificação, previsão e tomada de decisões.
A maior parte da história do aprendizado de máquina tem sido a descoberta de maneiras cada vez mais sofisticadas de formar e atualizar essas conexões entre neurônios artificiais.
Embora a ideia fundamental de conectar sistemas de nós para armazenar e processar informações tenha vindo da biologia, a matemática usada para formar e atualizar essas conexões veio da física.
Redes que podem se lembrar
John Hopfield (nascido em 1933) é um físico teórico norte-americano que fez importantes contribuições ao longo de sua carreira no campo da física biológica. No entanto, o prêmio Nobel de Física foi pelo seu trabalho no desenvolvimento de redes de Hopfield em 1982.
As redes de Hopfield foram um dos primeiros tipos de redes neurais artificiais. Inspirados em princípios da neurobiologia e da física molecular, esses sistemas demonstraram pela primeira vez como um computador poderia usar uma “rede” de nós para lembrar e recuperar informações.
As redes desenvolvidas por Hopfield podiam memorizar dados (como uma coleção de imagens em preto e branco). Essas imagens poderiam ser “recuperadas” por associação quando a rede fosse solicitada com uma imagem semelhante.
Embora de uso prático limitado, as redes de Hopfield demonstraram que esse tipo de RNA poderia armazenar e recuperar dados de novas maneiras. Elas estabeleceram a base para o trabalho posterior de Hinton.
Máquinas que podem aprender
Geoff Hinton (nascido em 1947), às vezes chamado de um dos “padrinhos da IA”, é um cientista da computação britânico-canadense que fez várias contribuições importantes para a área. Em 2018, juntamente com Yoshua Bengio e Yann LeCun, ele recebeu o Prêmio Turing (a mais alta honraria da ciência da computação) por seus esforços para promover o aprendizado de máquina em geral e, especificamente, um ramo chamado aprendizado profundo.
O Prêmio Nobel de Física, no entanto, é especificamente por seu trabalho com Terrence Sejnowski e outros colegas em 1984, desenvolvendo máquinas de Boltzmann.
Essas máquinas são uma extensão da rede Hopfield que demonstrou a ideia de aprendizado de máquina – um sistema que permite que um computador aprenda não com um programador, mas com exemplos de dados. Com base em ideias da dinâmica de energia da física estatística, Hinton mostrou como esse modelo inicial de computador generativo poderia aprender a armazenar dados ao longo do tempo ao receber exemplos de coisas para lembrar.
A máquina de Boltzmann, assim como a rede Hopfield antes dela, não teve aplicações práticas imediatas. Entretanto, uma forma modificada (chamada de máquina de Boltzmann restrita) foi útil em alguns problemas aplicados.
Mais importante foi a descoberta conceitual de que uma rede neural artificial poderia aprender com os dados. Hinton continuou a desenvolver essa ideia. Posteriormente, ele publicou artigos influentes sobre backpropagation (o processo de aprendizado usado nos sistemas modernos de aprendizado de máquina) e convolutional neural networks (o principal tipo de rede neural que usamos).
Por que esse prêmio, agora?
As redes de Hopfield e as máquinas de Boltzmann parecem extravagantes em comparação com os feitos atuais da IA. A rede de Hopfield continha apenas 30 neurônios (ele tentou criar uma com 100 nós, mas era demais para os recursos de computação da época), enquanto os sistemas modernos, como o ChatGPT, podem ter milhões. No entanto, o prêmio Nobel de hoje ressalta a importância dessas primeiras contribuições para a área.
Embora o rápido progresso recente da IA – conhecido pela maioria de nós por meio de sistemas de IA generativos, como o ChatGPT – possa parecer uma justificativa para os primeiros defensores das redes neurais, Hinton pelo menos expressou preocupação. Em 2023, depois de deixar um cargo de uma década na filial de IA do Google, ele disse que estava assustado com a taxa de desenvolvimento e se juntou à crescente multidão de vozes que pediam uma regulamentação mais proativa da IA.
Depois de receber o prêmio Nobel, Hinton disse que a IA será “como a Revolução Industrial, mas em vez de nossas capacidades físicas, ela excederá nossas capacidades intelectuais”. Ele também disse que ainda se preocupa com a possibilidade de que as consequências de seu trabalho sejam “sistemas mais inteligentes do que nós e que possam eventualmente assumir o controle”.
* Aaron J. Snoswell, Pesquisador Associado em Responsabilidade de IA, Queensland University of Technology