Em 2024, os prêmios Nobel de Física e o de Química destacaram o papel crescente da inteligência artificial (IA) em diversas áreas do conhecimento. O de física foi concedido a John Hopfield, da Universidade de Princeton, EUA, e a Geoffrey Hinton, da Universidade de Toronto, Canadá.
Fato é que a ficção científica sempre expandiu os limites da nossa imaginação. Hoje, a IA, que foi apresentada ao grande público em filmes como “Eu, Robô” e “Her”, já faz parte do nosso cotidiano, desde a otimização de cidades até diagnósticos médicos. À medida que a tecnologia avança, a fronteira entre ficção e realidade se torna mais tênue, levando-nos a refletir sobre o futuro que desejamos.
Embora a inteligência artificial seja frequentemente associada à computação, sua conexão com a física torna-se evidente ao revisitar o trabalho pioneiro de Hopfield. Sua contribuição à física e ao estudo de sistemas complexos ajudou a moldar os fundamentos teóricos que permitiram o avanço das redes neurais e da IA moderna.
John Hopfield desenvolveu a rede de Hopfield, uma IA inspirada no cérebro humano, capaz de armazenar e recuperar memórias, mesmo com informações incompletas ou distorcidas. Essa rede é importante porque utiliza conceitos da termodinâmica para definir seus parâmetros, mostrando como redes neurais podem imitar processos de memória e reconhecimento de padrões. Seu trabalho serviu de base para Geoffrey Hinton, que criou a máquina de Boltzmann, uma rede que usa conceitos de física estatística.
Por que isso é relevante? Esses avanços são fundamentais para o desenvolvimento de modelos de IA, como o ChatGPT, que está transformando nossa forma de interagir com a tecnologia. Esses modelos foram construídos com base em conceitos de energia e probabilidade, essenciais na física para descrever sistemas complexos. Assim, fica claro por que o prêmio de física reconheceu um trabalho tão fundamental para a humanidade.
Mas o que o Prêmio Nobel de Química, concedido a David Baker, da Universidade de Washington (EUA), e a Demis Hassabis e John M. Jumper, da Google DeepMind (Reino Unido), tem a ver com inteligência artificial?
Hassabis e Jumper desenvolveram o AlphaFold, uma IA que usa redes neurais profundas (evolução dos trabalhos de John Hopfield e Geoffrey Hinton) para prever estruturas de proteínas com alta precisão, revolucionando áreas como o design de medicamentos. David Baker também contribuiu significativamente para a biologia computacional, integrando IA em suas abordagens. Em 2021, a DeepMind liberou gratuitamente o código do AlphaFold e os dados para treinar o modelo, promovendo a ciência aberta e o progresso social, além de destacar a importância dos softwares livres.
Onde o Brasil se encaixa nisso tudo? A IA é fundamental para a soberania do país, impulsionando a independência tecnológica em setores como defesa e agricultura. Com centros como o Laboratório Nacional de Computação Científica (LNCC/MCTI), a COPPE/UFRJ e o C4IA/USP, o Brasil tem potencial. Porém, para competir globalmente, é essencial investir em infraestrutura e capacitação, como prevê o Plano Brasileiro de IA (PBIA). A questão é: o Brasil tem um projeto sólido para de fato competir nesse campo?
*
Fábio Santos é engenheiro, professor e pesquisador no Programa de Engenharia de Sistemas e Computação da COPPE/UFRJ.
O blog Ciência Fundamental é editado pelo Serrapilheira, um instituto privado, sem fins lucrativos, de apoio à ciência no Brasil. Inscreva-se na newsletter do Serrapilheira para acompanhar as novidades do instituto e do blog.
LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.