Para o fundador da Nvidia, Jensen Huang, a valorização astronômica de seu negócio, que chegou ao topo da Bolsa no mundo, tem um motivo mais profundo do que a corrida de empresas de inteligência artificial (IA) por equipamentos da fabricante de chips.
A razão moraria na capacidade sem precedentes na computação de fazer cálculos com números reais (conjunto que engloba números inteiros, frações e dízimas não periódicas) —os chamados floats, na programação.
Nos últimos 20 anos, o poder computacional de um chip se multiplicou por mil, correspondendo ao teorema empírico levantado pelo cofundador da Intel Gordon E. Moore: o poder de processamento de um microchip se duplica a cada dois anos —em um dado objetivo, o número de transistores por placa lógica dobra no período, em uma curva exponencial.
Isso permitiu que cientistas e programadores fossem um passo além nos cálculos matemáticos e conseguissem criar inteligência, ou, no mínimo, a habilidade de executar processos complexos que vão além de uma receita de bolo. Esse é o caso dos grandes modelos de linguagem, que geram e respondem a textos.
Para dar corda à engenhoca, o modelo computacional precisa trabalhar com bilhões de números, segundo o professor de ciência da computação da UFRGS Luis Lamb. A versão mais recente do ChatGPT, por exemplo, trabalha com 1,8 trilhão de parâmetros. Foram de três a cinco meses de processamento em 25 mil unidades de processamento gráfico (GPUs) da Nvidia para concluir o projeto.
O professor da Escola Politécnica da USP, Fabio Cozman, estima que uma pessoa levaria 30 anos, para fazer um bilhão de operações matemáticas, se levasse um segundo em cada uma. “Certamente um ser humano não faria essas operações em tempo razoável.”
Diferentemente dos processadores tradicionais, que fazem uma operação de cada vez, as GPUs conseguem fazer vários cálculos ao mesmo tempo, por abrigar circuitos em paralelo. “O paralelismo é importante, pois quanto mais operações simultâneas foram realizadas, melhor será o desempenho dos algoritmo”, diz Lamb.
Esses cálculos complexos e exaustivos estão por trás de outras inovações recentes como o blockchain por trás das criptomoedas. Confirmar uma transação feita com criptomoedas envolve uma matemática quase tão difícil quanto a estatística dos modelos de IA. Esse é o processo chamado de mineração.
O primeiro boom da Nvidia na bolsa teve a ver com a corrida por GPUs para montar minas de bitcoin —redes de computadores dedicadas aos cálculos quase impossíveis por trás do blockchain. Hoje, mineradoras de bitcoin passaram a alugar seus data centers repletos de GPUs a startups de IA.
Ao se referir aos números reais por trás dos tokens, Huang disse em conversa com a empresa de pagamentos Stripe em 21 de maio: “Nós estamos produzindo algo que nunca foi feito história da humanidade, e estamos produzindo isso em altíssimo volume, e a produção dessa coisa requer um novo instrumento que nunca existiu antes, que é um GPU.”
“É possível pegar esses números flutuantes e reformulá-los de uma maneira tal que você os transforma em inglês, francês, proteínas, substâncias químicas, gráficos, imagens, vídeos, movimentos robóticos, direção de um carro”, exemplifica o executivo. Isso ainda acontece em uma velocidade inédita.
No livro “Como o Mundo Realmente Funciona”, o cientista tcheco Vaclav Smil defende que a grande transformação do capitalismo moderno foi conseguir usar energia para acelerar o trabalho humano ao extremo. “Em dois séculos nos Estados Unidos, o tempo para se produzir um quilo de trigo passou de 10 minutos para menos de dois segundos”, escreve.
A Nvidia vende a ideia de que seus computadores e a inteligência artificial seriam o novo passo para revolucionar a produtividade humana. E grandes bancos e consultorias, como McKinsey, KPMG e Goldman Sachs, endossam o projeto.
Em vista disso, as empresas também correm por placas da Nvidia desde o fim de 2022.
Levantamento da empresa de pesquisa 3Fourteen Research mostra que a Nvidia passou a ter uma folga de 0,5% na entrega de GPUs A100 (da geração anterior e vendida por US$ 8.299) diante da enorme demanda apenas em meados de maio deste ano.
Para as GPUs mais recentes, do modelo H100 (por volta de US$ 30 mil), a procura ainda pressiona a capacidade de produção da fabricante de chips, e não há sobras.
A empresa comandada por Huang detém hoje cerca de 70% desse setor em franca expansão, mas outras empresas como a AMD e a Intel também brigam por espaço, em uma competição de quem é mais eficiente nessa matemática.
A importância desses cálculos é tal que o presidente da AMD (a principal concorrente da Nvidia) no Brasil, Sérgio Santos, disse à Folha que os novos modelos tem sua potência medida em TOPs (trilhões de operações por segundo) e Flops (operações em pontos flutuantes por segundo).
Santos afirma que esse trabalho é feito com eficiência energética: “Uma GPU consegue fazer trilhões de operações com uma ordem de consumo na ordem de miliwatts e essa eficiência é fundamental”.
Ainda assim, a Agência Internacional de Energia (AIE) estima que o consumo de energia elétrica nos data centers possa passar dos 460 terawatt-hora (TWh) registrados em 2022 para 1.050 TWh em 2026 para atender a demanda de processamento de dados das plataformas de inteligência artificial. Para se ter uma ideia, o consumo total de energia no Brasil no ano passado foi de 509 TWh.
Embora a Lei de Moore tenha assegurado nos últimos anos o avanço contínuo da computação, há pesquisadores que temam a proximidade de um platô no avanço da tecnologia.
O limite da engenharia estaria na física, segundo o professor da UFG (Universidade Federal de Goiás), Vinicius Sebba Patto. “Hoje trabalhamos com chips em uma litografia [técnica para marcar a placa lógica] de três nanômetros. Em breve, não haverá espaço para passar um elétron, já estamos sob risco dos elétrons escaparem.”
Sebba Patto coordena o Centro de Excelência em IA da UFG, que tem apoio técnico da Nvidia. O centro reúne 320 pesquisadores com a maior concentração de placas da Nvidia no país. Para o professor, a chave pode estar em uma nova computação. A alternativa que mais se destaca é abandonar o mundo binário de zeros e uns e partir para a computação quântica.
RAIO-X – NVIDIA
Fundação: abril de 1993
Lucro líquido no primeiro trimestre de 2024: US$ 14,88 bilhões (R$ 19,229 bilhões)
Valor de mercado (em 26 de julho): US$ 2,76 trilhões (R$ 15,58 trilhões)
Funcionários: 29.600
Área de atuação: Hardware, software, robótica e data centers.
Concorrentes: AMD, Intel e Dell