Início Tecnologia CEO da Nvidia diz que seus chips de IA estão melhorando mais...

CEO da Nvidia diz que seus chips de IA estão melhorando mais rápido que a Lei de Moore

17
0

O CEO da Nvidia, Jensen Huang, diz que o desempenho dos chips de IA de sua empresa está avançando mais rápido do que as taxas históricas estabelecidas pela Lei de Moore, a rubrica que impulsionou o progresso da computação por décadas.

“Nossos sistemas estão progredindo muito mais rápido do que a Lei de Moore”, disse Huang em entrevista ao TechCrunch na terça-feira, na manhã seguinte. fez um discurso para uma multidão de 10.000 pessoas na CES em Las Vegas.

Cunhada pelo cofundador da Intel, Gordon Moore, em 1965, a Lei de Moore previu que o número de transistores em chips de computador praticamente dobraria a cada ano, essencialmente dobrando o desempenho desses chips. Esta previsão concretizou-se em grande parte, conduzindo a rápidos avanços na capacidade e à queda dos custos durante décadas.

Nos últimos anos, a Lei de Moore desacelerou. No entanto, Huang diz que os chips de IA da Nvidia estão avançando em um ritmo próprio acelerado; A empresa afirma que seu mais recente superchip de data center é 30 vezes mais rápido na execução de cargas de trabalho de inferência de IA do que sua geração anterior.

“Podemos construir a arquitetura, o chip, o sistema, as bibliotecas e os algoritmos, tudo ao mesmo tempo”, disse Huang. “Se você fizer isso, poderá avançar mais rápido do que a Lei de Moore, porque poderá inovar em todas as áreas.”

A declaração ousada do CEO da Nvidia ocorre num momento em que Muitos se perguntam se o progresso da IA ​​estagnou.. Os principais laboratórios de IA, como Google, OpenAI e Anthropic, usam chips de IA da Nvidia para treinar e executar seus modelos de IA, e os avanços nesses chips provavelmente se traduziriam em mais avanços nas capacidades dos modelos de IA.

Esta não é a primeira vez que Huang sugere que a Nvidia está superando a Lei de Moore. Em um podcast em novembroHuang sugeriu que o mundo da IA ​​​​está a caminho da “hiperlei de Moore”.

Huang rejeita a ideia de que o progresso da IA ​​esteja a abrandar. Em vez disso, ele diz que existem agora três leis ativas de escalonamento de IA: pré-treinamento, a fase inicial de treinamento em que os modelos de IA aprendem padrões a partir de grandes quantidades de dados; pós-treinamento, que ajusta as respostas de um modelo de IA usando métodos como feedback humano; e a computação na hora do teste, que ocorre durante a fase de inferência e dá ao modelo de IA mais tempo para “pensar” após cada pergunta.

“A Lei de Moore foi muito importante na história da computação porque reduziu os custos da computação”, disse Huang ao TechCrunch. “O mesmo acontecerá com a inferência, onde aumentamos o desempenho e, como resultado, o custo da inferência será menor.”

(Claro, a Nvidia tem cresceu para se tornar a empresa mais valiosa do planeta aproveitando a ascensão da IA, então é benéfico para Huang dizê-lo).

O CEO da Nvidia, Jensen Huang, usa um gb200 nvl72 como escudo (créditos da imagem: Nvidia)

Os H100s da Nvidia foram o chip preferido das empresas de tecnologia que buscam treinar modelos de IA, mas agora que as empresas de tecnologia estão se concentrando mais na inferência, alguns questionaram se os chips caros da Nvidia ainda estarão no topo.

Os modelos de IA que usam computação em tempo de teste são caros para serem executados hoje. Há preocupações de que o modelo o3 da OpenAI, que usa uma versão expandida da computação em tempo de prova, seja muito caro para a maioria das pessoas. Por exemplo, OpenAI gastou quase US$ 20 por tarefa usando o3 para obter pontuações de nível humano em um teste de inteligência geral. Uma assinatura do ChatGPT Plus custa US$ 20 por um mês completo de uso.

Huang ergueu o mais recente superchip de data center da Nvidia, o GB200 NVL72, no palco como um escudo durante a palestra de segunda-feira. Este chip é 30 a 40 vezes mais rápido na execução de cargas de trabalho de inferência de IA do que os chips anteriores mais vendidos da Nvidia, o H100. Huang diz que esse salto no desempenho significa que modelos de raciocínio de IA como o o3 da OpenAI, que usa uma quantidade significativa de computação durante a fase de inferência, se tornarão mais baratos com o tempo.

Huang diz que geralmente está focado na criação de chips de alto desempenho, e chips de alto desempenho levam a preços mais baixos no longo prazo.

“A solução direta e imediata para a computação em tempo de teste, tanto em desempenho quanto em custo, é aumentar nossa capacidade computacional”, disse Huang ao TechCrunch. Ele observou que, a longo prazo, os modelos de raciocínio de IA poderiam ser usados ​​para criar dados melhores para pré e pós-treinamento de modelos de IA.

Certamente vimos o preço dos modelos de IA despencar no ano passado, em parte devido aos avanços computacionais de empresas de hardware como a Nvidia. Huang diz que é uma tendência que ele espera que continue com os modelos de raciocínio de IA, embora as primeiras versões do OpenAI que vimos tenham sido bastante caras.

De forma mais ampla, Huang disse que seus atuais chips de IA são 1.000 vezes melhores do que os de 10 anos atrás. Este é um ritmo muito mais rápido do que o padrão estabelecido pela Lei de Moore, e Huang diz que não vê sinais de parar tão cedo.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here