Nvidia anuncia chip para IA 'mais poderoso do mundo'
GPU Blackwell B200 promete revolução no processamento de atividades muito complexas
Cido Coelho
Na segunda-feira (18), durante a GTC 2024 (Conferência de Tecnologia de GPU) da Nvidia, focada em computação, GPU e IA, a empresa anunciou a GPU B200 para IA, arquitetura Blackwell.
+ Confira as últimas notícias de Tecnologia
Ela é voltada para quem precisa de muito processamento de informações ao mesmo tempo, para tarefas complexas de inteligência artificial, aprendizado de máquina, análise de dados ou desenvolvimento de projetos de grande escala, com mais de 1,8 trilhão de parâmetros.
Tá certo, muito legal… Mas, o que é GPU?
O GPU (sigla em inglês para Unidade de Processamento Gráfico) é um processador focado em conteúdo gráfico, pensado para processamento de imagens em alta qualidade e realistas para videogames, vídeos e imagens.
Mas, também, tem sido usado para operações e atividades que exigem grande capacidade computacional, como aprendizagem de máquina e processamento de grandes volumes de dados.
"GPU mais potente de todos os tempos"
As GPUs anunciadas podem entregar 4 vezes mais desempenho em treinamento, 30 vezes mais em inferências e 25 vezes mais eficiência energética se comparado com os chips Hopper H100.
O fundador e CEO da Nvidia, Jensen Huang, apontou a criação como a GPU 'mais potente de todos os tempos'. E, pasmem, não foi desenvolvida pensada em games, mas para tarefas complexas que demandam a nova indústria.
+ Leia todas as notícias sobre Inteligência Artificial
A tecnologia pode impactar as tarefas de simulação de engenharia, automação de design de eletrônicos, processamento de dados, desenvolvimento de medicamentos, computação quântica e inteligência artificial generativa.
O que tem no chip GPU da Nvidia?
Os novos chips GPU Blackwell B200 tem 208 bilhões de transistores e podem funcionar de forma interconectada, por meio do recém lançado NVLink, com largura de banda direcional de 1,8 TB/s, podendo dobrar a sua capacidade de processamento, trazendo uma comunicação de dados de alta velocidade entre 576 GPUs.
Além disso, aumenta a largura de banda e o tamanho do modelo usando quatro bits para cada neurônio em vez de oito, com potência de 20 petaflops.
+ Todas as notícias sobre Nvidia
Segundo a Nvidia, o treinamento de um modelo de 1,8 trilhão de parâmetros exigiria anteriormente 8.000 GPUs Hopper e 15 megawatts de potência.
Hoje, com o Blackwell, são necessários 2.000 GPUs com baixo consumo de energia, consumindo apenas quatro megawatts.
Além disso, a Nvidia afirma que o GB200 tem um desempenho sete vezes maior que o antecessor H100, com quatro vezes a velocidade de treinamento, que pode ser usado para treinar grandes modelos de linguagem (LLM), para aprimorar IAs.
Interesse é grande e já tem fila
E a Nvidia já confirmou que diversas empresas de tecnologia, entre elas as big techs, têm interesse, ainda neste ano, na nova plataforma para desenvolvimento de projetos e fazer compras massivas dessas GPUs.
Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure, Amazon Web Services (AWS), Cisco, Lenovo, Supermicro e Dell estão na fila esperando para fazer a aquisição dos poderosos chips da Nvidia.