A CoreWeave mostrou o poder do novo NVIDIA GB300 NVL72 com arquitetura Blackwell, e os números impressionam. Nos testes com o modelo de raciocínio DeepSeek R1, o GB300 entregou 6 vezes mais throughput por GPU em relação à geração anterior H100. 
O detalhe mais chocante: o que antes exigia 16 H100, agora roda com apenas 4 GB300.
O segredo está na arquitetura. Ao reduzir o paralelismo tensorial de 16 para 4, o GB300 diminui drasticamente a sobrecarga de comunicação entre GPUs. Somado à enorme capacidade de memória e à largura de banda altíssima, o chip consegue lidar com modelos complexos sem engasgar. Com interconexões NVLink e NVSwitch chegando a 130 TB/s e até 40 TB de memória no rack NVL72, o sistema redefine o padrão para cargas pesadas de IA.
Para empresas, isso significa geração de tokens mais rápida, menos latência e custos bem menores com muito mais eficiência. A demonstração da CoreWeave deixa claro: o GB300 não é só força bruta em TFLOPs, é uma solução mais simples, elegante e escalável para treinar e rodar modelos de IA. Os H100 ainda têm espaço, mas a geração Blackwell com o GB300 abre um novo capítulo no mundo da inteligência artificial.
1 comentário
DeepSeek já pulando fora pra coisa melhor 👀