
O Futuro da Memória HBM: De HBM4 a HBM8, a Era de Bandwidth Exabyte e Refrigeração Integrada
O futuro do processamento de dados está sendo moldado pela memória de alta largura de banda (HBM), e o roadmap recém-apresentado revela inovações impressionantes
. KAIST e Tera Labs divulgaram seus planos para os padrões HBM, indo de HBM4 até HBM8, e a evolução promete aumento expressivo de largura de banda, capacidade de memória e consumo de energia que vai deixar qualquer GPU aquecida apenas com a leitura.
HBM4, previsto para 2026, será o padrão utilizado para as futuras GPUs de IA. As placas NVIDIA Rubin e AMD Instinct MI400 vão adotar essa tecnologia. A Rubin será equipada com de 8 a 16 módulos HBM4, com capacidade de até 384 GB de VRAM e consumo de até 2200 W por chip. O MI400 da AMD levará as capacidades ainda mais longe, com 432 GB e até 20 TB/s de largura de banda. A tecnologia usa refrigeração líquida direta e embalagem com micro-bumps, consumindo 75 W por módulo HBM.
HBM5, previsto para 2029, terá 4096 entradas/saídas, com largura de banda de 4 TB/s por módulo e 80 GB por chip. A primeira GPU a utilizar esse padrão será a “Feynman” da NVIDIA. O consumo de energia aumentará para 100 W por módulo HBM e até 4400 W por pacote de chips. O resfriamento será feito por imersão, com um chip de capacitor desacoplado e melhorias em LPDDR+CXL.
HBM6, previsto para ser lançado após o Feynman por volta de 2032, dobrará a largura de banda para 8 TB/s e suportará até 120 GB por módulo. A nova arquitetura sem solda Cu-Cu e o resfriamento por imersão com interposers híbridos de silício e vidro possibilitarão a integração de uma rede dentro da memória. O consumo de energia pode chegar a 5920 W, com mais de 1900 GB de memória.
HBM7 é projetado para desempenho em classe exabyte. Com 8192 entradas/saídas e uma taxa de transferência de 24 Gbps, ele oferece até 192 GB por módulo e 24 TB/s de largura de banda. Um novo design de duas torres com resfriamento integrado proporcionará até 1024 TB/s de largura de banda e mais de 6 TB de memória. O consumo de energia pode chegar a impressionantes 15.360 W por pacote.
HBM8 só estará disponível em 2038, mas promete ser o padrão mais avançado. Com 32 Gbps por linha e 16.384 linhas de dados, oferecerá 64 TB/s de largura de banda por módulo e capacidade de até 240 GB. Essa será a solução mais poderosa, exigindo resfriamento integrado e TSV coaxial para ser utilizada em grandes centros de dados. Espera-se que um pacote atinja até 5000 GB de memória, com consumo de energia comparável ao de um pequeno centro de dados.
Também aparece a HBF (High-Bandwidth Flash), uma solução híbrida que usa NAND com 128 camadas em módulos 16-Hi. Em vez de DRAM padrão, o HBF usa HBM de alta velocidade com interconexão de 2 TB/s, permitindo integrar grandes volumes de memória para IA. O Glass Interposer e LPDDR de até 384 GB complementam a arquitetura, criando uma solução unificada para cálculos de alta largura de banda.
De 2 TB/s a 64 TB/s por módulo e de gigabytes a terabytes de memória em um único chip, o HBM não é mais apenas um padrão de memória – é a base das próximas gerações de processamento de dados. A única dúvida que resta: nossos sistemas de resfriamento e redes elétricas conseguirão acompanhar essa evolução?
4 comentários
HBM é o futuro, mas não para nós, pobres consumidores com placas gráficas GDDR6 🙄
A Intel quer criar sua própria alternativa ao HBM? Todo mundo lembra do fiasco com o 3D XPoint..
Nenhum sistema de refrigeração atual vai dar conta disso, melhor começar a vender bastões de urânio
A AMD perdeu uma grande chance ao não licenciar HBM, agora todo mundo está usando 😒