A NVIDIA está planejando produzir até 800.000 unidades de seus novos módulos de memória SOCAMM em 2025 para seus produtos de inteligência artificial. Essa solução de memória modular foi desenvolvida para facilitar a atualização de memória nos dispositivos, oferecendo desempenho superior e maior eficiência. 
A memória SOCAMM foi apresentada pela primeira vez no evento GTC da NVIDIA, e faz parte dos esforços da empresa para melhorar o desempenho e reduzir o consumo de energia em seus produtos de IA.
Durante o evento GTC, a NVIDIA mostrou sua plataforma GB300 utilizando a memória SOCAMM, desenvolvida pela Micron. Essa nova solução de memória é uma alternativa às memórias HBM e LPDDR5X, que são comumente usadas em produtos de IA, como servidores e dispositivos móveis. A memória SOCAMM é baseada em DRAM LPDDR, tradicionalmente utilizada em dispositivos móveis, mas com uma diferença importante: ela é atualizável. Ao contrário das soluções HBM e LPDDR5X, a SOCAMM não é soldada na placa-mãe e pode ser fixada com apenas três parafusos.
Segundo informações do portal sul-coreano ETNews, a NVIDIA planeja produzir entre 600.000 e 800.000 unidades de memória SOCAMM ainda este ano, marcando uma grande aposta da empresa na implementação dessa tecnologia em seus produtos de IA. O primeiro produto a usar a memória SOCAMM será a plataforma GB300 Blackwell, o que pode indicar a transição da NVIDIA para essa nova solução de memória modular em muitos de seus dispositivos de IA no futuro.
Embora a meta de 800.000 unidades para 2025 seja pequena em comparação com a quantidade de memória HBM que a NVIDIA espera receber no mesmo período, a produção de SOCAMM deve aumentar consideravelmente no próximo ano, especialmente com o lançamento da memória SOCAMM 2. Essa memória modular não é apenas compacta, mas também muito mais eficiente em termos de energia do que as soluções RDIMM. Embora os detalhes sobre as melhorias exatas de eficiência energética não tenham sido divulgados, relatórios indicam que a SOCAMM oferecerá maior largura de banda que as soluções RDIMM, LPDDR5X e LPCAMM, que são muito usadas em plataformas móveis.
A memória SOCAMM deve oferecer uma largura de banda entre 150 e 250 GB/s, sendo uma solução flexível e atualizável para PCs e servidores de IA. Espera-se que, no futuro, a SOCAMM se torne o padrão para dispositivos de IA de baixo consumo energético. Micron é o atual fabricante dos módulos SOCAMM, mas fontes indicam que a NVIDIA está em negociações com a Samsung e SK Hynix para expandir a produção.
1 comentário
Parece interessante, mas será que vai mesmo superar as outras memórias no quesito performance?