Micron, bellek teknolojisinde önemli bir adım atarak 12 katmanlı ve 36 GB kapasiteli HBM3E bellek çözümünü üretime hazır hale getirdiğini duyurdu. 12-Hi tasarımı ile geliştirilen bu yeni bellek, yapay zeka ve veri merkezi uygulamaları için yüksek performans sunarak dikkat çekiyor. Şirket, yeni belleğin kalifikasyon için önemli endüstri ortaklarına, Nvidia gibi firmalara gönderildiğini açıkladı.
Micron, bellek teknolojisinde önemli bir yeniliğe imza attı
Bu yeni nesil bellek, mevcut 8 katmanlı HBM3E çözümlerine göre %50 daha fazla DRAM kapasitesi sunuyor. 36 GB kapasitesi sayesinde daha büyük yapay zeka modelleri, örneğin 70 milyar parametreye sahip Llama 2 gibi modeller, tek bir işlemci üzerinde çalıştırılabiliyor. Bu da işlemci ile GPU arasındaki veri aktarımını azaltarak daha hızlı sonuçlar elde edilmesini sağlıyor.
Micron’un 12-Hi HBM3E bellek çözümü, 9.2 Gbps pin hızı ve 1.2 TB/s bant genişliği ile sektörün en hızlı belleklerinden biri olarak öne çıkıyor. Bu yüksek hız, özellikle veri merkezleri ve yapay zeka hızlandırıcıları için büyük veri kümelerinin hızlı bir şekilde işlenmesini mümkün kılıyor. Aynı zamanda, Micron’un bu 36 GB kapasiteli çözümü, rakiplerinin 24 GB kapasiteli belleklerine kıyasla daha düşük enerji tüketimi sunuyor, bu da enerji verimliliği açısından önemli bir avantaj sağlıyor.
Çin Nvidia ambargosunu bulut hizmetleriyle deliyor
Micron’un HBM3E 12-Hi belleği, tam programlanabilir MBIST özelliklerine sahip. Bu sistem, belleğin gerçek kullanım senaryolarında test edilmesini hızlandırarak doğrulama sürecini daha etkin hale getiriyor.