Microsoft ayrıca bulut iş yükleri için kendi Arm tabanlı CPU’sunu da oluşturdu. Her iki özel silikon çip de Azure veri merkezlerine güç sağlamak ve şirketi ve kurumsal müşterilerini yapay zeka dolu bir geleceğe hazırlamak için tasarlandı.
Microsoft’un Azure Maia AI çipi ve Arm-powered Azure Cobalt CPU’su, bu yıl üretken görüntü araçlarını ve büyük dil modellerini eğitmek ve çalıştırmak için yaygın olarak kullanılan Nvidia’nın H100 GPU’larına olan talep artışının arkasında 2024’te geliyor. Bu GPU’lara o kadar yüksek talep var ki, bazıları eBay’den 40.000 dolardan fazla para getirdi.
Microsoft’ta Azure donanım sistemleri ve altyapı başkanı Rani Borkar, yaptığı bir röportajda, “Microsoft’un aslında silikon geliştirmede uzun bir geçmişi var.” dedi. Microsoft, 20 yıldan uzun bir süre önce Xbox için silikon üzerinde işbirliği yaptı ve hatta Surface cihazları için çipleri birlikte tasarladı. Borkar, ”Bu çabalar bu deneyim üzerine inşa edilmiştir.” diyor. “2017’de bulut donanım yığınını tasarlamaya başladık ve bu yolculuğa başladık ve bizi yeni özel çiplerimizi oluşturma yoluna koydu.”
Yeni Azure Maia AI çipi ve Azure Cobalt CPU, performansı, gücü ve maliyeti optimize etmek için tüm bulut sunucusu yığınının derinlemesine elden geçirilmesiyle birlikte Microsoft’ta şirket içinde üretildi. Borkar, ”AI çağı için bulut altyapısını yeniden düşünüyoruz ve kelimenin tam anlamıyla bu altyapının her katmanını optimize ediyoruz.” diyor.
Adını mavi pigmentten alan Azure Cobalt CPU, Arm Neoverse CSS tasarımı üzerine inşa edildi ve Microsoft için özelleştirilmiş 128 çekirdekli bir çip.
Microsoft şu anda Cobalt CPU’sunu Microsoft Teams ve SQL sunucusu gibi iş yüklerinde test ediyor ve sanal makineleri gelecek yıl çeşitli iş yükleri için müşterilere sunma planları yapıyor.
Microsoft’un parlak mavi bir yıldızın adını taşıyan Maia 100 AI hızlandırıcısı, büyük dil modeli eğitimi ve çıkarım gibi bulut AI iş yüklerini çalıştırmak için tasarlandı. Microsoft’un OpenAI’in tüm iş yüklerine güç verdiği milyarlarca dolarlık ortaklığın parçaları da dahil olmak üzere, şirketin Azure’daki en büyük AI iş yüklerinden bazılarına güç vermek için kullanılacak. Yazılım devi, Maia’nın tasarım ve test aşamalarında OpenAI ile işbirliği yapıyor.
OpenAI CEO’su Sam Altman, ”Microsoft, Maia çipi için tasarımlarını ilk paylaştığında heyecanlandık ve modellerimizle geliştirmek ve test etmek için birlikte çalıştık.” diyor. “Azure’nin şimdi Maia ile silikona kadar optimize edilen uçtan uca AI mimarisi, daha yetenekli modelleri eğitme ve bu modelleri müşterilerimiz için daha ucuz hale getirmenin yolunu açıyor.”
5 nanometrelik bir TSMC işleminde üretilen Maia, 105 milyar transistöre sahip. Borkar, ”Maia, donanım ve yazılımı birlikte tasarlamak için alt 8 bit veri türlerinin, MX veri türlerinin ilk uygulamasını destekliyor.” diyor. “Bu, daha hızlı model eğitimini ve çıkarım sürelerini desteklememize yardımcı oluyor.“
Microsoft, AI modelleri için yeni nesil veri formatlarını standartlaştıran AMD, Arm, Intel, Meta, Nvidia ve Qualcomm’u içeren bir grubun parçası. Microsoft, tüm sistemleri AI’nın ihtiyaçlarına uyarlamak için Açık Hesaplama Projesi’nin (OCP) işbirlikçi ve açık çalışmasını geliştiriyor.
Borkar, ”Maia, Microsoft tarafından oluşturulan ilk tam sıvı soğutmalı sunucu işlemcisidir.” dedi. “Buradaki amaç, daha yüksek verimlilikte daha yüksek sunucu yoğunluğu sağlamaktı. Tüm yığını yeniden tasarladığımız için, her katmanı bilerek düşünüyoruz, bu nedenle bu sistemler aslında mevcut veri merkezi ayak izimize sığacak.“
Tedarik zincirlerinin çeşitlendirilmesi, özellikle Nvidia şu anda AI sunucu çiplerinin kilit tedarikçisi olduğunda ve şirketler bu çipleri satın almak için yarışırken Microsoft için önemli. Tahminler, OpenAI’nin ChatGPT’nin ticarileştirilmesi için 30.000’den fazla Nvidia’nın eski A100 GPU’ya ihtiyacı olduğunu öne sürdü, bu nedenle Microsoft’un kendi yongaları, müşterileri için AI maliyetini düşürmeye yardımcı olabilir.
Microsoft ayrıca bu çipleri kendi Azure bulut iş yükleri için geliştirdi, Nvidia, AMD, Intel ve Qualcomm gibi diğerlerine satmak için değil.