Site icon TechInside
%%title%% %%page%% %%sep%%

Intel’den yapay zekâ atılımı

MLCommons bugün, hem Habana® Gaudi®2 derin öğrenme hızlandırıcısının hem de 4. Nesil Intel® Xeon® Scalable işlemcinin etkileyici eğitim sonuçlarının sunulduğu sektörel yapay zekâ performans ölçütü MLPerf Training 3.0'ın sonuçlarını yayınladı.

MLCommons bugün, hem Habana® Gaudi®2 derin öğrenme hızlandırıcısının hem de 4. Nesil Intel® Xeon® Scalable işlemcinin etkileyici eğitim sonuçlarının sunulduğu sektörel yapay zekâ performans ölçütü MLPerf Training 3.0’ın sonuçlarını yayınladı. “MLCommons’ın yayınladığı en son MLPerf sonuçları, Intel Xeon işlemcilerin ve Intel Gaudi derin öğrenme hızlandırıcılarının yapay zekâ alanında müşterilere sağladığı TCO değerini doğruluyor. Xeon yerleşik hızlandırıcıları sayesinde genel amaçlı işlemcilerde yüksek hacimli yapay zekâ iş yüklerini çalıştırmak için ideal bir çözüm haline gelirken, Gaudi ise büyük dil modelleri ve üretken yapay zekâ için rekabetçi performans sunuyor. Intel’in optimize edilmiş, programlaması kolay açık yazılıma sahip ölçeklenebilir sistemleri, müşterilerin ve iş ortaklarının veri merkezinde buluttan akıllı uca kadar geniş bir yelpazede yapay zekâya dayalı çözümler sunmasının önündeki engelleri azaltıyor.”

Intel Başkan Yardımcısı ve Veri Merkezi ve Yapay Zekâ Grubu Genel Müdürü Sandra L. Rivera Endüstrideki mevcut anlatı, üretken yapay zekâ ve büyük dil modellerinin (LLM’ler) yalnızca Nvidia GPU’larda çalışabileceği yönünde. Oysa yeni veriler, Intel’in yapay zekâ çözümleri portföyünün, verimliliği ve ölçeği sınırlayan kapalı ekosistemlerden kurtulmak isteyen müşteriler için rekabetçi ve cazip seçenekler sunduğunu gösteriyor. En son MLPerf Training 3.0 sonuçları, Intel ürünlerinin bir dizi derin öğrenme modeli üzerindeki performansını vurguluyor. Eğitim için Gaudi2 tabanlı yazılım ve sistemlerin olgunluğu, büyük dil modeli GPT-3 üzerinde ölçekli olarak gösterildi. Gaudi2, GPT-3’ün LLM eğitimi için kıyaslama ölçütüne performans sonuçları sunan iki yarı iletken çözümden biri. Gaudi2, ayrıca hem sunucu hem de sistem maliyetlerinde müşterilere önemli ölçüde rekabetçi maliyet avantajları da sağlıyor. Hızlandırıcının GPT-3, bilgisayarlı görü ve doğal dil modelleri üzerindeki MLPerf onaylı performansı ve gelecekteki yazılım gelişmeleri, Gaudi2’yi Nvidia’nın H100’üne son derece cazip bir fiyat/performans alternatifi haline getiriyor. CPU cephesindeyse, Intel yapay zekâ motorlarına sahip 4. Nesil Xeon işlemcilerin derin öğrenme eğitimi performansı, müşterilerin Xeon tabanlı sunucularla veri ön işleme, model eğitimi ve dağıtımı için tek üniversal yapay zekâ sistemi oluşturarak yapay zekâ performansı, verimlilik, doğruluk ve ölçeklenebilirliğin doğru kombinasyonunu sağlayabileceğini gösterdi.Habana Gaudi2 Sonuçları Hakkında: Üretken yapay zekâ ve büyük dil modellerinin eğitimi için, büyük ölçekli işlem gereksinimlerini karşılayabilecek sunucu kümeleri gereklidir. Bu MLPerf sonuçları, test edilen en zorlu model olan 175 milyar parametreli GPT-3 üzerinde Habana Gaudi2’nin olağanüstü performansını ve verimli ölçeklenebilirliğini somut bir şekilde doğruluyor.

Sonuçlarda öne çıkan hususlar:

Nesil Xeon İşlemcilerin Sonuçları Hakkında;

Çok sayıda alternatif çözüm arasında tek CPU sunumu olan MLPerf sonuçları, Intel Xeon işlemcilerin kuruluşlara genel amaçlı sistemlerde
yapay zekâ dağıtımı için yaratıcı yetenekler sağladığını ve özel yapay zekâ sistemleri sunmanın maliyet ve karmaşıklığını bertaraf ettiğini kanıtlıyor. Büyük modelleri sıfırdan aralıklı olarak eğiten az sayıda müşteri, genel amaçlı CPU’ları ve genellikle işlerini yürütmek için zaten kullandıkları Intel tabanlı sunucuları kullanabilir. Ancak bunların çoğu, önceden eğitilmiş modelleri kullanacak ve kendi küçük veri setleriyle ince ayar yapacaktır. Intel daha önce, bu ince ayarın Intel AI yazılımı ve standart açık kaynak yazılımı kullanılarak yalnızca birkaç dakika içinde gerçekleştirilebileceğini gösteren sonuçlar yayınlamıştı.


MLPerf Sonuçlarında Öne Çıkan Hususlar:


Genellikle yapay zekâ performansı için en saygın ölçüt olarak kabul edilen MLPerf, çözümler arasında adil ve tekrarlanabilir performans karşılaştırması sağlar. Ayrıca 100 sunum kilometre taşının da ötesine geçen Intel, endüstri standardı derin öğrenme ekosistemi yazılımıyla halka açık CPU sonuçları sunan tek satıcı olmaya devam ediyor.
Bu sonuçlar, aynı zamanda Intel oneAPI tabanlı açık kaynaklı Intel® Ethernet Fabric Suite Yazılımını kullanan uygun maliyetli ve kolayca temin edilebilen Intel Ethernet 800 Serisi ağ adaptörleri kullanılarak mümkün olan mükemmel ölçeklendirme verimliliğini de vurguluyor.

Exit mobile version