Mevcut AI hesaplamalarında, veriler işlem yapılan bileşenler (mantık) ile verilerin saklandığı (bellek/depolama) arasında taşınır. Bu sürekli bilgi alışverişi, hesaplamada kullanılan enerjinin 200 katına kadar enerji tüketimine neden olabilir.
Araştırmacılar, bu sorunu çözmek için Computational Random-Access Memory (CRAM) teknolojisine yöneldiler. Araştırma ekibinin geliştirdiği CRAM, bellek hücrelerinin içinde yüksek yoğunluklu, yeniden yapılandırılabilir spintronic bellek içi hesaplama alt tabakası yerleştiriyor.
Bu, mevcut bellek içi işlem çözümlerinden, örneğin Samsung’un PIM teknolojisinden farklıdır; çünkü Samsung‘un çözümü, bellek çekirdeği içinde bir işlemci ünitesi (PCU) yerleştirir. Veriler hala bellek hücrelerinden PCU’ya ve geri dönmek zorunda, ancak mesafe o kadar uzun değil. CRAM kullanarak veriler bellekten hiç çıkmaz, bunun yerine tamamen bilgisayarın bellek dizisi içinde işlenir.
Araştırma ekibine göre bu, AI hesaplama uygulamasını çalıştıran sistemin enerji tüketiminde “son teknoloji bir çözüme göre 1.000 katlık bir iyileşme” sağlar.
Diğer örnekler, daha büyük enerji tasarrufları ve daha hızlı işlem potansiyelini gösteriyor. Bir testte, MNIST el yazısı rakam sınıflandırıcı görevini gerçekleştirirken CRAM, 16nm teknoloji düğümünü kullanan yakın bellek işleme sistemine göre 2.500 kat daha enerji verimli ve 1.700 kat daha hızlı olduğunu kanıtladı. Bu görev, AI sistemlerinin el yazısını tanıması için kullanılıyor.
Bu tür çalışmaların önemi abartılamaz. Son raporlar, AI iş yüklerinin 2021’de tüm Kıbrıs nüfusunun tükettiği kadar elektrik tükettiğini öne sürüyor. 2023’te toplam enerji tüketimi 4.3 GW olarak gerçekleşti ve önümüzdeki yıllarda %26 ile %36 arasında bir oranla büyümesi bekleniyor. Arm CEO’su, 2030 yılına kadar AI’ın ABD’de üretilen tüm enerjinin dörtte birini tüketebileceğini öne sürdü.