Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
DDoS saldırıları giderek daha büyük ve daha güçlü hale geliyor ve bu gerçekten kötü bir şey
AMD, üretici yapay zeka sistemlerine güç veren bileşenleri üretme konusunda Nvidia’yı sektör lideri olmaktan çıkarmak için yüksek bant genişlikli bellekteki (HBM) gelişmelere güvenecek.
AMD’nin sahibi olduğu Xilinx, bellek içinde işlemci (PIM) temasını temel alarak, her bir FPGA’nın sekiz adet bellek içinde hızlandırıcı (AiM) modülüne sahip olduğu Virtex XCVU7P kartını sergiledi. Serve the Home’a göre firma bunu OCP Summit 2023’te SK Hynix’in HBM3E bellek birimiyle birlikte sergiledi.
Esasen, hesaplama işlemlerini doğrudan bellekte gerçekleştirerek, verilerin sistemlerdeki bileşenler arasında hareket etmesi gerekmeyecek, bu da performansın artacağı ve genel sistemin daha enerji verimli hale geleceği anlamına geliyor. SK Hynix’in AiM’i ile PIM kullanımı, yapay zeka çıkarım iş yüklerinde on kat daha kısa sunucu gecikmesi, beş kat daha düşük enerji tüketimi ve yarı yarıya maliyet sağladı.
Devam eden yapay zeka silahlanma yarışında son viraj
Nvidia ve AMD kendi aralarında en iyi GPU’ların çoğunu üretiyor ve bu bileşenlerin kalitesini artırma çabalarının yapay zeka performansını artırmanın anahtarı olduğu varsayılabilir. Ancak aslında bu firmalar, işlem ve bellek arasındaki ilişkiyle oynayarak güç ve verimlilikte elde edilebilecek büyük avantajlar olduğunu görüyorlar.
Nvidia ayrıca HBM teknolojisini, piyasadaki en iyi grafik kartları arasında yer alan A100, H100 ve GH200 de dahil olmak üzere kendi GPU serisine dahil etme planlarıyla da hızla ilerliyor. Örneğin, HBM3 bellek teknolojisini GPU’larına dahil etmek için geçen ay Samsung ile bir anlaşma yaptı ve muhtemelen bunu yeni HBM3e birimlerini de kapsayacak şekilde genişletecek.
PIM son aylarda birçok şirketin peşine düştüğü bir konu oldu. Örneğin Samsung, Eylül ayında işleme-yakın-bellek (PNM) teknolojisini sergiledi. CXL-PNM modülü 1,1TB/s’ye kadar bant genişliğine sahip 512GB’lık bir kart.
Bu, AMD ile işbirliği içinde yapılan bir HBM-PIM kart prototipini takip ediyor. Böyle bir kartın eklenmesi, mevcut GPU hızlandırıcılarına kıyasla performansı %2,6 oranında artırırken enerji verimliliğini de %2,7 oranında yükseltti.
Daha fazla bülten için;
Instagram başkanı Threads API’sinin çalışmalarda olduğunu söyledi
Yorum Yaz