Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
ZTE’nin Yeni Ürünü Nubia Music MWC 2024 Fuarında Tanıtıldı!
Bu gelişme, veri merkezleri ve yapay zeka algoritmalarının performansını artırırken, daha karmaşık hesaplamaların daha kısa sürede yapılabilmesine olanak tanıyor. Samsung’un HBM3E 12H DRAM’ı ile yüksek bant genişliği belleği (HBM) alanında yeni bir dönem başlıyor. HBM, yüksek bant genişliğine ihtiyaç duyan uygulamalar için tasarlanmış bir bellek türüdür ve Samsung bu alanda önemli bir yenilik yapıyor. Ekim ayında, üçüncü nesil HBM’nin geliştirilmiş bir versiyonu olan HBM3E Shinebolt’u tanıtan Samsung, bu teknolojiyle pin başına 9. 8Gbps hıza ve tüm paket için 1. 2 terabyte saniyelik bir bant genişliğine ulaştı. 12H, her modülde dikey olarak üst üste konulan çip sayısını ifade ediyor.
Bu durumda 12 çip bir araya getirilmiş. Bu yöntem, bir modülde daha fazla bellek sığdırmanın bir yolunu sunuyor ve Samsung 12H tasarımıyla 36GB kapasiteye, yani 8H tasarımına göre %50 daha fazla belleğe ulaşıyor. Bant genişliği ise 1. 2 terabyte saniyede sabit kalıyor. TC NCF ise Isıl Sıkıştırma İletken Olmayan Film anlamına geliyor ve çipler arasına yerleştirilen malzemeyi ifade ediyor. Samsung, bu malzemeyi daha ince bir hale getirerek, şimdi 7µm kalınlığında bir yapıya indirdi. Böylece 12H yığını, 8H yığını ile aynı yükseklikte olabiliyor ve aynı HBM ambalajının kullanılmasına olanak tanıyor. TCNCF’nin bir başka avantajı ise, ısı özelliklerini iyileştirerek soğutmayı da geliştirmesi. Dahası, bu yeni HBM3E 12H DRAM’da kullanılan yöntem, aynı zamanda verimliliği de artırıyor. Peki, bu gelişmiş bellek teknolojisi nerede kullanılacak? Cevap vermemize gerek yok; yapay zeka günümüzün en popüler konularından biri. Gerçekten de, yapay zeka gibi uygulamalar, yüksek miktarda RAM gerektiriyor.
Geçen yıl Nvidia, yüksek bant genişliği belleği tedarikçileri listesine Samsung’u ekledi ve şirket, tüketiciye yönelik grafik kartlarından çok daha yüksek performans sunan bazı inanılmaz tasarımlar geliştiriyor. Örneğin, Nvidia’nın H200 Tensor Core GPU’su, toplamda 4. 8 terabyte saniyelik bir hıza sahip 141GB HBM3E belleğe sahip. Bu, GDDR ile çalışan tüketiciye yönelik bir grafik kartından çok daha yüksektir. Raporlara göre, H200, toplamda 144GB olan ancak kullanılabilir haliyle 141GB olan altı adet 24GB HBM3E 8H modülü kullanıyor. Aynı kapasite, sadece dört 12H modülü ile sağlanabilirken; alternatif olarak, altı 12H modülü ile 216GB kapasiteye ulaşılabilir.
Samsung’un tahminlerine göre, yeni 12H tasarımının ek kapasitesi, yapay zeka eğitimini %34 hızlandıracak ve çıkarım hizmetlerinin “11,5 kat daha fazla” kullanıcıyı idare etmesine olanak tanıyacak. Yapay zeka patlaması, H200 gibi hızlandırıcıları yüksek talepte tutacak, böylece bellek tedarikçisi olmak kârlı bir iş haline geliyor. Bu nedenle Micron, Samsung ve SK Hynix gibi şirketlerin bu pastadan pay almak istemeleri şaşırtıcı değil.
Yorum Yaz