NVIDIA (NVDA) en yeni yapay zeka sistemi olan H200 GPU takviyeli HGX H200’ü tanıtarak yapay zeka alanındaki hakimiyetini göstermeye devam etti.
En yeni HGX H200 platformu, üretken yapay zeka ve yüksek performanslı bilgi süreç iş yükleri için büyük ölçüde datayı işlemek üzere gelişmiş belleğe sahip NVIDIA H200 Tensor Core GPU’ya sahip. Yeni HGX H200, NVIDIA’nın Hopper mimarisini temel alıyor.
H200, HPC iş yükleri için bilimsel hesaplamayı geliştirirken üretken yapay zeka ve büyük lisan modellerinin hızlandırılmasını sağlayan daha süratli ve daha büyük bellek olan HBM3e’yi sunan birinci GPU. HBM3e ile NVIDIA H200, saniyede 4,8 terabayt suratında 141 GB bellek sunarak selefi NVIDIA A100’e kıyasla neredeyse iki kat daha fazla kapasite ve 2,4 kat daha fazla bant genişliği sağlıyor.
NVIDIA hiper ölçek ve HPC lider yardımcısı Ian Buck, “Üretken yapay zeka ve HPC uygulamalarıyla zeka yaratmak için büyük ölçüde bilginin büyük, süratli GPU bellek kullanılarak yüksek süratte verimli bir formda işlenmesi gerekir.” Dedi.
“NVIDIA H200 ile kesimin başkan uçtan uca yapay zeka muhteşem bilgisayar platformu, dünyanın en değerli sıkıntılarından kimilerini çözmek için daha da hızlandı.”
NVIDIA, H200 dayanaklı sistemlerin sevkiyatına 2024’ün ikinci çeyreğinde başlamayı bekliyor.