Nvidia (NASDAQ:NVDA (NASDAQ:NVDA)), Amazon.com (NASDAQ:AMZN), Alphabet (NASDAQ:GOOGL)’in Google’ı (NASDAQ:GOOGL) ve Oracle (NYSE:ORCL) ile işbirliği içinde önümüzdeki yıl geliştirilmiş versiyonunu piyasaya sürmeyi planladığı amiral gemisi yapay zeka (AI) çipi H200’de yapılan geliştirmeleri duyurdu. Çipin yükseltmeleri öncelikle yüksek bant genişliğine sahip belleğin artırılmasına odaklanarak daha büyük ölçüde datanın daha süratli işlenmesine imkan tanıyor.
Nvidia’nın mevcut en üst düzey H100 çipinin yerini alacak olan H200 çipi, daha büyük yapay zeka sistemlerinin muhtaçlıklarını karşılamak üzere tasarlandı. Yapay zeka çipi pazarında başkan bir oyuncu olan Nvidia, OpenAI’nin ChatGPT hizmeti de dahil olmak üzere bir dizi üretken yapay zeka hizmetine güç veriyor. Bu hizmetlerin, gelişmiş bellek kapasitesi ve çipin süreç elemanlarına daha süratli temas sağlaması nedeniyle H200’ün piyasaya sürülmesiyle sorgulara daha süratli cevap vermesi bekleniyor.
Yükseltilmiş çip, H100’de bulunan 80 gigabayttan değerli bir artışla 141 gigabayt yüksek bant genişliğine sahip belleğe sahip olacak. Nvidia H200 için bellek tedarikçilerini açıklamamış olsa da, Micron Technology (NASDAQ:MU) daha evvel Nvidia için bir tedarikçi olma niyetini belirtmişti. Buna ek olarak Nvidia, kısa mühlet evvel yapay zeka çiplerinin satışlarda tekrar canlanmaya katkıda bulunduğunu bildiren Güney Koreli SK Hynix’ten de bellek satın alıyor.
H200 çipi Amazon Web Services, Google Cloud, Microsoft’un (NASDAQ:MSFT) Azure ve Oracle Cloud Infrastructure üzere çeşitli bulut hizmeti sağlayıcıları aracılığıyla kullanıma sunulacak. Özel yapay zeka bulut sağlayıcıları CoreWeave, Lambda ve Vultr da H200 çiplerine erişim sunacak. Bu atağın yapay zeka hizmetlerinin performansını hızlandırması ve gelişen yapay zeka teknolojisi ortamına katkıda bulunması bekleniyor.
Reuters bu makaleye katkıda bulunmuştur.
Bu makale yapay zekanın takviyesiyle oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Kural ve Şartlar kısmımıza bakın.