Nvidia, yapay zeka modellerini eğitmek için en yeni üst düzey çipi olan H200’ü tanıttı
/span
Nvidia başkanı Jensen Huang, Computex 2023 sırasında Supermicro açılış sunumunda üretken yapay zeka için kullanılan Grace hazne süper çip CPU’yu tutuyor.
Walid Berrazeg – Türkiye | Işık roketi | Getty Images
Nvidia Pazartesi günü, üretken yapay zeka patlamasına güç veren yapay zeka modellerini eğitmek ve dağıtmak için tasarlanmış bir grafik işleme birimi olan H200’ü tanıttı.
Yeni GPU, OpenAI’nin en gelişmiş büyük dil modeli GPT-4’ü eğitmek için kullandığı çip olan H100’ün bir yükseltmesidir. /a/aBüyük şirketler, startup’lar ve devlet kurumlarının hepsi sınırlı bir çip tedariki için yarışıyor.
Raymond James’in bir tahminine göre, H100 yongalarının maliyeti 25.000 ila 40.000 dolar arasında değişiyor ve “eğitim” adı verilen bir süreçte en büyük modelleri oluşturmak için binlercesinin birlikte çalışması gerekiyor
.\”Nvidia’nın AI GPU’ları üzerindeki heyecan, şirketin 2023’te şimdiye kadar %230’dan fazla artan hissesini
p güçlendirdi. Nvidia mali üçüncü çeyreği için bir yıl öncesine göre %170 artışla yaklaşık 16 milyar dolar gelir bekliyor.
H200 ile ilgili en önemli gelişme, çipin “çıkarım” yapmasına yardımcı olacak 141 GB yeni nesil \ “HBM3 \” bellek içermesidir \ veya metin, resim veya tahminler oluşturmak için eğitildikten sonra büyük bir model kullanır.
Nvidia, H200’ün H100’den neredeyse iki kat daha hızlı çıktı üreteceğini söyledi. Bu, Meta\’s Llama 2 LLM.
2024’ün ikinci çeyreğinde piyasaya sürülmesi beklenen H200, AMD\’nin MI300X GPU’su ile rekabet edecek. /aAMD\’s yongası, H200’e benzer şekilde, öncekilere göre ek belleğe sahiptir ve bu da çıkarımı çalıştırmak için büyük modellerin donanıma sığdırılmasına yardımcı olur.
Sekiz GPU’lu bir Nvidia HGX sisteminde Nvidia H200 yongaları.
Nvidia Teknolojisi
Nvidia, H200’ün H100 ile uyumlu olacağını, yani önceki modelle zaten eğitim alan AI şirketlerinin yeni sürümü kullanmak için sunucu sistemlerini veya yazılımlarını değiştirmeleri gerekmeyeceğini söyledi.
Nvidia, şirketin HGX komple sistemlerinde dört GPU veya sekiz GPU sunucu yapılandırmalarında ve H200 GPU’yu Arm tabanlı işlemci.
Ancak H200, en hızlı Nvidia AI çipinin tacını uzun süre elinde tutmayabilir.
Nvidia gibi şirketler çiplerinin birçok farklı konfigürasyonunu sunarken, yeni yarı iletkenler, üreticiler bellek veya diğer küçük optimizasyonlar eklemekten daha önemli performans kazanımlarının kilidini açan farklı bir mimariye geçtiklerinde, genellikle her iki yılda bir ileriye doğru büyük bir adım atıyor. Hem H100 hem de H200, Nvidia’nın Hopper mimarisine dayanmaktadır.
Ekim ayında Nvidia, yatırımcılara GPU’larına olan yüksek talep nedeniyle iki yıllık bir mimari tempodan bir yıllık bir sürüm modeline geçeceğini söyledi. Şirket, yakında çıkacak olan Blackwell mimarisine dayalı B100 çipini 2024’te duyuracağını ve piyasaya süreceğini öne süren bir slayt gösterdi.
İZLE: Gelecek yıla girecek yapay zeka trendine büyük bir inancımız
var
Bu hikayeleri kaçırmayın\”ı CNBC PRO: