Ne arayalım?

ARAMIZA KATILIN

BİZE ULAŞIN

Adres:

E-posta:

host/bin/bilisimlife.dll

iletisim@bilisimlife.net

Nvidia, HGX-2 Sunucu Platformunda AI ve HPC Işlemlerini Birleştirmeyi Amaçlıyor 249249 GÖRÜNTÜLEME

1.6.2018

Donanım

Rserit

Veri merkezi sunucu üreticileri, yıl sonuna kadar sistemlerini göndereceklerini söylüyor.
Nvidia, hem AI hem de yüksek performanslı bilgi işlem (HPC) iş yükü gereksinimlerini karşılamak için 16 Tesla V100 Tensor Core GPU'ların gücünü kullanacak şekilde tasarlanan yeni bir sunucu platformu olan HGX-2 ile veri merkezi performansı ve verimliliğini arttırıyor.

Veri merkezi sunucu üreticileri Lenovo, Supermicro, Wiwynn ve QCT, yılın sonunda HGX-2 sistemlerini göndereceklerini söyledi. HGX-2 sistemleri için en büyük müşterilerden bazıları hiperscale sağlayıcılarıdır, bu yüzden Foxconn, Inventec, Quanta ve Wistron'un da bulut veri merkezleri için yeni platformu kullanan sunucular üretmesi beklenmiyor.

HGX-2, Tesla GPU'ları NVSwitch ara bağlantı kumaşı üzerinden bağlayan iki GPU süpürge kullanılarak üretilmiştir. HGX-2 süpürgelikleri, toplamda 16 GPU için 8 işlemciyi idare eder. Bir yıl önce açıklanan HGX-1, sadece 8 GPU'yu ele aldı.

Nvidia, HGX-2'yi sunucu yapıcılarının farklı görevlere ayarlanabilen sistemler oluşturabileceği bir "yapı taşı" olarak tanımlar. Nvidia'nın yaklaşan DGX-2'nin temel aldığı aynı sistemler platformudur. Buradaki haber, şirketin platformun bir referans mimarisiyle birlikte sunucu üreticilerine sunmasını sağlamak ve böylece sistemlerin yıl sonuna kadar sevkiyat yapabilmesi.

Nvidia, iki ay önce, teknoloji konferansının San Jose iterasyonunda, geminin ilk HGX-2 tabanlı sistemi olması beklenen DGX-2'nin, genellikle bilgisayarla ilişkili iki petaflop bilgisayar gücü sunabileceğini söyledi. yüzlerce kümelenmiş sunucu. DGX-2 sistemleri 399.000$ 'dan başlıyor.

Nvidia, HGX-2 test sistemlerinin ResNet-50 eğitim kriterlerinde saniyede 15.500 görüntü kaydetme hızına ulaştığını ve yalnızca milyonlarca dolarlık maliyete mal olacak 300'e kadar CPU-sadece sunucuların yerini alabildiğini söyledi.

GPU'lar, makine öğrenimi uygulamaları için temel olarak nöral ağ modellerini oluşturan eğitim veri setlerinde bir niş buldular. GPU'ların büyük ölçüde paralel mimarisi, onları AI eğitimi için özellikle uygun hale getirir.

HGX-2'nin satış noktası, hem AI eğitimi hem de çıkarım için yapılandırılabilir olmasıdır: aslında gerçek yaşam koşullarında kullanmak için sinir ağlarını koymak. HGX-2 ayrıca bilimsel hesaplama, görüntü ve video oluşturma ve simülasyonlar için HPC uygulamalarını hedefler.

Kharya, FP16 (16-bit veya yarı-hassas kayan nokta aritmetiği) ve Int8 sunarken, platformun bilimsel hesaplama ve simülasyonlar için FP64'e (64-bit veya çift-duyarlıklı kayan noktalı aritmetik) kadar yüksek hassasiyetli hesaplamalara izin verdiğini söyledi.

Her bir HGX-2 platformundaki iki bileşen, 48 adet NVLink portu üzerinden haberleşir. Nvidia, topolojinin her bir GPU'nun (her bir anakartta sekiz adet) diğer NVU'larla eşzamanlı olarak 300 GB / sn'lik tam NVLink hızında iletişim kurmasını sağlıyor.

Nvidia ayrıca, her biri CPU'lar için çift Xeon işlemcileri kullanan, ancak farklı GPU çekirdek sayıları olan ve çeşitli AI ve HPC ihtiyaçları için farklı şekilde yapılandırılmış sekiz adet GPU hızlandırmalı sunucu platformu sunduğunu duyurdu. Yüksek uçta, Nvidia'nın HGX-T2'si, 16 Tesla V100 GPU'lu HGX-2'ye dayanıyor ve dev çok seviyeli makine öğrenme sinir ağlarını eğitmek için ayarlanmış. Düşük uçta, Nvidia SCIE-E1'i, PCIE ara bağlantı teknolojisini içeren iki Tesla V100 GPU'yu sunuyor; Bu sistemler 1,200 watt çekiyor ve giriş seviyesi HPC hesaplamayı hedefliyor.

Nvidia terminolojisinde, HGX-T sistemleri AI eğitimi içindir, HGX-I sistemleri AI çıkarımı içindir ve SCX sistemleri HPC ve bilimsel hesaplama içindir.

Nvidia'nın, AI iş yüklerini hedef alan GPU'lar için pazarda sağlam bir tutumu var, ancak artan rekabetle karşı karşıya kalması bekleniyor. Intel, 2016 yılında derinlemesine öğrenme başlatılan Nervana Systems'ı satın aldı ve şimdi Intel Nervana Sinir Ağı Işlemcisi (NNP) adını verdiği çalışmalarla ilgili çalışmaları tamamladı. Buna ek olarak, Xylinx gibi FPGA üreticileri, AI çıkarımı için tersine çevrilmiş olan daha güçlü FPGA'lar sunuyor.

FPGA'lar, AI eğitimi için GPU'larla rekabet edebilecek brüt performans gücüne sahip olmasalar da, bir kez oluşturulduktan sonra, bu katman için uygun olan en düşük hassasiyetle, bir sinir ağının her seviyesini, çıkarım için ideal olan bir esneklikle işlemek üzere programlanabilirler.

Kaynak: Network World

BİR YORUM YAZIN


BENZER HABERLER