NVIDIA HGX-2 平臺專為新一代人工智能設計,擁有 16個Tesla V100圖形處理單元(GPU),NVSwitch則利用超過 80,000個Cuda核心,為深度學習和計算工作負載,提供無與倫比的強大性能
新的超級服務器 運算速度達到 2 Petaflops,是全球最為強大的人工智能和高性能計算云服務器平臺
NVIDIA HGX-2 平臺專為新一代人工智能設計,擁有 16個Tesla V100圖形處理單元(GPU),NVSwitch則利用超過 80,000個Cuda核心,為深度學習和計算工作負載,提供無與倫比的強大性能
企業計算、存儲和網絡解決方案以及綠色計算技術領域的全球領導者美超微電腦股份有限公司(Super Micro Computer, Inc.) (NASDAQ: SMCI)今天宣布,該公司成為首批采用NVIDIA?(英偉達)HGX-2云服務器平臺來開發全球最強大的人工智能(AI)和高性能計算(HPC)系統的公司之一。
美超微總裁兼首席執行官梁見后(Charles Liang)表示:“為了幫助應對快速擴大的人工智能模型的規模 -- 有些模型幾周就要培訓出來,美超微正在開發基于HGX-2平臺、將讓性能提升一倍有余的云服務器。HGX-2系統將會支持對復雜模型進行高效訓練。它能夠借助NVLink和NVSwitch,將16個互聯Tesla V100 32GB SXM3 GPU結合到一起,作為一個統一、運算速度達到2 Petaflops(每秒千萬億次)的加速器來開展工作,內存總量達到0.5太字節,提供前所未有的強大計算能力。”
從計算機自然語言到自動駕駛汽車,人工智能方面的快速發展已經讓各行各業都發生了轉變。為了支持這些能力,人工智能模型在規模上也呈爆炸性發展。在釋放新的科學觀點之際,高性能計算應用在復雜程度上面也呈現類似的發展態勢。
美超微基于HGX-2的系統將能為數據中心提供超集設計,加速人工智能和高性能計算在云端上的發展。在經過調整優化以后,美超微的HGX-2服務器將能為快速模型訓練,提供最高水平的計算性能和內存。
NVIDIA副總裁、加速計算部門總經理伊恩 - 巴克(Ian Buck)說:“人工智能模型在復雜程度和規模方面均呈爆炸性發展態勢,因此研究人員和數據科學家需要達到新層次的GPU加速計算。HGX-2能夠支持為以更快的速度培訓先進人工智能處理這些巨大的新模型,同時也能在數據中心中節省大量成本、空間和能源。”