NVIDIA

NVIDIA推出第二代DGX Station A100 AI伺服器,包含更新採用的80GB A100 Tensor Core GPU

NVIDIA剛剛宣布了基於Ampere A100 Tensor Core GPU的第二代DGX Station AI伺服器。DGX Station A100擁有兩種配置,並具有經過更新的A100 Tensor Core CPU,可提供雙倍的記憶體和AI等級的數位觸發器功能。

NVIDIA DGX Station A100主要針對AI市場,可為世界各地的公司辦公室,研究機構,實驗室或家庭辦公室提高機器學習和數據科學性能。根據NVIDIA的說法,DGX Station A100被設計為專用於AI研究中最快的伺服器。

根據規格NVIDIA DGX Station A100總共由四個A100 Tensor Core GPU提供支援。這些不僅是A100 GPU,因為NVIDIA更新了原始規格,可容納兩倍的記憶體。DGX Station A100中的NVIDIA A100 Tensor Core GPU隨附80GB的HBM2e記憶體,是原始A100的兩倍。這意味著DGX Station總共擁有320GB的總可用容量,同時完全支援MIG(多實例GPU協議)和第三代NVLink支援,在任何GPU對之間提供200GB/s的雙向頻寬,並且互連速度提高了3倍速度比PCIe Gen 4還高。其餘的A100 Tensor Core GPU規格保持不變。

該系統本身包含一個AMD EPYC Rome 64核處理器,擁有完全的PCIe Gen 4支援,高達512GB的專用系統記憶體,用於系統的1.92TB NVME M.2 SSD儲存和最多7.68TB的NVME U.2 SSD儲存。為了實現連接,系統帶有2個10 GbE LAN控制器和一個用於遠程管理的1GbE LAN。顯示輸出通過獨立的DGX顯示卡提供,該卡提供4個DisplayPort輸出,最高支援4K分辨率。AIC擁有自己的主動散熱解決方案。

談到散熱解決方案,DGX Station A100將A100 GPU放在在機殼的背面。所有四個GPU和CPU均配有制冷散熱系統,該系統低噪音且無需維護。散熱器的壓縮機位於DGX機殼內。

 

在性能方面DGX Station A100提供2.5 Petaflops的AI培訓能力和5 PetaOPS的INT8推理能力。DGX Station A100也是同類中唯一支援MIG(多實例GPU)協議的工作站,它允許用戶分割單個GPU,從而可以更快,更高效地執行同時工作負載。

 

與原始DGX Station相比,新版本在訓練性能上提高了3.17倍,在推理性能上提高了4.35倍,在針對HPC的工作負載上提高了1.85倍。NVIDIA還更新了其DGX A100系統,使其也擁有80 GB A100 Tensor Core GPU。這些使NVIDIA的培訓性能比標準320GB DGX A100系統快了3倍,推理性能提高了25%,數據分析性能提高了2倍。

NVIDIA宣布DGX Station A100和NVIDIA DGX A100 640 GB系統將在本季透過NVIDIA全球合作夥伴網絡經銷商發售。該公司還將為DGX A100 320GB系統所有者提供升級選項,以升級到擁有八個80 GB A100 Tensor Core GPU的640GB DGX版本。NVIDIA尚未提供有關系統價格的任何訊息。

消息來源

Previous post

AMD官方推出Instinct MI100 32 GB HPC加速器,是採用CDNA架構的世界上最快的HPC GPU

Next post

可跨越不同架構並加速XPU的 Intel oneAPI開發工具 1.0 完成版將於12月推出

The Author

Ted_chuang

Ted_chuang