AMD

AMD蘇姿豐談AI策略:與Intel、NVIDIA截然不同

Hot Chips 31本周在美國矽谷舉辦,兩款最大的晶片發布引人注意,分別是Cerebras最大的深度學習晶片WSE,還有賽靈思發布全球最大的FPGA。Intel發布的兩款AI晶片Nervana NNP-T/NNP-I同樣備受關注。

不過,AMD在Hot Chips期間並沒有獲得巨大的關注,這或許是因為在當今AI大熱的情況下,他們採用“觀望式”的AI策略。

Intel、AMD和NVIDIA如何預估AI市場?

NVIDIA預估,其數據中心和人工智慧潛在市場(TAM)到2023年將達到500億美元。這包括HPC(高性能計算),DLT(深度學習訓練)和DLI(深度學習推理)。

Intel估計,其DLT和DLI 潛在市場在2020年將達到460億美元。

AMD尚未發布任何關於深度學習潛在市場的預測,因為它更專注於從Intel和NVIDIA獲得市場份額。因此,也沒有看到AMD有專注於人工智慧的晶片。
不過,AMD首席執行官蘇姿豐表示,AMD正在努力成為人工智慧領域更重要的參與者。

蘇姿豐:CPU的局限性

任何計算性能的討論都始於摩爾定律,但摩爾定律正在放緩。摩爾定律指出,隨著晶片尺寸縮小和晶體管密度增加,計算性能將每兩年翻一偣。

在AnandTech Hot Chips 31的報道指出,蘇姿豐在主題演講中解釋說,AMD通過各種方式改善了CPU的性能,包括工藝制程、晶片面積、TDP(熱設計功耗)、電源管理、微體系結構和編譯器。

先進工藝制程的貢獻最大,這使得CPU的性能提升了40%。增加晶片尺寸也可以帶來兩位數性能的提升,但這不符合成本效益。

AMD通過微體系架構將EPYC Rome服務器CPU IPC(每個周期的指令)在單線程和多線程工作負載中分別提升了23%和15%。高於行業平均5%-8%的水平。上述所有方法在兩年半內都會使性能翻倍。

蘇姿豐:人工智慧所需的加速計算

蘇姿豐表示,一方面,摩爾定律正在放緩。另一方面,世界上最快的超級計算機的性能每1.2年翻一倍。這意味著過去十年的解決方案將失效。

該行業目前的需求是優化系統的各個部分,使其成為人工智慧工作負載的理想選擇。她解釋說,ASIC和FPGA的每瓦特性能最高,CPU最低,通用GPU在每瓦性能方面介於CPU和FPGA之間。

蘇姿豐指出,每個人工智慧工作負載都有不同的計算要求。互連技術是解決方案,因為它將不同的部分互連到同一個系統。她用以下例子解釋了這一點:

- NAMD(奈米級分子動力學)工作負載取決於GPU

- NLP(自然語言處理)工作負載在CPU、GPU、內存帶寬和連接性之間保持平衡

業界使用傳統方法提高了CPU和GPU的性能。蘇姿豐強調,業界應該通過關注互連,I/O、內存帶寬、軟體效率和軟硬件協同優化來提高性能。

AMD的AI策略

蘇姿豐表示,AMD已採用CPU / GPU /互連策略來挖掘人工智慧和HPC的機會。

她說,AMD將在Frontier超級計算機中使用其所有技術。該公司計劃為實現超級計算機全面優化其EYPC CPU和Radeon Instinct GPU。它將通過其Infinity Fabric總線技術進一步增強系統性能,並通過其ROCM(Radeon Open Compute)軟體工具解鎖性能。

與Intel和NVIDIA不同,AMD沒有專用的人工智慧晶片或專用的加速器。盡管如此,蘇還指出,“我們絕對會看到AMD在人工智慧方面是一個很重要的參與者。”

AMD正在考慮是否要建立一個專用的AI晶片,這一決定將取決於人工智慧如何發展。

蘇姿豐補充說,許多公司正在開發不同的人工智慧加速器,如ASIC、FPGA和張量(Tensor)加速器。這些晶片將縮小到最可持續的狀態,然後AMD將決定是否構建可以廣泛應用的加速器。

與此同時,AMD將與第三方加速器制造商合作,並通過其Infinity Fabric互連將其晶片與自己的CPU / GPU連接。這個策略類似於其光線跟蹤策略,NVIDIA去年推出了實時光線跟蹤,但AMD並沒有急於推出這項技術。

不過,蘇姿豐表示AMD將在生態系統完善並且該技術被廣泛採用的情況下引入光線跟蹤技術。

鑒於AMD是一個相對較小的玩家,與擁有充足資源的大型玩家競爭,上述策略具有經濟意義。

在已經建立的市場中分享份額可以減少因採用率低而導致產品失敗的風險,並保證最低的回報。

AMD AI戰略與Intel和NVIDIA戰略的不同 

AMD在開發AI晶片之前採用了觀望態度。他們現在做的,是利用其現有技術來滿足AI工作負載。

Intel開發了全面的技術,包括Xeon CPU、Optane內存、Altera FPGA和互連技術。也在開發獨立GPU Xe。

在Hot Chip 31中,Intel推出了專用於深度學習訓練和深度學習推理的Nervana AI晶片。Intel的晶片由自己生產,雖然這使Intel能夠更好地控制其技術,但需要大量的時間和資源。

NVIDIA的AI策略是提供通用GPU以及可用於任何AI應用程序的CUDA軟體支持。它還具有NVLink互連技術。英偉達正與合作夥伴共同探索人工智慧新市場。雖然這種策略需要大量研究並且有很高的失敗風險,但這些高風險也會帶來高回報。

消息來源

喜不喜歡這篇文章?留言給我們

Previous post

美股週五大跌:蘋果股價跌4.6%芯片股全面下挫

Next post

Wi-Fi 6 802.11ax 有多快?TP-Link Archer AX6000 實測|EP.26

The Author

janice

janice

想去感受年輕學子的青春與熱情嗎...?
專屬校園活動規劃與執行。