NVIDIA

Google Cloud 與 NVIDIA 擴展合作夥伴關係,推動人工智慧運算、軟體和服務的進步

Google Cloud 與 NVIDIA 宣布推出新的人工智慧基礎架構和軟體,提供客戶建立和部署大規模的生成式人工智慧模型,並加速資料科學工作負載。

在 Google Cloud Next 的一場爐邊對談中,Google Cloud 執行長 Thomas Kurian 與 NVIDIA 創辦人暨執行長黃仁勳討論了這個合作夥伴關係如何將端到端的機器學習服務帶給全球最大型的人工智慧客戶,包括在基於 NVIDIA 技術建構的 Google Cloud 服務中,使運行人工智慧超級電腦變得更加容易。新的軟硬體整合使用了過去兩年來 Google DeepMind 和 Google 研究團隊所使用的相同 NVIDIA 技術。

 

NVIDIA的整合加速人工智慧和資料科學開發

Google 用於建立大型語言模型(LLM)的框架 PaxML,現已經優化以支援 NVIDIA 加速運算。

PaxML 最初是為了跨越多個 Google TPU 加速器切片而構建的,現在使開發人員能夠使用 NVIDIA® H100A100 Tensor Core GPU 進行先進且完全可配置的實驗和規模。NVIDIA NGC™軟體目錄中即刻起提供 GPU 優化的 PaxML 容器。 此外,PaxML 在 JAX 上運行,JAX 已針對利用 OpenXLA 編譯器的 GPU 進行了優化。

Google DeepMind 和其他 Google 研究人員是首批使用 PaxML 與 NVIDIA GPU 進行探索性研究的團隊。

NVIDIA NGC 容器登錄服務中將立即提供用於PaxML的NVIDIA優化容器,提供全球正在構建新一代人工智慧應用的研究人員、新創公司和企業使用。

此外,兩家公司還宣布 Google 透過 Google Dataproc 服務將無伺服器 Spark 與NVIDIA GPU整合。這將幫助資料科學家加速 Apache Spark 的工作負載,以準備進行人工智慧開發所需的資料。

這些新的整合是 NVIDIA 和 Google 廣泛合作歷史中最新的進展。雙方發布多項軟硬體產品,包括:

  • Google Cloud將在由NVIDIA H100提供動力的A3虛擬機器上運行 — Google Cloud今天宣布其以NVIDIA H100 GPU提供動力、專門構建的Google Cloud A3虛擬機器將在下個月正式推出,使NVIDIA人工智慧平台更易用於廣泛的工作負載。與前一代相比,A3虛擬機器的訓練速度提高了3倍,網路頻寬也有顯著的提升。
  • NVIDIA H100 GPU Google Cloud Vertex 人工智慧平台提供動力 — 預計未來幾週內,在 VertexAI上將普遍可用H100 GPU ,使客戶能夠快速開發生成式人工智慧大型語言模型。
  • Google Cloud將可使用NVIDIA DGX™ GH200 — Google Cloud將成為世界上首批能夠使用NVIDIA DGX GH200 人工智慧超級電腦的公司之一,該超級電腦搭載了NVIDIA Grace Hopper™ 超級晶片,可用於探索其在生成式人工智慧工作負載方面的能力。
  • NVIDIA DGX Cloud將於Google Cloud上運行NVIDIA DGX Cloud 人工智慧超級運算和軟體將可供客戶直接從網頁瀏覽器中使用,以提供高速和大規模的進階訓練工作負載。
  • Google Cloud Marketplace上提供NVIDIA AI Enterprise — 使用者能使用NVIDIA AI Enterprise,它是一個安全的雲端原生軟體平台,可簡化開發和部署企業級應用程式,包括生成式人工智慧、語音人工智慧、電腦視覺等等。
  • Google Cloud率先提供NVIDIA L4 GPU — 今年稍早,Google Cloud隨著G2 虛擬機器的推出,成為首家提供NVIDIA L4 Tensor Core GPU的雲端服務供應商。當客戶從CPU切換至L4 GPU以處理人工智慧影片工作負載,可提升高達120倍的效能、效率提升99%。L4 GPU廣泛用於影像和文字的生成,以及虛擬桌面基礎架構( VDI )和人工智慧加速的音訊/影片轉碼。
延伸影片閱讀:  
Previous post

報告預計玩家今年遊戲支出1910億美元:手遊佔比過半

Next post

網傳 Zenfone 手機停產消息,華碩官網聲明回應

The Author

sinchen

sinchen

我是 Sinchen。