擺脫依賴NVIDIA OpenAI首次轉向使用Google晶片
近日,外媒引述知情人士消息,OpenAI近期已開始租用Google的張量處理單元(Tensor Processing Unit),為旗下ChatGPT等熱門產品提供算力支援。
於此之前,OpenAI一直是NVIDIA繪圖處理器(GPU)的重要大客戶,長期以來依賴NVIDIA的AI晶片進行模型訓練及推理運算工作。NVIDIA的GPU憑藉其強大的效能,於AI板塊佔據主導地位,成為許多科技企業進行AI研發的首選。
然而,此次OpenAI租用Google的TPU,代表著其首次實質地使用非NVIDIA晶片,此一轉變不僅顯示出OpenAI正逐步擺脫對微軟資料中心的深度依賴,更反應出其於算力布局上的策略調整。OpenAI的此項決定,可能會顯著提升Google TPU作為NVIDIA GPU成本效益替代方案的知名度。
隨著AI技術的快速發展,算力成本成為許多企業關注的焦點,Google TPU若能於效能與成本上展現優勢,可望於AI晶片市場中分得一杯羹,打破NVIDIA GPU一家獨大的局面。
但是,目前OpenAI對Google TPU的具體使用情況仍不明朗,尚不清楚是否會將Google晶片用於模型訓練,還是僅將其侷限於推理工作負載。
於競爭日益激烈、資源限制不斷加深的背景下,混合使用不同晶片的基礎設施或許能為OpenAI的業務拓展提供新的彈性。
值得一提的是,之前即曾有新聞報導指稱,OpenAI透過Google雲端租用TPU,是希望藉助該處理器降低推理運算的成本。但鑑於Google與OpenAI於AI領域存在競爭關係,Google並未將最強大的TPU租給OpenAI,此一細節亦突顯了雙方於合作上的微妙博弈。
就Google而言,此次與OpenAI的交易恰逢其擴大TPU對外銷售的關鍵時期。
過去,此些晶片主要供Google內部使用,如今Google積極拓展外部市場,此項策略已初見成效,不僅贏得了蘋果這樣的科技巨頭客戶,亦吸引了Anthropic、Safe Superintelligence等新創公司的青睞。