蘋果自研AI模型難產:改用第三方大語言模型
據媒體報道,蘋果可能會跟OpenAI或Anthropic合作,雙方正在談判討論一項潛在交易,蘋果希望調用OpenAI或Anthropic的第三方大語言模型來為Siri提供技術支援。
據悉,OpenAI或Anthropic正在訓練適配蘋果私有雲運算伺服器的模型,蘋果也在進行測試,目前蘋果發現Anthropic的AI模型最適合Siri,且與Anthropic初步討論了一些財務條款,消息稱Anthropic要求蘋果每年支付數十億美元的費用,且該費用會隨時間的推移也是
蘋果一直在為Siri訓練大語言模型,但蘋果在AI領域苦苦掙扎,這早已不是行業秘密,此前在2024年6月的全球開發者大會(WWDC)主題演講中,蘋果提前展示了Siri的幾項新功能,並在iPhone 16系列的宣傳片中強調了這些功能,但最終未能兌現。
今年3月,蘋果宣布將Apple Intelligence相關的Siri功能推遲至2026年,這引發了用戶不滿並導致多起訴訟,蘋果計劃在iOS 26.4中推出這些功能。
值得注意的是,蘋果為Siri開發大型語言模型(LLM)的工作與iOS 26中的個人化Siri功能相互獨立,LLM版Siri將在後續更新上線,可能要等到明年的iOS 27才會亮相。
與Anthropic或OpenAI合作,將使蘋果在開發自有AI模型的同時,仍能提供用戶期待的個人化AI功能,事實上,蘋果已與OpenAI合作將ChatGPT整合到Siri中,iOS 18用戶已能透過Siri將請求轉發給ChatGPT以獲取更詳細的答案。
延伸影片閱讀: