圖/Shutterstock
放大鏡短評
蘋果(AAPL)為了有效訓練自家 AI 系統 Apple Intelligence,向 Google (GOOGL) 租用擅長訓練深度學習模型的 TPU 晶片,在 Google 的 Cloud TPU clusters 上進行訓練。蘋果選擇 TPU 而非輝達 (NVDA) 晶片的原因可能在於:Google 的 TPU 非常適合大規模的深度學習任務,符合蘋果的訓練需求。另外,由於輝達的 GPU 需求過大且供應緊張,價格昂貴,而 Google 的雲端 TPU 服務提供靈活的租用模式,成本較低。這使得蘋果可以根據需求靈活擴展訓練基礎設施,更有效地管理資源,避免過度投資硬體設施。
其實 Google 的 TPU 租借服務過往已經向多個公司和研究機構提供,包括 OpenAI、Lyft (LYFT)、Airbnb (ABNB)、Zymergen 和 Recursion Pharmaceuticals (RXRX) 等。那麼未來 Google 的 TPU 會動搖輝達的晶片市場龍頭地位嗎?答案可能是機率不高,因為 Google 的 TPU 針對特定的深度學習和機器學習任務具有優勢,而輝達的 GPU 則在更廣泛的應用場景中具有優勢,兩者各據山頭。隨著 AI 和機器學習的快速發展,TPU 和 GPU 將根據市場需求共存並互補,各自擁有不同的用戶群體和應用場景。博通(AVGO)作為 Google TPU 的合作夥伴,也有望受到提振。
新聞資訊
Apple 使用 Google 晶片進行 AI 模型訓練
Apple 在週一發表的技術報告中透露,其 AI 系統 Apple Intelligence 的兩個模型在雲端使用 Google 設計的晶片進行預訓練。報告詳細說明 Apple 使用 Google 的 Tensor Processing Unit(TPU)來訓練其 AI 模型,並同時推出了 Apple Intelligence 的預覽版本。
Google TPU 的用途是什麼?
TPU(張量處理單元)是由 Google 設計的專用晶片,專門用於加速機器學習任務,特別是深度學習模型的訓練和推理。TPU 常用於 Google Cloud 平台,可供開發者租用,用於大規模機器學習項目,具有高效、低功耗的特點。
Apple 在報告中提到,AFM on-device 使用了 2048 個 TPU v5p 晶片進行訓練,而 AFM-server 則使用了 8192 個 TPU v4 晶片。Google 的 TPU 自 2015 年起開始內部使用, 2017 年向公眾開放,成為最成熟的 AI 定製晶片之一,預訂三年後每小時成本低於 2 美元。
Apple Intelligence 的發展和未來計劃
Apple 在今年6月10日的 WWDC2024 首次公開 Apple Intelligence ,昨日(29日)釋出第一個版本系統,包含 Siri 的全新外觀、更好的自然語言處理和 AI 生成的文本摘要等功能。未來一年,Apple 計劃推出基於生成式 AI 的新功能,包括圖像生成、表情符號生成和升級版的 Siri。
晶片市場動態:Nvidia GPU目前主導中
Nvidia 的 GPU 目前主導高端 AI 訓練晶片市場,但需求量巨大且供應有限。包括 OpenAI、Microsoft 和 Anthropic 在內的公司依賴 Nvidia 的 GPU,而 Google、Meta、Oracle 和 Tesla 也在大量購買這些晶片來構建 AI 系統。Meta CEO Mark Zuckerberg 和 Alphabet CEO Sundar Pichai 最近表示,儘管 AI 基礎設施的投資可能過度,但不這樣做的風險更高。
Apple 的 AI 模型訓練計畫
Apple 表示,部分預訓練 AI 模型的推論將在其數據中心內使用自家晶片進行。這是 Apple 公佈的第二篇有關其 AI 系統的技術報告。Apple 預計將在週四收盤後公佈季度財報。
延伸閱讀:
【美股新聞】Google 面臨威脅,SearchGPT 將開啟搜尋市場新時代?!
【美股新聞】蘋果股價創新高,分析師因AI和印度市場前景上調目標價
【美股新聞】三星產品發表會秀AI功能,穿戴裝置新陣容挑戰蘋果
【美股新聞】OpenAI 推出搜尋引擎 SearchGPT,對 Google 有什麼影響?
【美股研究報告】Google 24Q2駕著AI赤兔馳騁沙場,股價退潮卻是黃金浮現?
版權聲明
本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訴諸法律途徑。
免責宣言
本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。