圖/Shutterstock
放大鏡短評
AMD(AMD)在Computex 2024上的一系列發布展示了其在AI和HPC領域的領先地位和創新能力。其本次發布的Instinct MI325X性能較H200優異,甚至可以與B100/B200加速器競爭。雖然AMD仍須面臨要求現有使用者從Nvidia的CUDA語言轉用由英特爾(INTC)、高通(QCOM)主推的SYCL(Single-source C++-based Heterogeneous Programming for OpenCL)。SYCL同時編譯CPU與GPU的優勢以及快速成長的生態在未來有機會瓜分Nvidia現有市場。
新聞資訊
MI325X AI加速器登場
AMD在Computex 2024上發布了多項重要公告,包括全新Instinct MI325X加速器,該產品將於2024年第四季度上市。此外,基於CDNA4架構的MI350系列將於明年推出,並計劃在2026年推出全新的CDNA ‘Next’架構的MI400系列產品。
年度發布計劃
AMD更新的產品路線圖承諾每年發布新產品,確保AI和高性能計算(HPC)性能的持續提升,包括增強的指令集和更高的記憶體容量和帶寬。
MI325X技術規格
即將於2024年第四季度推出的AMD Instinct MI325X將配備高達288GB的HBM3E記憶體,記憶體帶寬達到6 TB/s。根據AMD的說法,MI325X在推理性能和令牌生成方面比Nvidia的H100提高了1.3倍。值得注意的是,MI325X將與Nvidia的H200甚至B100/B200加速器競爭。
未來產品計劃
MI350系列基於AMD CDNA 4架構,預計將於2025年推出。這一系列承諾在AI推理性能方面比目前的MI300系列提高35倍。Instinct MI350系列將採用3nm級別的製程技術,支持新數據格式(FP4和FP6)和指令,以提升AI性能和效率。
ROCm 6軟件堆疊
AMD表示,AMD ROCm 6軟件堆疊在最大化MI300X加速器性能方面發揮了關鍵作用。根據AMD的基準測試,使用八個MI300X加速器的系統在Meta Llama-3 70B模型推理和令牌生成方面比Nvidia的H100快1.3倍。單個MI300X加速器在Mistral-7B模型任務中的性能也優於競爭對手,快1.2倍。
市場採用加速
雲服務提供商和系統整合商對AMD Instinct MI200和MI300系列產品的採用也在加速。微軟Azure將這些加速器用於OpenAI服務,戴爾將其整合到PowerEdge企業AI機器中,聯想和HPE則將其用於伺服器。
AMD的展望
AMD數據中心加速計算企業副總裁Brad McCredie表示:”AMD Instinct MI300X加速器繼續受到眾多合作夥伴和客戶的強烈採用,包括微軟Azure、Meta、戴爾科技、HPE、聯想等。這直接反映了AMD Instinct MI300X加速器卓越的性能和價值主張。我們每年發布新產品的速度不斷加快,提供AI行業領先的能力和性能,滿足客戶推動數據中心AI訓練和推理下一步發展的期望。”
延伸閱讀:
【美股盤勢分析】AI晶片輪番推出,資訊科技類股表現最佳!(2024.06.04)
【美股新聞】本週市場焦點:非農就業報告及CrowdStrike、Lululemon、AI伺服器惠與的財報(6/3-6/7)
【美股研究報告】貨賣得出去,錢進得來!Marvell發大財?
【美股新聞】Computex 2024 亮點搶先看:AI PC、Intel和AMD新一代晶片登場
【美股新聞】AI巨擘齊聚 Computex 2024,Nvidia 黃仁勳宣布新AI產品
點擊下方連結,下載或開啟美股K線,獲得更多美股即時資訊哦!
https://usstock.page.link/wPaK
版權聲明
本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訴諸法律途徑。
免責宣言
本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。