圖/shutterstock
Google週三公佈了其一款人工智慧超級電腦的細節,稱這款電腦比競爭對手英偉達(Nvidia)的系統更快、更高效。耗電的機器學習模型繼續是科技行業最熱門的部分。
Google自2016年以來一直在設計和部署被稱為張量處理單元(Tensor Processing Units,簡稱tpu)的AI晶片。
Google是主要的人工智慧先驅,其員工在過去十年中開發了該領域一些最重要的進展。但據CNBC此前報導,一些人認為,在將其發明商業化方面,蘋果已經落後了。在公司內部,該公司一直在競相發佈產品,以證明自己沒有浪費領先優勢,這是該公司的“紅色代碼”。
人工智慧模型和產品,如Google的Bard或OpenAI的ChatGPT(由英偉達的A100晶片提供動力),需要大量電腦和數百或數千個晶片一起工作來訓練模型,電腦需要晝夜不停地運行數周或數月。
週二,Google表示,它已經建立了一個由4000多個tpu和用於運行和訓練人工智慧模型的定制元件組成的系統。它自2020年以來一直在運行,並被用於訓練Google的PaLM模型,該模型與OpenAI的GPT模型競爭,持續了50多天。
Google的研究人員寫道,Google基於TPU的超級電腦被稱為TPU v4,“比英偉達A100快1.2x – 1.7倍,耗電量少1.3x – 1.9倍”。
研究人員繼續說:“性能、可伸縮性和可用性使TPU v4超級電腦成為大型語言模型的主力。”
然而,Google的研究人員表示,Google的TPU結果沒有與英偉達最新的人工智慧晶片H100進行比較,因為它是最新的,採用了更先進的製造技術。
週三,一項名為MLperf的全行業人工智慧晶片測試的結果和排名發佈,英偉達首席執行官黃仁勳表示,英偉達最新的晶片H100的測試結果明顯快於上一代晶片。
黃在一篇博客文章中寫道:“今天的MLPerf 3.0突出了Hopper提供了比A100高出4倍的性能。”“生成式人工智慧的下一個層次需要新的人工智慧基礎設施來訓練具有高能源效率的大型語言模型。
人工智慧所需的大量電腦運算能力是昂貴的,許多業內人士都專注於開發新的晶片、光學連接等元件或軟體技術,以減少所需的電腦運算能力。
對於Google、微軟(Microsoft)和亞馬遜(Amazon)等雲提供商來說,人工智慧的功耗要求也是一個福音
該公司可以按小時出租電腦處理,並向初創公司提供學分或計算時間,以建立關係。
延伸閱讀:
【美股新聞】Nike的假期季度遭遇了庫存積壓和中國銷售疲軟的問題。(2023.3.22)
【美股盤後】金融股全面反彈,四大指數同步上揚 (2023.03.22)
【美股新聞】拜登簽署立法,解密有關Covid大流行起源的某些情報 (2023.3.21)