數碼新秩序

智城物語
16/06/2023

AI晶片三強激鬥!AMD推出AI加速器、Intel轉向純GPU架構,劍指NVIDIA龍頭地位?

#Smart Living #AI #輝達 #Nvidia #超微 #AMD #AI加速器 #公司 #AI晶片 #Intel

  生成式AI的發展百花齊放,各式各樣的AI工具如雨後春筍般湧現,但用於AI運算的晶片,逾80%市佔率卻牢牢握在輝達(NVIDIA)一家公司手上。為求打破一家獨大的局面,超微(AMD)本月發布MI 300系列AI加速器,秀出超強勁硬件規格,惟公司股價不升反跌,而NVIDIA股價卻創歷史新高,形成此消彼長之勢。儘管AMD陣前失利,但外界仍看好其AI晶片前途,箇中原因為何?昔日半導體龍頭Intel亦已積極對AI晶片展開部署,究竟它是否有實力與AMD、NVIDIA一爭天下呢?

 

AMD MI 300X支援龐大記憶體

 

  2023年6月13日,「AMD資料中心與人工智能技術發表會」在美國三藩市正式舉行,執行長蘇姿丰現場發表旗下首款數據中心級AI加速器——Instinct MI 300系列產品線的最新細節。所謂「加速器」(Accelerated Processing Unit),意指將中央處理器(CPU)和圖像處理器(GPU)整合在一起的高階晶片。

 

在AMD發表會上,蘇姿丰指出,高階型號加速器MI300X所支援的記憶體容量,比NVIDIA任何AI晶片都要多。(圖片來源:翻攝AMD官方YouTube影片)

 

  每顆Instinct MI 300X封裝了1,530億個電晶體,並由12顆5奈米核心製程的小型晶片所組成。它採用新一代AMD CDNA 3加速器架構,支援192GB的HBM3記憶體,能夠為大型語言模型邏輯推論(Inference)與生成式AI工作負載,提供足夠的運算力和記憶體效率。

 

蘇姿丰表示,AMD會推出一款內建8顆MI300X的超級電腦,足以跟NVIDIA同類產品一較高下。(圖片來源:AMD官網)

 

  相比起對手產品,AMD MI 300X的HBM(High Bandwidth Memory)暫存記憶體是NVIDIA H100的2.4倍,HBM傳輸頻寬則是H100的1.6倍,故此MI 300X可執行比H100更大的語言模型;只需使用一個MI300X加速器,便可以處理400億個參數的模型運算。

 

  MI 300X能夠支援更龐大的記憶體容量,讓中小型公司訓練AI模型時,可以一口氣地執行完畢,無需分多次完成。倘若改用NVIDIA H100的話,數據訓練必需在某個斷點切割,再分階段推進,所需的時間和成本將會更多。

 

蘇姿丰表示,未來5年內,大家將會在AMD每項產品中看到AI,它將成為公司最大的增長動力。(圖片來源:翻攝AMD官方YouTube影片)

 

沒透露新晶片有哪些客戶願採購

 

  蘇姿丰強調,暫存記憶體容量愈大,晶片能應付的模型規模便愈大,更強調記憶體多寡是衡量AI晶片效能的重要指標。縱然NVIDIA H100的運算力依然在AMD MI 300X之上,但整體購買成本卻是後者佔優,對資金有限的初創企業來說,可能更具吸引力。由此可見,H100與MI 300X與存在著明顯的市場區隔,但這樣的產品差異性能否討得投資者歡心,仍有待觀望。

 

  然而,最令投資者失望的是,AMD沒透露有哪些客戶計劃購入MI 300系列產品。以往,AMD發表新一代晶片時,經常會提及重要的客戶有哪些,惟今次不但未有說明哪家公司決定採用MI 300,甚至連其定價、以對公司營收的貢獻度也隻字不提。後來消息傳出,亞馬遜旗下雲端運算供應商Amazon Web Services(AWS)正考慮採購MI 300X,惟至今仍未做出決定。

 

  今次發布會上,Facebook母公司Meta也有幫忙站台,並宣布將會採購AMD晶片,但購入的並非MI 300X,而是代號為「Bergamo」的第四代EPYC伺服器級CPU。市調機構TIRIAS Research首席分析師凱文·克魯威爾(Kevin Krewell)指出,沒有大客戶表態採用MI300,可能會讓華爾街失望,因為他們希望在某些AI系統的設計中,已有AMD產品取代 NVIDIA晶片。

 

AMD ROCm挑戰NVIDIA CUDA

 

  除新一代晶片外,AMD也發布了最新版本的開發工具軟件《ROCm》(Radeon Open Compute platforM)。AMD更新《ROCm》,正是要與NVIDIA的《CUDA》一較高下;《CUDA》就像Apple的《iOS》作業系統,已形成一個龐大的軟件生態圈,成為輝達AI晶片的護城河。

 

  《ROCm》與《CUDA》的最大差別在於開放性,前者能夠在各種不同的硬件平台上運行,兼且程式碼完全免費開放;後者則是只限在NVIDIA晶片上執行。Meta副總裁欽塔拉(Soumith Chintala)在AMD發表會上表示,已跟AMD緊密合作,開發更容易使用的免費工具軟件,幫助AI開發人員擺脫「某家獨大供應商」的晶片,轉用其他公司產品,例如AMD的晶片。

 

曾協助開發AI開源軟件《PyTorch》的Meta副總裁Chintala表明,已跟AMD合作,幫助AI開發者從「某家獨大供應商」的晶片轉換到其他公司產品。外界相信,他所指的「獨大供應商」正是NVIDIA。(圖片來源:翻攝AMD官方YouTube影片)

 

  有分析指出,像Meta般擁有優良技術的大企業,當然可以從AMD晶片中獲得良好的運算效能,但卻難以保證其他技術沒這麼好的小公司也有能力這樣做。科技分析及顧問公司Moor Insights & Strategy分析師塞格(Anshel Sag)直言,即使AMD在硬件表現上具備競爭力,惟人們卻不相信其軟件方案能夠媲美NVIDIA。

 

超微收購賽靈思強化AI研發實力

 

  其實,市場一直有討論AMD與NVIDIA之間AI技術發展的差距。有業者指出,考慮到市場接受程度與平台發展成熟度,AMD可能還要再隔一世代,才有望追上NVIDIA的技術水平。但也有不少人認為,AMD既深耕AI領域已久,又願意砸大錢投資研發,故此仍有機會從後追上。

 

  AMD對AI領域的最重要投資,是2022年以500億美元(約3,900億港元)收購晶片設計商賽靈思(Xilinx)。賽靈思發明的可編程邏輯晶片(Field Programmable Gate Array,FPGA),適用於AI運算,尤其是邏輯推論表現更優於其他晶片類型;而且賽靈思的研發人員也被AMD收麾下,成為公司AI團隊的核心。2023年5月,AMD更將內部多個AI團隊重組合併,由賽靈思前執行長Victor Peng領導新團隊,對AI軟硬件各方面進行研究。

 

AMD併購賽靈思後,取得FPGA晶片的技術專利,有助強化本身的AI晶片技術。(圖片來源:AMD官網)

賽靈思併入AMD後,前執行長Victor Peng獲委任為AMD總裁,負責制定AI策略和發展路線圖。(圖片來源:翻攝AMD官方YouTube影片)

 

  當AMD與NVIDIA在AI領域鬥得如火如荼之際,昔日半導體霸主英特爾(Intel)亦蓄勢待發,意圖加入戰局。2023年1月,針對AI運算的第四代伺服器級CPU「Xeon」正式面世。它不但具備強大的推論能力,更首度加入AI模型訓練功能,適用於針對特定場景、數據量不大的模型進行訓練,例如客戶關係管理系統的運行,可能僅需一天的訓練時間。

 

Intel Server GPU多番推遲上市

 

  2023年5月,Intel發表下一代伺服器級圖像處理器(Server GPU)「Falcon Shores」,支援288GB的HBM3記憶體與8位元浮點運算,以AMD MI300、NVIDIA Grace Hopper為假想敵。同時,英特爾亦宣布,由「Ponte Vecchio」所組建的Aurora超級電腦,即將交付給美國阿貢國家實驗室(Argonne National Laboratory);這顆GPU早於2021年發表,但推出日期卻被多番推遲,官方宣稱其性能比NVIDIA H100更為優勝。

 

Intel最初將Falcon Shores定位為「XPU」,採用「CPU + GPU」架構,但後來卻忽然宣布,將Falcon Shores定位調整為GPU,讓產業分析師感到震驚。Intel強調,並未放棄XPU項目,只是將計劃向後順延。(圖片來源: Intel官網)

 

  事實上,目前市場上最熱賣的AI晶片正是NVIDIA H100,有伺服器製造商表示,要等超過6個月才能拿到這款晶片。AMD MI 300則已開始向客戶送樣,預計2023年第四季正式出貨,應可滿足部分市場需求。至於Intel Ponte Vecchio,之前一直未能量產上市,以致在Server GPU領域的市佔率微乎其微。

 

NVIDIA H100與A100被市場視為發展AI技術的最重要資產,全球各科技大廠均爭相搶購,致使產品嚴重缺貨;科技狂人馬斯克甚至用「比毒品還難取得」來形容的市況。(圖片來源:NVIDIA官網)

 

  不過Intel預期,接續Ponte Vecchio推出的Falcon Shores,有望打開AI晶片市場。相比之下,AMD MI300與NVIDIA Grace Hopper均是「CPU + GPU」架構的超級晶片,而Falcon Shores原本亦是採用類似架構,但早前Intel卻突然宣布改弦易轍,轉向純GPU設計,並延遲到2025年上市。

 

AMD與NVIDIA各有市場區隔

 

  估計在2025年前,無論是AMD MI300、抑或NVIDIA H100與Grace Hopper,後繼產品都已推出市場,讓Falcon Shores還沒上陣就變成落伍產品了。電腦資訊網站Tom's Hardware副總編輯 Paul Alcorn認為,這樣可能讓Falcon Shores難以跟MI300 與Grace Hopper競爭;加上Intel因此而錯過了一個重要的架構轉折點,更使其AI晶片長期陷於競爭劣勢。

 

一直到2025年的Falcon Shores上市前,Ponte Vechhio將會是Intel在高效能運算市場的主力GPU產品。(圖片來源: Intel官網)

 

  國際市調機構Jon Peddie Research發表的2023年第一季GPU市場調查顯示,NVIDIA以83.7%市佔率雄霸市場,AMD則為12%,而Intel僅佔少得可憐的4%。由是觀之,英特爾在未來幾年都難以打破此市場格局。

 

  根據瑞銀(UBS)預測,在生成式AI帶動下,1至2年內GPU市場規模將增加到100億至150億美元(約780至1,170億港元)。市調機構Bernstein分析師斯泰西·拉斯根(Stacy Rasgon)認為,目前投資者關注AMD,只是想要平價版的NVIDIA晶片,或許AI晶片市場大到AMD根本不需要有競爭力。

 

  換句話說,未來AI晶片市場將會形成兩個區隔:財雄勢大的大企業以高價搶購NVIDIA晶片,本錢不足的小公司或開發者則會採購成本較低的AMD晶片。至於Intel,在未來AI晶片市場上能否有立足之地,就難以預料了。

 

延伸閱讀:

AI競賽隱形贏家!NVIDIA技壓Google、Intel、AMD,穩坐AI晶片龍頭,致勝關鍵全靠軟件!

【半導體版圖大洗牌】Intel霸權衰落,AMD、Apple背靠台積電強勢崛起!

 

06/05/2024

雲端AI已落伍?AI PC掀起電腦端運算新戰局!微軟、Intel英特爾惡鬥NVIDIA爭奪市場龍頭寶座!

#Smart Living #生成式AI #雲端平台 #Microsoft #AI PC #科技 #Intel #AI產品 #創科 #NPU晶片 #Nvidia #AI #智慧生活 #數碼轉型

  當下生成式AI運算主要依靠雲端平台執行,如要為用戶帶來更爽快、安全的使用體驗,便非要從電腦端著手改善不可——能夠獨立運行大型語言模型的AI PC遂應運而生。Microsoft與Intel已發表AI PC的硬件要求:必需配備NPU晶片與「Copilot」鍵。AI晶片龍頭NVIDIA則宣稱,擁有GPU的PC可以稱為「Premium AI PC」,代表著AI效能更強,而單靠NPU運行的PC則是「Basic AI PC」,雙方較勁意味甚濃。究竟未來誰可主宰AI PC市場呢?

 

各廠商對AI PC定義持不同看法

 

  市場普遍預期,AI PC銷售將在未來幾年大幅增長,讓PC市場走出低谷。市調機構Gartner預估,AI PC在2024年將佔全球所有電腦出貨量的22%,總計為5,450萬部。IDC亦預測,2024年AI PC的出貨量將接近5,000萬部,到2027年更有望倍增至1.67億部,佔所有電腦出貨量的60%。

 

  面對這波AI PC換機潮,微軟(Microsoft)、英特爾(Intel)、輝達(NVIDIA)無不拼盡全力搶攻這個新市場。所謂「AI PC」,意指在無需連線上網、不依靠雲端運算的情況下,能夠獨立提供生成式AI服務的個人電腦;換言之,這要把雲端平台的強大運算力,適度地遷移至PC之上。但上述只是一個基本概念,而各大廠商對AI PC的具體定義都有著自己的看法。

 

微軟定義AI PC要有NPU晶片

 

  微軟與英特爾已定下AI PC應具備的3大基本條件:一、能夠運行AI服務Microsoft Copilot;二、內置神經網絡處理器(Neural-network Processing Unit,NPU);三、實體鍵盤上設有「Copilot」按鍵。此後,鍵盤位於Alt鍵旁、印有微軟標誌的按鈕將會消失,取而代之的是印有Copilot標誌的按鍵,讓用戶可以一鍵呼叫AI功能。

 

  稍後,微軟將會推出離線版Copliot服務,讓用戶可以在沒有網絡連線的環境下,都能使用生成式AI功能。由於AI推理所需的運算效能完全來自電腦本身,所以微軟要求NPU的運算力要達到40 TOPS(Tera Operations Per Second,每秒一兆次操作)才算符合AI PC標準。

 

微軟指出,除內建NPU外,AI PC必需在鍵盤上配備「Copilot」按鍵,意味著市面上大部分電腦都不符合AI PC標準。(圖片來源:Intel)

 

微軟要求NPU效能起碼40 TOPS

 

  綜觀當今電腦規格,40 TOPS的要求可說是非常苛刻。英特爾首款內建NPU核心的Intel Core Ultra處理器系列僅能提供10 TOPS;其對手超微(AMD)旗下的Ryzen 8040處理器,NPU效能亦只有16 TOPS,兩者均未能達標。

 

Intel於2023年12月推出第一款內建NPU核心的Core Ultra晶片,已被裝配到Acer、Dell、HP、Lenovo等品牌的新款電腦中,但卻被未能符合微軟要求的40 TOPS效能門檻。(圖片來源:Intel)

 

  有鑑於此,Intel將於2024年底發表的Arrow Lake和Lunar Lake NPU,效能會比現有版本高出3倍以上,理論上應可達到微軟的最低要求。 AMD下一代Ryzen流動處理器將採用 XDNA 2架構,其NPU性能也可達到40 TOPS。從手機晶片跨足電腦晶片領域的高通(Qualcomm),亦會在2024年底前推出X Elite晶片,預計AI效能可達到45 TOPS。

 

輝達:有GPU是Premium AI PC

 

  另一邊廂,AI晶片霸主NVIDIA亦已提出他們對AI PC的看法。該公司認為,內建NPU的電腦雖可稱作AI PC,惟效能與支援性卻遠遜於配備GPU的電腦。根據輝達提供的測試數據,NVIDIA GPU能夠提供100至1,300 TOPS的AI運算力,遠遠拋離NPU的10至45 TOPS。

 

  當用戶要利用AI工具生成影片,甚或處理3D噪音降噪、遊戲畫面光線追蹤等,目前也只有GPU能夠辦得到。NVIDIA表示,旗下GeForce RTX已可支援逾500款AI應用工具與遊戲,代表著消費者買回來後無需擔心產品的支援性。故此輝達認為,只有NPU的電腦僅可稱作「Basic AI PC」,與具備GPU的「Premium AI PC」不屬同一個檔次。

 

假如市場接受NVIDIA的說法,認同內置GPU的電腦是「Premium AI PC」,勢必推動GeForce RTX系列GPU與顯示卡的銷量成長。(圖片來源:NVIDIA)

 

2025年AI PC軟硬件配套始齊備

 

  除電競PC外,普通PC因成本考量大都不設獨立的GPU。一旦NVIDIA能夠成功向市場推廣AI PC必需裝配獨立GPU,那麼其消費級GPU與顯示卡的銷量就可以獲得大幅增長。輝達現已雄霸AI雲端伺服器領域,假如連AI PC紅利也能分一杯羹的話,將進一步鞏固GPU在AI晶片市場的地位,增強該公司在整個AI產業鏈中的影響力。

 

  初步估計,AI PC發展初期的主要用戶群是高階商務用戶和內容創作者,他們對運用AI來提升生產力有高度需求,不介意多花一點錢購入高階AI PC。面向普羅大眾的消費型AI PC如要普及,還有待更多元化的AI應用軟件面世。

 

  現時《Windows》作業系統仍未支援AI PC,微軟需要重寫應用程式始能讓系統使用NPU,預計AI兼容版的《Windows 11》將會在2024年晚些時候釋出;針對AI PC作出全面優化的下一代系統《Windows 12》,更有可能在2025年上市。由此可見,AI PC硬件與軟件配套或許要等到2025年始能齊備,屆時才是市場大規模擁抱這類型電腦的時機,也是AI PC市場爭霸戰的決勝時刻!

 

#食譜 #素食 #數碼營銷 #電影 #移民 #減肥 #創科 #Netflix #外賣 #辦公室貼士 #疫情 #在家運動 #WFH #抗疫不悶 #限聚令 #辦公室求生術
more on etnet.com.hk