• |
  • 極速報價
  • |
  • etnet專輯
    etnet專輯
  • 會員
  • 產品服務 / 串流版
  • 設定

01/09/2023

稱霸AI晶片!NVIDIA吃掉9成AI利潤,科技巨頭尋找替代方案!未來競爭格局將面臨巨變?

  • 加入最愛專欄
  • 收藏文章
  • 方展策

    方展策

    少年時,曾研習 Geographic Information System,可惜學無所成,僥倖畢業。成年後,誤打誤撞進入傳媒圈子,先後在印刷、電子、網絡媒體打滾,略有小成。中年後,修畢資訊科技碩士,眼界漸擴,決意投身初創企業,窺探不同科技領域。近年,積極鑽研數據分析與數碼策略,又涉足 Location Intelligence 開發項目;有時還會抽空執教鞭,既可向他人分享所學,亦可鞭策自己保持終身學習。

    智城物語

  半導體龍頭輝達(NVIDIA)剛於8月底發表財報,表現超出華爾街預期,刺激股價飆升,不但令公司市值穩站在1兆美元(約7.8兆港元)以上,更帶動美國科技股整體上漲。如此亮眼的業績,不禁讓人懷疑該公司在AI晶片市場上是否還有對手。乘著生成式AI浪潮而登頂的NVIDIA,下一步將如何鞏固其AI晶片霸業?未來又將會面對甚麼潛在威脅呢?

 

全球搶購GPU令輝達收入暴漲

 

  NVIDIA在2024年第二季收入躍升到135.1億美元(約1,053.78億港元),超出市場預期的 112.2 億美元;公司毛利率上升至71.2%,超出預期的69%;營業利潤則為 77.7億美元(約606.06億港元),年增率達到155%,淨利年增率更高達422%。

 

  同時,NVIDIA在財報中提出樂觀的財測,預計第三季收入可望達到160億美元(約1,248億港元),較2022年同期暴漲170%;淨利有望激增至61.9億美元(約482.82億港元),遠超2022年同期的6.56億美元(約51.17億港元);公司毛利率則預計為72%左右。

 

  如此驕人的財報表現,突顯NVIDIA圖像處理器(Graphics Processing Unit,GPU)在生成式AI浪潮中有著舉足輕重的地位。輝達出品的A100、H100 GPU晶片,現已被科技業者視為開發AI大型語言模型的首選裝備。當日OpenAI對GPT-4模型展開數據訓練,就動用了約25,000顆A100晶片。

 

  除各大科技巨頭如Google、亞馬遜(Amazon)、Meta外,英國、沙特阿拉伯、阿聯酋都大手搶購A100、H100晶片,導致NVIDIA GPU供應非常短缺。於是,輝達計劃將H100 晶片產能提高至少3倍,預計出貨量從2023年的50萬顆增至2024年的150至200萬顆。

 

目前全球最搶手的AI晶片,是NVIDIA出品的H100 GPU,售價高達4萬美元(約31.2萬港元)。(圖片來源:NVIDIA官網)

 

NVIDIA的AI運算產品線非常完整,除單一GPU晶片外,還有內置多顆GPU的超級電腦可供選購。(圖片來源:NVIDIA官網)

 

輝達數據中心營收未來仍會攀升

 

  可是,有投資者擔心,當下NVIDIA形勢大好,可能因為企業被近期ChatGPT熱潮衝昏頭腦,所以把AI晶片需求往前挪。半導體研究集團SemiAnalysis首席分析師巴特爾(Dylan Patel)指出,很多科技公司即使尚未確定如何運用NVIDIA GPU來開發AI產品賺錢,但為免錯失良機,不惜砸下重金進行採購;到了某一天,生成式AI終於出現了可持續獲利的用途,屆時大部分公司可能會停止再投資,只剩下能夠真正獲利的公司會繼續加碼投資。

 

  投資研究機構Morningstar Research分析師布賴恩·科萊洛(Brian Colello)對此看法不以為然。他認為,現時根本找不到GPU訂單是一次性購買、或是將支出挪前的證據,所以預估NVIDIA在2024會計年度從數據中心市場獲取的收入,可望達到410億美元(約3,198億港元),遠多於2023年的150億美元(約1,170億港元)。

 

  科萊洛進一步預測,未來幾年輝達數據中心營收仍會持續攀升,有望從2025會計年度的600億美元(約4,680億港元),增長至2028年度的1,000億美元(約7,800億港元)。他認為,未來幾季每顆出廠的輝達GPU晶片都會被搶購一空。

 

全球數據中心轉向加速運算架構

 

  NVIDIA執行長黃仁勳(Jensen Huang)豪言:「一個新的運算時代已經展開,全世界的公司正從通用型電腦運算,轉型為加速運算與生成式AI。」他認為,為迎合生成式AI的蓬勃發展,全球數據中心正逐漸從以中央處理器(CPU)為基礎的傳統運算架構,轉向以GPU為核心的加速運算架構。

 

NewEdge Wealth基金經理人本.埃蒙斯(Ben Emons)認為,左右美國利率政策走向的人不再是聯儲局主席鮑威爾,而是NVIDIA執行長黃仁勳,足證輝達已對美國經濟有著極大影響力。(圖片來源:NVIDIA官網)

 

  換言之,數據中心可以少買一些超微(AMD)、英特爾(Intel)的CPU,轉為多買一些NVIDIA GPU,以建構生成式AI所需的加速運算平台。德意志銀行分析師羅斯·西莫爾(Ross Seymore)評估,NVIDIA數據中心收入將會是AMD、Intel加總起來的兩倍以上,凸顯輝達GPU對數據中心是何等重要。

 

  此外,黃仁勳又指出,上至從法律合約、下至營銷文案,均可利用生成式AI產製出來,未來各行各業將會使用愈來愈多由AI生成的內容。他認為,數據中心架構轉型、產業需求AI生成內容兩大趨勢,已持續了大概一個季度,不會就此結束。不過,黃氏卻拒絕評論,2024年以後生成式AI熱潮能否繼續保持熱度。

 

黃仁勳與伺服器廠建立緊密關係

 

  黃仁勳明白,NVIDIA不能只是坐享AI熱潮紅利而甚麼也不做。為求鞏固AI晶片霸業,黃仁勳早已作出3大部署。首先,他積極拉攏伺服器廠商,以建立更緊密關係。2023年5月,他旋風式訪問台灣,頻繁地出現在各家伺服器廠商的活動上,就是要穩固供應鏈樁腳,為其AI晶片布局做好準備。

 

  大家要知道,AI模型運算能否暢行無阻,軟硬件整合正是箇中關鍵。目前全球大型企業都傾向擁有屬於自己的AI模型,這樣可能需要為其度身訂造的專用AI伺服器,才可以實現最順暢的運算表現。就算是Microsoft Azure、Amazon AWS和Google Cloud等雲端服務商,面對不同產業客戶的業務需要,對AI伺服器客製化的需求亦會有所增加。

 

Amazon旗下雲端服務供應商AWS的數據中心,現已大量採用NVIDIA GPU來提供加速運算服務。(圖片來源:Amazon官方網誌)

 

  倘若要做到完全客製化,就需要晶片、系統、軟件公司等整個生態系廠商互相配合。如此一來,伺服器廠商所扮演的整合性角色將會變得愈加重要。因此,輝達只要跟伺服器廠商能夠保持良好的緊密關係,便能夠按照客戶需求製造出多樣化的產品——無論是數據中心適用的大規模運算架構,還是企業內部需要用到的單一AI伺服器,輝達都可以全面提供。這正是NVIDIA能夠搶下AI伺服器市場9成份額的主要原因之一。

 

善用CUDA固守市場防對手進入

 

  其次,黃仁勳利用研發多年的編程工具平台《CUDA》,作為NVIDIA在AI領域的「護城河」。軟件工程師使用《CUDA》開發AI應用軟件時,可以跳過撰寫低階編程語法的步驟,直接採用高階語法諸如《C++》或《Java》等來編寫適用於NVIDIA GPU的演算法,以實現最佳的運算效能。

 

《CUDA》平台提供大量針對GPU架構深度優化的函數庫,可讓軟件工程師直接使用,有助簡化AI軟件開發流程。(圖片來源:NVIDIA官網)

 

  幾乎所有採用NVIDIA GPU的企業,皆培育了一群深諳《CUDA》架構的工程師。AI軟件開發商如要轉用非輝達產品,就要重新訓練員工來適應新架構,故此絕大部分公司都不會輕易作出改變。假如競爭者無法突破《CUDA》這條護城河,根本不能攻入此市場。

 

  有鑑於此,輝達主要對手AMD已推出自家的編程工具軟件《ROCm》,務求跟《CUDA》一較高下。2023年8月,AMD宣布收購法國AI軟件商Mipsology,以進一步強化《ROCm》。有分析師指出,此舉可能會迫使NVIDIA加快提升和改善《CUDA》的功能,以提高用戶黏著度。

 

跨足雲端市場擴大AI業務版圖

 

  再者,黃仁勳嘗試跨足雲端服務市場,以擴大其AI業務版圖。2023年3月,輝達宣布推出雲端服務「DGX Cloud」,讓無法負擔高昂NVIDIA晶片價格的小公司,可以在雲端上享用GPU的強大運算力。DGX Cloud使用NVIDIA DGX超級電腦提供雲端運算,每台均配備8顆H100或A100 晶片和640GB記憶體。

 

  自此以後,NVIDIA從只造硬件的AI晶片生產商,搖身一變為提供雲端運算的服務供應商。對AI初創來說,AI運算力是非常昂貴和稀有的資源;透過DGX Cloud,初創便可用較低成本來研發和部署AI應用。在當下運算力不足的AI發展期,NVIDIA可以藉此吸納更多初創加入其AI運算陣營,壯大《CUDA》生態圈。

 

  此舉又可讓輝達搶攻氣象模擬、地球模擬、甚至國家級精密運算等高端AI運算市場,開拓新客源。黃仁勳曾表示,他最喜愛的AI應用場景不是在科技產業,而是在研發新藥和分析氣候變遷,更認為日後AI應用將會延伸至農業、製造業、以至製藥業等。

 

AI模型開源引發自定義晶片浪潮

 

  儘管NVIDIA風頭聲勢一時無兩,市場上看似沒有具份量的競爭對手,但未來仍需面對2大挑戰。首先,自ChatGPT爆紅後,科技界對AI模型應開放原始碼的呼聲愈來愈高,以免生成式AI的發展被OpenAI、Google等大企業壟斷。Meta於2023年2月發布開源AI模型LLaMA,迄今已被申請使用逾10萬次,代表著開源已作為AI模型發展的主流趨勢。

 

  當中小企業可以運用開源模型來開發自家的AI模型後,就能夠依據某個開源模型版本,按照自身業務需要,製作自定義設計的特殊應用晶片(Application Specific Integrated Circuit,ASIC)。ASIC晶片只需達成單一而明確的任務,架構設計較簡單,製造成本也較便宜,讓企業可以自行建構更具成本效益的AI運算平台。

 

  如今AI伺服器的生產成本,NVIDIA GPU已佔去當中近九成。對伺服器廠商來說,GPU佔成本比重過高,產品毛利自然不好。因此,當AI模型開源與ASIC晶片方案興起後,伺服器廠商可能會積極尋找NVIDIA以外的AI晶片供應來源,以達成更佳的成本控制。

 

在Computex 2023展覽會上,伺服器廠商Supermicro總裁暨執行長梁見後(左)邀請了NVIDIA執行長黃仁勳(右),作為主題演講的嘉賓。(圖片來源:NVIDIA官網)

 

輝達陷入與雲端大客戶競爭局面

 

  其次,輝達跨入雲端市場,雖然有助拓展業務,但卻會跟客戶形成互相競爭的局面,可能會加速雲端服務商尋求替代方案。現時NVIDIA先以高價把GPU賣給雲端服務商,跟著再租用雲端服務商的硬件平台來提供DGX Cloud賺錢。於是,前台、後台兩邊錢都由輝達賺到盡,AI利潤幾乎全都進入該公司的口袋。

 

  NVIDIA推廣DGX Cloud,勢必跟微軟、亞馬遜、Google三大客戶爭搶雲端市場份額,令雙方關係變得緊張。這樣將會促使這些雲端巨頭多採購一些AMD GPU,或加快開發自家AI晶片的腳步。亞馬遜現正埋首研發新一代AI晶片Inentia和Trainium,為客戶提供NVIDIA GPU的替代方案;Google基於自家開發的張量處理器(Tensor Processing Unit,TPU),推出Cloud TPU雲端運算服務,可用作訓練AI模型。

 

NVIDIA利用其DGX超級電腦建構DGX Cloud雲端平台,為企業提供雲端AI運算服務,明顯與AWS、Azure等雲端服務商的客戶重疊。(圖片來源:NVIDIA官網)

 

Google TPU屬於自定義設計的ASIC晶片,適合用來訓練大型語言模型。(圖片來源:Google Cloud官網)

 

  市調機構Gartner預測,2023年全球AI半導體收入將較2022年增長20.9%,達到534億美元(約4,165億港元);之後幾年,估計收入仍可保持兩位數成長,2024年的增長率為 25.6%,達到671億美元(約5,234億港元);及至2027年,AI晶片收入將倍增到1,194 億美元(約9,313億港元),較2023年市場規模高出一倍以上。

 

  沒有一家公司願意看到,如此龐大的市場被輝達一家壟斷。為求擺脫NVIDIA GPU和降低成本,愈來愈多企業將會考慮開發自家的ASIC晶片。Gartner預估,未來自定義設計的AI晶片部署量將會增加,這樣可能會取代當前的主流晶片架構。

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

樂本健【年度感謝祭】維柏健及natural Factors全線2件7折► 了解詳情

我要回應

你可能感興趣

版主留言

放大顯示
師傅靈靈法
最緊要健康
精選文章
  • 生活
  • DIVA
  • 健康好人生
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ