01/11/2024
OpenAI進軍半導體領域!攜手台積電、博通開發自研晶片預計2026年投產,能否改變全球AI供應鏈格局?
OpenAI現時發展的最大障礙是AI運算資源不足,而輝達(NVIDIA)的AI晶片供應量又十分緊張,故此執行長奧特曼念茲在茲,就是擁有自家AI半導體供應鏈。近日有消息傳出,OpenAI正跟博通(Broadcom)與台積電合作,共同設計與製造首款自研AI晶片,預計在2026年投產。究竟此舉是否可以幫助OpenAI擺脫對NVIDIA的依賴?這樣對全球AI半導體供應鏈布局又會帶來甚麼影響?
Read More:
擺脫對NVIDIA GPU依賴!OpenAI擬跟博通合作研發自家AI晶片,能否打破輝達壟斷地位?
OpenAI自己造AI晶片!奧特曼擬集資7兆美元建數十座廠房!能撼動半導體產業版圖?
OpenAI自主研發和設計晶片
現時市場上大部分AI工具都是使用輝達的圖像處理器(GPU)來執行運算。全球各大科技企業、以至國家政府均積極搶購NVIDIA GPU,用作建構自家大型語言模型,以致晶片供不應求,價格不斷攀升。自2022年起,OpenAI已高度關注AI晶片供貨不足與成本偏高的問題。
OpenAI執行長山姆·奧特曼(Sam Altman)經常抱怨,GPU供應緊張,讓OpenAI難以全力研發「通用人工智能」(Artificial General Intelligence,AGI)。曾有消息傳出,奧特曼試圖募集5兆至7兆美元(約39兆至54.6兆港元)的資金,興建數十座晶片廠,建立自家的AI半導體供應鏈。
儘管奧特曼希望組建最強的AI晶片研發團隊,但對從NVIDIA挖角卻抱持著謹慎態度,因為他仍想跟NVIDIA保持良好關係,所以目前團隊成員主要是來自Google。(圖片來源:OpenAI官方YouTube影片)
後來考慮到建廠所需的成本過高,實行難度也太大,所以奧特曼打消了這個念頭,改為仿傚Google、微軟(Microsoft)、亞馬遜(Amazon)等雲端巨頭的做法,自主研發和設計AI晶片,再委託晶圓廠代工生產。
看中博通助Google設計TPU
有消息指,OpenAI過去幾個月已找來博通(Broadcom)合作設計自研AI晶片。這款設計中的晶片是專攻邏輯推理,可應用於預測和決策運算。當今大型語言模型的運算目的,主要分為AI模型訓練、以及邏輯推理。現時市場對模型訓練晶片的需求較大,但未來隨著AI應用逐漸普及,各式AI工具被廣泛部署後,推理晶片的需求將會超越訓練晶片。由此可見,OpenAI埋首於設計推理晶片,其實是針對後市發展提早布局。
OpenAI內部已成立一支約20人的晶片研發團隊,找來諾利(Thomas Norrie)與Richard Ho等曾替Google開發張量處理器(TPU)的資深工程師領導研發。OpenAI選擇跟Broadcom合作,也是看中博通曾協助Google設計TPU。
Google Gemini由TPU推動
Google是全球首家研製自家AI晶片的雲端供應商,其TPU中的「T」代表著「Tensor」(張量),意指高階AI應用運作背後所需的大型矩陣乘法運算。這是針對Google內部運算需求而設計的自研晶片,自2015年起已應用於自家數據中心,後來更廣泛引進到Google Cloud 平台;目前Google旗下大型語言模型Gemini與AI聊天機械人,也依靠TPU進行運算。
2018年,Google發表第二代TPU,專精於AI推理擴展與訓練,並開始透過Google Cloud平台提供給外部公司使用,能夠替代NVIDIA GPU執行AI運算,客戶包括:蘋果(Apple)、OpenAI、Airbnb、以及Recursion Pharmaceuticals等。
TPU適合處理大規模深度學習
iPhone 16系列所用的AI模型Apple Intelligence,正是使用Google TPU訓練而成。Apple之所以選擇TPU而不是NVIDIA GPU,主要原因是TPU非常適合處理大規模的深度學習(Deep Learning)項目,正好符合Apple Intelligence的訓練要求。當然,TPU服務收費比採購NVIDIA GPU便宜得多,也是另一重要因素。
有消息傳出,OpenAI可能採用台積電的1.6納米製程來生產其自研AI晶片。(圖片來源:台積電官網)
美國金融顧問研究機構Bernstein Research資深半導體研究員史黛西·拉斯岡(Stacy Rasgon) 指出,雖然NVIDIA GPU在AI領域的兼容性很高,適用於各式各樣的AI運算,而且運算效能非常卓越,但其供應量卻一直追不上市場需求,而TPU卻沒有這方面的問題。
可是,要製造出足以匹敵NVIDIA GPU的TPU卻非易事。有鑑於研發過程太過複雜,就算是Google也要找外援幫忙,於是Broadcom從初代TPU起已參與晶片設計:Google負責TPU的核心設計,博通則負責設計TPU的周邊細節,確保晶片能夠串連外部設備,保持正常運作。完成設計圖後,Google與Broadcom共同將之送交給台積電,進行代工生產。
OpenAI力求晶片供應多元化
據悉,OpenAI已透過博通,成功預訂台積電產能,可望於2026年量產其自研晶片。然而,遠水卻不能救近火,故此OpenAI亦打算使用超微(AMD)的AI晶片,將會透過微軟Azure雲端平台,取用AMD MI300X的運算力,以分散晶片供貨來源,降低對NVIDIA的依賴程度。
TPU具有高效能、低功耗的特點,現已在Google Cloud 平台上廣泛使用,可供AI開發者租用,研發大規模機器學習項目。(圖片來源:Google Cloud官網)
NVIDIA GPU始終是市場上運算效能最強的AI晶片,OpenAI不可以完全放棄使用。因此長遠而言,OpenAI將會採取兼收並蓄的策略,同時使用自研晶片、AMD晶片、以及NVIDIA GPU。事實上,微軟、亞馬遜都有研製自家AI晶片,惟每當輝達有新一代效能更強的GPU上市,他們仍是會大手搶購。因此,未來OpenAI推出自研晶片,頂多是補足自身的運算力缺口,根本不足以動搖NVIDIA的AI晶片龍頭地位。
【etnet 30周年】多重慶祝活動一浪接一浪,好禮連環賞! ► 即睇詳情