本報(bào)記者 李玉洋 上海報(bào)道
身處AI(人工智能)的“iPhone時(shí)刻”,英偉達(dá)的地位依舊穩(wěn)固。
英偉達(dá)于近日發(fā)布的2024財(cái)年三季報(bào)顯示,其營(yíng)收達(dá)到創(chuàng)紀(jì)錄的181.20億美元,同比增長(zhǎng)206%,環(huán)比增長(zhǎng)34%;凈利潤(rùn)再創(chuàng)新高,達(dá)到92.43億美元,同比增長(zhǎng)1259%,環(huán)比增長(zhǎng)49%。
同時(shí),英偉達(dá)還預(yù)計(jì)下個(gè)財(cái)季營(yíng)收將達(dá)到200億美元,這份強(qiáng)勁的收入展望,表明了支撐AI繁榮的芯片需求仍然旺盛。目前,英偉達(dá)的GPU占據(jù)了AI芯片絕大部分的市場(chǎng)份額,且供不應(yīng)求,高端GPU更是一卡難求。
而一股自研AI芯片的風(fēng)潮正在科技巨頭之間興起,不管是為了降低成本,還是減少對(duì)英偉達(dá)的依賴(lài),包括谷歌、亞馬遜、阿里巴巴、騰訊、Meta等大廠先后入局造芯,下場(chǎng)自研AI芯片!吨袊(guó)經(jīng)營(yíng)報(bào)》記者注意到,這份巨頭自研AI芯片的列表如今又增加了新成員微軟,在11月中旬舉行的開(kāi)發(fā)者大會(huì)上,微軟推出自家的AI芯片Maia 100;而風(fēng)頭正盛的OpenAI也被爆出正在探索研發(fā)自己的AI芯片。
“他們的算力需求比較大,英偉達(dá)的卡對(duì)他們來(lái)說(shuō)太貴了,而且專(zhuān)門(mén)為大模型設(shè)計(jì)的芯片,能效比會(huì)比N卡更高。”一名算力提供商員工表示,做AI芯片太燒錢(qián)了,很多AI芯片公司扛不住了,大模型會(huì)加速淘汰。
根據(jù)英偉達(dá)數(shù)據(jù),在沒(méi)有以Transformer模型為基礎(chǔ)架構(gòu)的大模型之前,算力需求大致是每?jī)赡晏嵘?倍;而自利用Transformer模型后,算力需求大致是每?jī)赡晏嵘?75倍。
“自研AI芯片是一個(gè)產(chǎn)業(yè)走向成熟繞不開(kāi)的趨勢(shì),但凡哪個(gè)廠商AI運(yùn)算的體量大幅度提升,就需要自家的芯片來(lái)支撐,這樣才能達(dá)到最高的優(yōu)化。”研究機(jī)構(gòu)Omdia AI行業(yè)首席分析師蘇廉節(jié)對(duì)記者表示,未來(lái)AI芯片市場(chǎng)不再由GPU獨(dú)霸,“我覺(jué)得比較有趣的是英偉達(dá)自己怎么看這個(gè)趨勢(shì)”。
而英偉達(dá)方面在業(yè)績(jī)說(shuō)明會(huì)上證實(shí),其正在為中國(guó)開(kāi)發(fā)新的合規(guī)芯片,但同時(shí)表示這些不會(huì)對(duì)第四季度的收入作出實(shí)質(zhì)性貢獻(xiàn)。“明年年初才能下單,我們?cè)诘葍r(jià)格,下單后啥時(shí)候能到貨還不好說(shuō)。”對(duì)此,記者從國(guó)內(nèi)一家服務(wù)器公司的技術(shù)研發(fā)人員口中得到了一些側(cè)面印證。
洗牌避免不了
“目前,全球幾個(gè)云大廠基本上都在自研AI芯片,比如亞馬遜的Trainium和Inferentia、谷歌的TPU、百度的昆侖、華為的騰、阿里的玄鐵,現(xiàn)在微軟也開(kāi)始做自己的AI芯片。”蘇廉節(jié)表示,未來(lái)云大廠會(huì)把自家的模型部署在自己的芯片上,這是產(chǎn)業(yè)發(fā)展繞不開(kāi)的趨勢(shì)。
然而,他還指出:“這不代表英特爾、AMD、寒武紀(jì)這種芯片廠商就沒(méi)有出路,畢竟不是所有的開(kāi)發(fā)者都會(huì)選擇使用云廠商的芯片。”
同時(shí),作為云大廠,微軟也沒(méi)有把自己的AI芯片Maia 100的使用權(quán)賦予所有人。微軟首席執(zhí)行官薩提亞納德拉(Satya Nadella)表示,Maia將首先為微軟自己的人工智能應(yīng)用程序提供支持,再提供給合作伙伴和客戶。
據(jù)了解,微軟Maia 100采用臺(tái)積電5nm工藝,擁有1050億個(gè)晶體管,比AMD的MI300X GPU的1530億個(gè)晶體管少約30%。Maia將用于加速AI計(jì)算任務(wù),服務(wù)于商業(yè)軟件用戶和使用Copilot的個(gè)人用戶,以及希望制作定制人工智能服務(wù)的開(kāi)發(fā)者。
今年6月,AMD對(duì)外展示可與英偉達(dá)H100一較高低的Instinct MI300X GPU。根據(jù)爆料信息,其顯存容量提升到192GB,相當(dāng)于H100 80GB 的2.4倍,同時(shí)HBM內(nèi)存帶寬高達(dá)5.2TB / s,Infinity Fabric總線帶寬也有896GB/s,同樣超過(guò)H100。
最新消息顯示,AMD將于北京時(shí)間12月7日凌晨2點(diǎn)舉辦一場(chǎng)專(zhuān)門(mén)針對(duì)AI的特別活動(dòng),不出意外的話就是宣布正式發(fā)售MI300X。在第三財(cái)季業(yè)績(jī)發(fā)布會(huì)上,AMD指出其AI方面的進(jìn)展,預(yù)計(jì)第四財(cái)季數(shù)據(jù)中心GPU收入約為4億美元,到2024年將超過(guò)20億美元,MI300系列產(chǎn)品有望成為AMD歷史上在最短時(shí)間內(nèi)達(dá)到銷(xiāo)售額上10億美元的產(chǎn)品。
而英偉達(dá)則在11月13日發(fā)布新一代AI處理器H200,旨在培訓(xùn)和部署各種人工智能模型。H200是當(dāng)前H100的升級(jí)產(chǎn)品,集成了141GB的內(nèi)存,在用于推理或生成問(wèn)題答案時(shí),性能較H100提高了60%至90%。
英偉達(dá)透露,搭載H200的系統(tǒng)將于2024年第二季度由英偉達(dá)的硬件合作伙伴和主要的云服務(wù)提供商提供,包括亞馬遜云AWS、谷歌云和微軟云Azure等。英偉達(dá)在上個(gè)月還表示,將從兩年一次的發(fā)布節(jié)奏轉(zhuǎn)變?yōu)橐荒暌淮,明年將發(fā)布基于Blackwell架構(gòu)的B100芯片。
值得一提的是,近日,有“英國(guó)英偉達(dá)”之稱(chēng)的AI芯片獨(dú)角獸Graphcore稱(chēng),由于美國(guó)出臺(tái)的出口管制新規(guī)限制了公司向中國(guó)的技術(shù)銷(xiāo)售,公司將停止在華銷(xiāo)售。
“很遺憾,這意味著我們將大幅縮減在華業(yè)務(wù)。”Graphcore發(fā)言人在電子郵件中表示。但該公司拒絕透露受影響的員工人數(shù)。此前,Graphcore CEO奈杰爾圖恩(Nigel Toon)曾把中國(guó)視為一個(gè)潛在增長(zhǎng)市場(chǎng),尤其是英偉達(dá)被限制向中國(guó)銷(xiāo)售產(chǎn)品之后。今年10月,圖恩表示,來(lái)自中國(guó)的銷(xiāo)售額可能占其公司業(yè)務(wù)的20%至25%。
如今,Graphcore已經(jīng)陷入困境。該公司最新提交的文件顯示,2022年?duì)I收下降46%,虧損擴(kuò)大11%至2.046億美元。去年10月,Graphcore披露需要籌集資金以維持運(yùn)營(yíng)。在那之后,Graphcore再未宣布任何融資消息。美國(guó)對(duì)華禁令無(wú)疑使其雪上加霜。
對(duì)于Graphcore的最新動(dòng)態(tài)以及AI芯片行業(yè)的發(fā)展現(xiàn)狀,記者聯(lián)系Graphcore方面,該公司表示:“不方便評(píng)論。”國(guó)內(nèi)AI芯片初創(chuàng)公司壁仞科技同樣也是保持沉默。
對(duì)此,資深行業(yè)分析師張慧娟表示:“芯片可能會(huì)在未來(lái)很長(zhǎng)一段時(shí)間都是AI競(jìng)爭(zhēng)的核心,包括國(guó)家(可參考美國(guó)對(duì)高端AI芯片出口中國(guó)的限制)、巨頭、初創(chuàng)公司之間。但行業(yè)發(fā)展還處于初期,未來(lái)肯定會(huì)有一輪洗牌。”
“另外,OpenAI最近的宮斗,體現(xiàn)了人才對(duì)于AI的重要性。所以,算力(芯片)和人才,會(huì)是很長(zhǎng)一段時(shí)間內(nèi)AI的競(jìng)爭(zhēng)焦點(diǎn)。”張慧娟說(shuō)。
非云端是突破口
上述算力提供商員工表示,英偉達(dá)十幾年建立的CUDA生態(tài)確實(shí)不容易被撼動(dòng),但是大模型也帶來(lái)了很多機(jī)會(huì)。
“從今年市場(chǎng)所看到的融資信息來(lái)看,AI芯片賽道整個(gè)都很冷,現(xiàn)有的市場(chǎng)有點(diǎn)飽和,最關(guān)鍵的是AI還沒(méi)有大量變現(xiàn),很多公司部署了AI不是拿來(lái)賺錢(qián),主要是拿來(lái)降低內(nèi)部運(yùn)作成本。”蘇廉節(jié)表示,“生成式AI軟件的投資有顯著的提升。”這里的軟件指的是大模型,代表公司為百川智能等。
蘇廉節(jié)還指出:“未來(lái)的AI芯片市場(chǎng),可能不再由GPU獨(dú)霸,比較有趣的是英偉達(dá)自己怎么看這個(gè)趨勢(shì),可以從他們現(xiàn)在積極部署的新市場(chǎng),去看看他們的心態(tài)。”
對(duì)于新增長(zhǎng)戰(zhàn)略,英偉達(dá)在Q3財(cái)報(bào)中強(qiáng)調(diào)了三大要素:CPU、網(wǎng)絡(luò)、軟件和服務(wù)。據(jù)悉,Grace是英偉達(dá)第一款數(shù)據(jù)中心CPU,Grace和Grace Hopper將在明年全面投產(chǎn),英偉達(dá)CEO黃仁勛指出,英偉達(dá)可以幫助客戶建立一個(gè)AI工廠并創(chuàng)收。
NVIDIA Quantum Infiniband是英偉達(dá)推出的網(wǎng)絡(luò)解決方案,其具有高帶寬、低時(shí)延、高可靠、易部署的特點(diǎn),可實(shí)現(xiàn)多臺(tái)DGX計(jì)算機(jī)的高效互聯(lián),InfiniBand同比增長(zhǎng)了5倍。
將GPU、CPU、網(wǎng)絡(luò)、AI企業(yè)軟件等作為增長(zhǎng)引擎,是英偉達(dá)的遠(yuǎn)期展望和技術(shù)路線,對(duì)于處于其他階段的玩家不一定適用。
蘇廉節(jié)認(rèn)為,邊緣設(shè)備或許是AI芯片賽道上其他玩家的突破口。“比如智能汽車(chē)、機(jī)器人、無(wú)人機(jī),現(xiàn)在的大模型都在云端,但它漸漸會(huì)走向終端,量就會(huì)很大。”他說(shuō)。
張慧娟也持有類(lèi)似觀點(diǎn)。“GPU在云端大算力有絕對(duì)優(yōu)勢(shì),但是端側(cè)、邊緣側(cè),有著非常豐富的應(yīng)用類(lèi)型,所以這也是其他AI芯片廠商尋求突破的點(diǎn)。且從市場(chǎng)規(guī)模來(lái)講,邊緣端增長(zhǎng)空間很大,這也是吸引AI芯片廠商進(jìn)入的一個(gè)原因。”
她還提到,國(guó)內(nèi)AI芯片廠商,除了少數(shù)幾家進(jìn)入云端外,大部分集中在端側(cè),也有一些從端側(cè)跨進(jìn)邊緣,“國(guó)內(nèi)芯片廠商在邊緣側(cè)突破比較大的有瑞芯微、全志,高通、NXP、瑞薩、ADI等國(guó)際芯片廠商也在大力做邊緣AI。”
需要指出的是,邊緣和端側(cè)沒(méi)有特別明確的區(qū)分或界定。“所以,很難說(shuō)這家廠商只做邊緣或只做端側(cè)。其實(shí)英偉達(dá)也有邊緣AI方案,比如智能駕駛方案,也很強(qiáng)。英偉達(dá)、英特爾等巨頭號(hào)稱(chēng)從云到邊緣到端都做,主打一個(gè)端到端全覆蓋。”張慧娟說(shuō)。
近日,聯(lián)想集團(tuán)董事長(zhǎng)兼CEO楊元慶也表示,目前大模型的用戶規(guī)模還比較小,大多數(shù)大模型都在算力較強(qiáng)的公有云上訓(xùn)練。“未來(lái),隨著用戶規(guī)模擴(kuò)大,無(wú)論是出于數(shù)據(jù)安全和隱私保護(hù)的考慮,還是更高效率、更低成本響應(yīng)用戶需求的考慮,大模型的計(jì)算負(fù)載將逐漸由云端向邊緣側(cè)和端側(cè)下沉,越來(lái)越多的人工智能的推理任務(wù)將會(huì)在邊緣和設(shè)備端進(jìn)行。”
楊元慶指出,要構(gòu)建和優(yōu)化大模型,支持更多生成式人工智能的應(yīng)用,不僅需要提升云端的算力,在邊緣和端側(cè)也需要更強(qiáng)大算力的配合,形成“端-邊-云”混合計(jì)算架構(gòu)下更平衡的算力分配。