一邊是“大力出奇跡”,一邊則瞄準“四兩撥千斤”,2025年,AI大模型“下半場”有了新打法:路徑分化,擁抱開源。“一方面,部分國家為保持在AI領域的領先優(yōu)勢,會不斷地‘卷算力’‘卷數(shù)據(jù)’‘拼規(guī)!;另一方面,我國的AI發(fā)展路徑已經(jīng)逐漸明顯,在持續(xù)推進算力基礎設施建設的同時,做普惠AI,這樣就能形成明確的差異化優(yōu)勢!
DeepSeek的橫空出世及開源策略正在牽動大模型賽道的分化,以及各國不同的AI發(fā)展路徑之爭。
2月18日,美國人工智能企業(yè)xAI發(fā)布Grok 3推理模型,其在多項性能上超過或媲美DeepSeek、GPT-4o等模型,埃隆里夫馬斯克稱這是“地球上最聰明的AI”。然而,馬斯克透露,Grok 3的算力支持來源于xAI的“Colossus”超級計算集群,其在訓練過程中累計消耗了高達20萬張英偉達GPU。
今年1月,國內(nèi)AI廠商深度求索(DeepSeek)發(fā)布了開源推理模型DeepSeek-R1,該模型在多個基準測試中與OpenAI公司的o1模型持平,但成本僅為o1的三十分之一,高性能、低算力需求使其迅速在全球走紅,并開啟了低成本訓練模型的風潮。
一邊是“大力出奇跡”,一邊則瞄準“花小錢辦大事”“四兩撥千斤”,2025年,AI大模型“下半場”有了新打法:路徑分化,擁抱開源!耙环矫妫糠謬覟楸3衷贏I領域的領先優(yōu)勢,會不斷地‘卷算力’‘卷數(shù)據(jù)’‘拼規(guī)!;另一方面,我國的AI發(fā)展路徑已經(jīng)逐漸明顯,在持續(xù)推進算力基礎設施建設的同時,做性價比高的普惠AI,這樣就能形成明確的差異化優(yōu)勢!笨焖悸胙芯吭涸洪L、原商湯智能產(chǎn)業(yè)研究院創(chuàng)始院長田豐說。
“大力出奇跡”與“四兩撥千斤”
當前,面對DeepSeek以高性價比強勢破局,以xAI為代表的部分AI廠商依然堅持花重金“卷算力”,大模型領域為何會形成上述兩種路徑的分化?在田豐看來,這與“Scaling Laws”(尺度定律)的性價比降低有關。
在大模型中,“Scaling Laws”意味著當算力、算法、數(shù)據(jù)這3個關鍵因素被不斷拉高上限并達到一定程度時,大模型的智能表現(xiàn)將出現(xiàn)躍升,即“智能涌現(xiàn)”。近兩年,國內(nèi)外AI廠商遵循著“Scaling Laws”持續(xù)投入,模型體積不斷膨脹,參數(shù)數(shù)量呈指數(shù)級增長!啊甋caling Laws’性價比最高的時候就是GPT-4時期,模型效果隨著參數(shù)的增加有著指數(shù)級的提升。彼時,各大AI廠商紛紛購入高性能GPU,英偉達的市值更是迅速上升!碧镓S說。
可如今,“Scaling Laws”的性價比似乎沒有那么高了。有業(yè)內(nèi)人士提到,Grok 3的計算量幾乎是DeepSeek的幾十倍,但性能卻并沒有提升幾十倍,這從側面也印證了“Scaling Laws”的性價比正在降低。中國信息通信研究院云計算與大數(shù)據(jù)研究所所長何寶宏也注意到,2024年,全球訓練大語言模型的效果普遍不及預期,比如OpenAI的產(chǎn)品迭代速度明顯放緩等!斑@些情況都表明,大模型競賽的上半場已經(jīng)進入了‘垃圾時間’!焙螌毢暾f。
“預訓練階段的‘Scaling Laws’已經(jīng)遇到瓶頸,但推理階段的‘Scaling Laws’依然有很大機會!碧镓S強調(diào),DeepSeek正是在模型推理階段找到了新解法。業(yè)內(nèi)普遍認為,DeepSeek系列模型的橫空出世,為全球通向AI未來開辟了一條新的路徑,也給AI大模型的落地普及打開了更廣闊的空間。
對于不同的大模型發(fā)展路徑,AI廠商各有堅持。據(jù)了解,xAI的“Colossus”超級計算集群仍在擴張建設中,2025年年底規(guī)模有望達到50萬張GPU;OpenAI等廠商也在繼續(xù)推進“星際之門”AI基礎設施投資項目,未來4年該項目希望有5000億美元投入。與之相反的是,越來越多的科研團隊開始競逐低成本AI模型,比如美國一研究團隊近日宣布研發(fā)出名為“s1”的模型,在衡量數(shù)學和編碼能力的測試中,可媲美o1和DeepSeek-R1等模型,而訓練租用所需的計算資源等成本只需約幾十美元。
到底哪一條路才是對的?清華大學計算機科學與技術系長聘副教授、面壁智能創(chuàng)始人劉知遠認為,極致高效、善用現(xiàn)有資源,走一條可持續(xù)的、高質(zhì)量發(fā)展的路線,才是AI發(fā)展的正確道路。而在天使投資人、資深人工智能專家郭濤看來,走向AGI(通用人工智能),“大力出奇跡”的優(yōu)勢更大。
郭濤說,“大力出奇跡”憑借大規(guī)模數(shù)據(jù)和超強算力可以充分學習海量知識,挖掘深層次語義和邏輯關系,更有機會模擬人類的全面智能,逐漸逼近AGI!岸膬蓳芮Ы铩墓こ虅(chuàng)新雖然在特定場景高效,但很難快速拓展到能應對所有通用任務所需的全面智能程度!
近期,國泰君安、中信證券等多家研究機構也對算力的作用給予肯定。華泰證券在2月20日發(fā)布的研報中提出,Grok 3證明預訓練在算力提升下仍能突破。雖然目前在預訓練數(shù)據(jù)上存在瓶頸,但是合成數(shù)據(jù)、RL(強化學習)數(shù)據(jù)等,或能逐步打破瓶頸。中信證券則認為,Grok 3作為全球首個在10萬卡集群上訓練的大模型,綜合能力較前代模型提升顯著,意味著算力堆積仍是模型進步的關鍵變量之一。
站在我國的角度,不少業(yè)內(nèi)專家對記者表示,“花小錢辦大事”的DeepSeek路徑,更加符合當前AI產(chǎn)業(yè)的發(fā)展實際。田豐提到,一方面,國產(chǎn)算力芯片產(chǎn)能、良品率正在逐漸提升,未來3到4年可能會有較大突破;另一方面,國內(nèi)企業(yè)利用軟件層面的性價比優(yōu)勢,提升模型訓練效率,降低成本,這就形成了一個“剪刀差”。“發(fā)展到一定程度,我國的AI產(chǎn)業(yè)將實現(xiàn)更快速的發(fā)展。”
“整體來說,更多算力、更多數(shù)據(jù)肯定會有更大的價值。”在田豐看來,DeepSeek的出現(xiàn)使得AI技術在更大范圍被普及和使用,會帶來推理算力需求的增長,這將是國產(chǎn)芯片的機會。“專用推理芯片比通用芯片要更容易研發(fā),我國在推理芯片的研發(fā)制造上有較大優(yōu)勢,只要能快速實現(xiàn)量產(chǎn),將在全球AI芯片市場上占據(jù)主動。”
國內(nèi)AI廠商已經(jīng)開始行動。2月24日,阿里巴巴集團CEO吳泳銘宣布,未來3年,阿里將投入超過3800億元,用于建設云和AI硬件基礎設施,總額超過去10年總和!癆I爆發(fā)遠超預期,國內(nèi)科技產(chǎn)業(yè)方興未艾,潛力巨大。阿里巴巴將不遺余力加速云和AI硬件基礎設施建設,助推全行業(yè)生態(tài)發(fā)展!眳怯俱懻f。
擁抱開源開放
除發(fā)展路徑分化外,新的一年,大模型還呈現(xiàn)出一個統(tǒng)一趨勢:開源開放。
最初,開源指“開放源代碼”,在人工智能和數(shù)字時代,開源更指的是“開放資源”。有業(yè)內(nèi)人士告訴記者,其實在DeepSeek-R1發(fā)布之前,o1模型已經(jīng)具備了深度思考的能力,只是OpenAI秉持閉源策略,并未公布o1的技術方案,而DeepSeek則是自主探索出了背后的技術,并對此進行了全面開源,引發(fā)全球熱潮。
記者注意到,今年,在DeepSeek的帶動下,越來越多的AI廠商開始擁抱開源:2月14日,百度宣布文心大模型4.5系列將于6月30日正式開源;OpenAI方面表示正在討論公開AI模型權重;馬斯克宣布,xAI將在Grok 3變得穩(wěn)定后,對Grok 2開源……就在剛剛過去的2025全球開發(fā)者先鋒大會上,商湯科技、MiniMax、階躍星辰等多家參會企業(yè)也紛紛亮出自家最新的開源模型。
“對企業(yè)自身而言,開源可以吸引更多的關注和使用者,激發(fā)開源社區(qū)的創(chuàng)新活力,推動技術快速發(fā)展,還能通過共享資源和知識,來降低企業(yè)的研發(fā)成本!惫鶟龑τ浾弑硎,越來越多AI企業(yè)選擇開源,一方面將促使各企業(yè)更加注重打造差異化的生態(tài)體系,圍繞開源模型衍生出不同的服務、插件、工具等產(chǎn)品;另一方面,為了在生態(tài)競爭中勝出,企業(yè)會聯(lián)合起來制定統(tǒng)一的接口規(guī)范、數(shù)據(jù)格式等標準,提高整個行業(yè)的協(xié)同效率和兼容性。
實際上,大模型研發(fā)一直有開源和閉源兩大陣營,比如OpenAI是閉源,Meta堅持開源。田豐告訴記者,在AI領域,很多企業(yè)會選擇開源上一代模型,而對最新技術有所保留,但DeepSeek的出現(xiàn),把最新的技術和成果都共享了出來,不藏私,這就徹底改變了開源的格局!伴_發(fā)者沒有足夠的時間去適應所有大模型,大家只會選擇最領先開源模型社區(qū)貢獻力量。”在他看來,如今,大模型開源已經(jīng)從技術開源逐漸走向了生態(tài)競爭。
2月21日,DeepSeek宣布將陸續(xù)開源5個代碼庫,以完全透明的方式分享其進展。在不少人看來,DeepSeek此舉的目的就是以充分的開源,推動建設自己的大模型開源生態(tài)!斑@就相當于開發(fā)者在DeepSeek的內(nèi)部一樣,可以看到它每天哪條路走通了,哪條路沒走通!碧镓S說,在保持技術領先的情況下,越大程度的開源就越有利于吸引全球開發(fā)者的關注和參與,這就形成了穩(wěn)定的開源生態(tài)。
未來,要想讓人工智能更好地發(fā)展,我們應該堅持閉源還是開源?對于這個問題,DeepSeek-R1給出的答案是:在人工智能發(fā)展路徑的選擇上,開源與閉源并非非此即彼的對立關系,人工智能發(fā)展需兼顧開源的技術普惠價值和閉源的商業(yè)可持續(xù)性,通過分層協(xié)作實現(xiàn)“共享-共贏”的科技平權目標。
“AI這個領域本身就是由開源推動的!眲⒅h認為,開源不僅是一種技術選擇,更是一種信任機制。當一個項目開源,意味著它向全世界證明自身的可信度我說它能做到什么,任何人都可以去驗證,這種機制將極大地提升現(xiàn)代社會的運作效率!拔磥恚_源會得到更深入、更廣泛的應用,它是一種不可逆的趨勢!
對于企業(yè),劉知遠表示,不能簡單地將開源視作一種無條件的共享,而是要注重如何在開源的基礎上,構建更深層次的技術優(yōu)勢!罢嬲母偁幜,不在于某一個具體的開源模型,而在于如何高效、穩(wěn)定、可持續(xù)地生產(chǎn)更先進的模型。這才是決定一家AI公司能否保持領先的關鍵!彼f。
本報北京2月24日電
來源:中國青年報客戶端