劃重點(diǎn)
01李開復(fù)旗下零一萬物推出最新旗艦?zāi)P蚘i-Lightning,性能超越GPT-4o-2024-05-13,位居UC伯克利大模型競技場總榜第6。
02Yi-Lightning每百萬token的價格僅為0.99元人民幣,不到GPT-4o的3%,降低了近2/3。
03李開復(fù)認(rèn)為,中國大模型創(chuàng)業(yè)公司應(yīng)換一種打法,尋找獨(dú)特的“多快好省”的打法后發(fā)制人。
04除此之外,他認(rèn)為衡量模型能力很重要,應(yīng)關(guān)注模型與用戶之間的互動和認(rèn)可程度。
05目前,國內(nèi)已進(jìn)入AI應(yīng)用商業(yè)化拐點(diǎn),李開復(fù)對ToC和ToB領(lǐng)域的應(yīng)用發(fā)展表示樂觀。
以上內(nèi)容由大模型生成,僅供參考
GenAI 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
我們只落后OpenAI 5-6個月,但要進(jìn)一步縮短這個時間差,大家的難度都很大。
國產(chǎn)大模型首次在國際最具挑戰(zhàn)的“大模型競技場”榜單上超過GPT-4o(5月版本),當(dāng)零一萬物的名字緊跟在OpenAI、Google之后,李開復(fù)卻如是坦言。
就在“大模型六小強(qiáng)”叫停預(yù)訓(xùn)練的傳聞甚囂塵上之時,李開復(fù)旗下零一萬物歷時5月憋了個大招,用實(shí)際行動回應(yīng)一切:
推出最新旗艦?zāi)P?strong>Yi-Lightning,性能超越GPT-4o-2024-05-13,沖上UC伯克利大模型競技場(Chatbot Arena)總榜第6。
還把每百萬token的價格打到了0.99元人民幣不到該版本GPT-4o的3%,相比于GPT-4o-mini百萬token輸入輸出價格的均值,也降低了近2/3。
△以上數(shù)據(jù)截止10月26日
不僅大模型競技場官方發(fā)帖盛贊,“這標(biāo)志著中國大模型的強(qiáng)勁增長”。
也得到了大模型社區(qū)的廣泛認(rèn)可:
中國大模型正在迎頭趕上!很高興看到競爭仍在繼續(xù),這迫使谷歌和OpenAI等大公司繼續(xù)開發(fā)他們的模型,更重要的是,發(fā)布這些模型。
而這樣一個模型背后,另一點(diǎn)值得關(guān)注的是,李開復(fù)博士和他旗下的零一萬物,對中國大模型創(chuàng)業(yè)公司的發(fā)展路徑,又有了更清晰的認(rèn)知。
就在與量子位的一對一對談中,從打榜,到追趕OpenAI,再到大模型應(yīng)用的商用落地,李開復(fù)博士坦誠暢聊一切,還與我們分享了來自硅谷的最新見聞。
具體細(xì)節(jié),在此分享。
(以下為李開復(fù)觀點(diǎn)呈現(xiàn))
中國大模型創(chuàng)業(yè)公司要“換一種打法”5-6個月的差距如何追趕
零一萬物從去年11月提出Yi-34B,到今年5月的Yi-Large,再到現(xiàn)在10月的Yi-Lightning,大約是5-6個月出一個模型,每次的新模型基本都能夠達(dá)到5-6個月之前世界第一的水平。
5-6個月代表著一個絕對的差距嗎?
我覺得追趕有兩種心態(tài),一種心態(tài)是我要用一樣的方法論去做一樣的事情,消耗一樣的資源往AGI去沖。如果是這種思路,那放棄追趕是正確的。
OpenAI在訓(xùn)練GPT-4的時候花了1億美金,GPT-5花了10億美金,GPT-6可能就要花100億美金,越往下越是一個天文數(shù)字。國內(nèi)沒有一個創(chuàng)業(yè)公司能融這么多錢,大廠可能也不舍得花這么多錢。
我們必須要有一個認(rèn)知:美國有一些投資人的心態(tài)是很獨(dú)特的,無論三年內(nèi)燒出AGI的概率有多低,都要去砸一下試試。像OpenAI,有非常好的口才能說服一批投資人投他們;像馬斯克,他的名字可能就值幾十億美元;像Google,不甘心他們最先發(fā)明的技術(shù)風(fēng)頭被別人搶走,所以咬咬牙也會投入;Meta我覺得一定程度是在攪局,但反正他們最近的廣告收益很高,花個10億美金甚至100億美金沒什么問題。
我們是沒有這樣的巨量資源的。
所以一模一樣的打法是難以復(fù)制到初創(chuàng)企業(yè)身上的。但我們可以換一種打法,就是找到獨(dú)特的“多快好省”的打法后發(fā)制人,用最少的資源,訓(xùn)練出力所能及的最優(yōu)秀的模型。
我們說只落后OpenAI 5-6個月,如果說要再進(jìn)一步縮短這個時間差,包括我們在內(nèi)的中國同行們,難度都很大。零一萬物的想法是,我們要做一個世界一流的模型,現(xiàn)階段的策略會晚于第一個做到的模型5-6個月,不過我們會爭取做得比它成本更低、速度更快這樣可用性反而是更高的。
中國公司很擅長把一件事情做到極致,用更低的成本,實(shí)現(xiàn)更高的效率。成本低了能夠帶來更多應(yīng)用的爆發(fā)。
衡量模型能力很重要
我認(rèn)為不能衡量的事情就沒法進(jìn)步,所以打榜不是為了像高考一樣看能得第幾名,而是去了解你在全球這么多厲害的公司和人當(dāng)中,處在什么樣的位置,是不是還有資格繼續(xù)往前沖,還是已經(jīng)掉隊(duì)了。這一點(diǎn)非常重要。
各種榜單衡量的東西不一樣。比如MMLU衡量的是“天花板”,問題是蓋一個天花板100米高的房子,而你最高只能跳幾米,上面的80米完全跳不上去,那有什么意思?
所以我們更看重如何去衡量模型的能力,以及是否被用戶認(rèn)可。UC伯克利大模型競技場的評估方式,是讓人來公平地評價,這是我們和全球巨頭一直關(guān)注這個榜單的原因。
我們認(rèn)可的不是打榜、刷榜的概念,而是用一個公平的,可以和最終用戶對接、讓他們來評分的這樣一個方法,來給我們反饋。
舉個例子,這次榜單上我們提交了兩個模型,看它們不同的得分,我們就能學(xué)到很多東西。
我們在這個榜單上是全球范圍排第三名的公司,只在OpenAI和Google之后。讓我們很欣慰的是我們知道自己肯定處在世界第一梯隊(duì)上,這一點(diǎn)對我們來說非常重要,讓團(tuán)隊(duì)非常振奮,因?yàn)槲覀冎雷约旱哪P褪强梢源驀鴥?nèi)、國外市場的,誰都不用怕。
這對我們團(tuán)隊(duì)來說是一個正反饋,讓我們有信心往前沖,繼續(xù)做模型,繼續(xù)做預(yù)訓(xùn)練。
另外很重要的是,跟排我們前面五名和后面五名的模型相比,Yi-Lightning的速度都比它們快。
AI應(yīng)用進(jìn)入商業(yè)化拐點(diǎn)現(xiàn)在國內(nèi)進(jìn)入了一個可以做AI應(yīng)用的時間點(diǎn)。
為什么早前AI應(yīng)用比較難做呢?其實(shí)就一個原因:好的模型推理成本太高。一年半前,中國就沒有一個模型是可以做出PMF(產(chǎn)品市場匹配)來的。
過去做移動應(yīng)用,用戶從10萬增長到100萬,雖然也會增加帶寬、服務(wù)器等成本,但公司們不會因此破產(chǎn)。而在AI時代,如果一次推理就要幾塊錢,當(dāng)用戶10倍增長時,創(chuàng)業(yè)公司們馬上就會破產(chǎn)。
今年,國內(nèi)達(dá)到世界一流水平的模型已經(jīng)有幾個了,并且有些成本已經(jīng)足夠低。比如我們的Yi-Lightning,每百萬token的價格是0.99元人民幣,就已經(jīng)可以支持一個AI搜索應(yīng)用:每次搜索成本只要1-2分錢,即使用戶達(dá)到百萬級別,每人每天搜5次,成本也還是可控的。
這就是為什么要等到有一個性價比足夠高的世界級模型,才能像移動互聯(lián)網(wǎng)時代那樣去做應(yīng)用的原因。
國內(nèi)ToC的應(yīng)用目前還沒有出現(xiàn)一個Super APP,不是因?yàn)橛脩舨恍枰且驗(yàn)橹白銐蚝玫哪P蜁讶魏我粋創(chuàng)業(yè)者燒破產(chǎn)。到今天好的模型足夠便宜,情況就大大改變了,對ToC我是非常樂觀的。并且我相信,中國的創(chuàng)業(yè)者在做PMF方面是超過美國的,就好像美團(tuán)做得比DoorDash好,抖音做得比Instagram好一樣。
不過做應(yīng)用可能還有一個挑戰(zhàn),就是用戶的獲取成本。
國內(nèi)大廠很強(qiáng)勢,創(chuàng)業(yè)公司獲取用戶的成本會比較高。所以對創(chuàng)業(yè)者來說,除了要有信心,模型夠好夠便宜,下一個就是怎么去找到機(jī)會,用比較少的錢撬動比較多的流量,或者是解決用戶的強(qiáng)需求。
對于ToB的應(yīng)用,我覺得本質(zhì)是大模型代表的AI 2.0時代跟AI 1.0時代是有差別的。AI 1.0是項(xiàng)目制,你要做什么我全部幫你進(jìn)場去做,做一單賠一單。在今天很多ToB的公司還是做一單賠一單,這個是讓人擔(dān)憂的。
但比較樂觀的是,當(dāng)你擁有大模型的能力,項(xiàng)目可以更便宜地做出來。有大模型的底座,不用收集那么多數(shù)據(jù),它本身的能力就已經(jīng)很強(qiáng)了。
大模型還有很多過去未有的能力,無論是做Agent、多模態(tài)內(nèi)容生成,還是做Copilot、直播,這些能力都是AI 1.0時代沒有的,是值得一試的。
走ToB路線特別要當(dāng)心的是,首先,不要做一單賠一單。
其次,要認(rèn)識到客戶對模型沒有需求,對解決方案才有需求。
第三,應(yīng)該努力去找到合適的行業(yè),能夠快速讓模型的本質(zhì)融合行業(yè)的特質(zhì),實(shí)現(xiàn)省錢或者賺錢,最好是賺錢。
對于零一萬物來說,我們會逐漸釋放我們的產(chǎn)品。在ToC方面,我們還是會延續(xù)國外先嘗試,再回到國內(nèi)市場的路線。主要是我們已經(jīng)在海外建立了一些實(shí)操經(jīng)驗(yàn),積累了一些對海外市場的理解,而且有些應(yīng)用在海外收費(fèi)比較容易被用戶接受。
ToB的話我們在零售、政務(wù)、金融、能源等領(lǐng)域做出了一些有利潤的單子。但是坦誠地說也還在不斷驗(yàn)證,如何去建立可持續(xù)的優(yōu)勢。
當(dāng)你在某個行業(yè)里拿下一單,它是一個不可復(fù)制的特例,還是可以重復(fù)再做第二單、第三單?在第二單、第三單中技術(shù)的重復(fù)使用能不能讓你的利潤率變得更高?這都還需要驗(yàn)證。我們的第二年,會聚焦在從技術(shù)到應(yīng)用實(shí)踐的商業(yè)化驗(yàn)證。
什么應(yīng)用是值得去做的?2009年我做過一次演講,當(dāng)時說到移動互聯(lián)網(wǎng)的應(yīng)用到來的順序會和PC應(yīng)用成長的順序相關(guān)。比如先是讀取內(nèi)容、撰寫內(nèi)容,然后是搜索管理內(nèi)容,再能夠去把內(nèi)容做得更加多元化、更豐富,之后能夠在內(nèi)容之外拓展付費(fèi)行為,包括廣告、支付、電商、社交等等。內(nèi)在邏輯是人的需求其實(shí)就是這些。
一個新的時代到來,應(yīng)該也是這樣的。AI內(nèi)容的閱讀和生產(chǎn),是ChatGPT、Midjourney、可靈。那下一個階段就是AI搜索,然后是多模態(tài)社交/娛樂,再走到本地生活&電商等等。
健康的大模型生態(tài)是倒三角結(jié)構(gòu)“ChatGPT火爆之后,錢都讓英偉達(dá)賺走了”,這個觀點(diǎn)是一個客觀的事實(shí)。
一個主要因素是英偉達(dá)的主要客戶是超級大廠,他們一買就買十萬張、幾十萬張卡,這一下就讓英偉達(dá)賺了很多錢。
這些公司的想法是要成為第一個做出AGI的公司,所以花多少錢買GPU都是值得的。這個心態(tài)就會導(dǎo)致錢都流向英偉達(dá),也可能導(dǎo)致他們做出來的模型很厲害,但都很大、很昂貴。
對于我們來說其中的機(jī)會就是做更小的、推理成本更低的模型,去推動應(yīng)用的發(fā)展。
要突破這個現(xiàn)狀,我覺得就是要有足夠多的公司了解到這樣一個生態(tài)系統(tǒng):
底層是GPU,中間是各種模型平臺,模型平臺之上是應(yīng)用。這個結(jié)構(gòu)一定要是上層最大、底層最小的倒三角,才是健康的。
另一個因素是,英偉達(dá)實(shí)在太強(qiáng)了,利潤非常高。如果有兩三家芯片廠商能與之競爭,他們的整個盤子可能就沒有那么大,我們買到的GPU也可能變得更便宜。但短期來看,英偉達(dá)還是業(yè)界最強(qiáng)。
硅谷新見聞o1引入了一個非常新的思維方式:不是所有智能都來自于預(yù)訓(xùn)練和微調(diào)。
以后大模型技術(shù)的發(fā)展應(yīng)該會有三條路線:
第一還是怎么做好預(yù)訓(xùn)練;
第二是怎么做好post-training;
第三是怎么在推理之中加入思考。
o1最讓我驚訝的是,我在美國碰到一位經(jīng)濟(jì)學(xué)教授,他跟我說,他用o1等于能少招一個博士生。
他有什么想法不用等到博士生每周跟他1 on 1的時候再來討論,而是可以隨時打開電腦去問o1。雖然有時候會有錯誤,但教授給它指出后,o1居然會學(xué)習(xí),有時候還能反過來糾老師的錯。所以這件事就變成,o1可能比一個博士生還能增強(qiáng)老師的能力。
當(dāng)時我跟他聊的時候還有OpenAI的人在旁邊。OpenAI的人就很興奮地加入進(jìn)來問,教授你愿意花多少錢買o1的服務(wù)?教授說很簡單,我招博士生一年是10萬美元,那我愿意付這10萬美元給o1。
另外一件大家都在討論的事是OpenAI的融資。
OpenAI的這次融資有點(diǎn)辛苦,融到66億美元,看起來很多了,但要考慮到OpenAI的估值是1570億美元。
挑戰(zhàn)來自于哪里?我的理解是GPT-5是不太好訓(xùn)練的。理論上GPT-5應(yīng)該已經(jīng)出來了,但現(xiàn)在推延了,會推延多久大家并不知道。
但OpenAI可怕的地方在于,他們內(nèi)部藏了很多類似o1這樣的項(xiàng)目。他們并不著急推出,第一是怕競爭對手會學(xué)習(xí)進(jìn)步,第二是要等到融資的節(jié)點(diǎn),回應(yīng)競爭對手的節(jié)點(diǎn)再拿出來用。
可以觀察到的是,一年前,投資人們還在瘋狂投各種模型,到今年,大家已經(jīng)意識到,從純財務(wù)投資的角度來講,花很多錢去訓(xùn)練一個并沒有產(chǎn)生太大商業(yè)價值的模型,幾個月以后它就可能被取代,錢就白燒了。
我講這個事情最主要的一點(diǎn)是想說:
投資人已經(jīng)開始用商業(yè)思維來評估這個領(lǐng)域了。
完