展會信息港展會大全

王小川評OpenAI o1:國內大模型達到相似水準,需要9個月
來源:互聯(lián)網   發(fā)布日期:2024-09-26 20:24:03   瀏覽:3655次  

導讀:劃重點 01OpenAI發(fā)布的新模型o1以強化學習為基礎,關注語言為核心的思維鏈,提高泛化性。 02王小川認為,o1不代表范式轉彎,而是范式升級,將原來的模型作為組件之一。 03除此之外,他還預測代碼將成為大模型下一步的核心能力,大模型通過寫代碼解決更多問題...

劃重點

01OpenAI發(fā)布的新模型o1以強化學習為基礎,關注語言為核心的思維鏈,提高泛化性。

02王小川認為,o1不代表范式轉彎,而是范式升級,將原來的模型作為組件之一。

03除此之外,他還預測代碼將成為大模型下一步的核心能力,大模型通過寫代碼解決更多問題。

04目前,百川智能在醫(yī)療場景上取得突破,計劃繼續(xù)深化醫(yī)療領域的應用。

05盡管大模型創(chuàng)業(yè)競爭激烈,王小川仍認為至少有一家創(chuàng)業(yè)公司能在這個領域生存。

以上內容由騰訊混元大模型生成,僅供參考

王小川評OpenAI o1:國內大模型達到相似水準,需要9個月

主筆:張小

編輯:石丁

出品:科技新聞《潛望》

2024年9月,OpenAI預熱已久的“Strawberry”(草莓)項目終于問世,它重置命名模式,沒有沿用原有的GPT命名,而是取名為o1模型業(yè)界認為,o1代表了AGI范式的一次大轉移或者大升級。

在靠語言模型預訓練的Scaling Law這個經典物理規(guī)律遇到瓶頸后,包括OpenAI在內的多家硅谷明星公司,已經把它們的資源重心押寶在一條新路徑上:強化學習。o1的發(fā)布把以強化學習為基礎的后訓練,推到了焦點中心。

百川智能創(chuàng)始人兼CEO王小川很早就開始在公開演講中談論強化學習。他曾說,大模型代表快思考,它叫“學”;強化學習是慢思考,叫“思”。“學”和“思”兩個系統(tǒng)最終會走向融合。

在o1發(fā)布后,王小川在第一時間接受了我們的訪談。關于o1和強化學習,他有一些核心觀點:

1、o1不代表范式轉彎,而是范式升級,OpenAI摸到了一條從快思考走向慢思考的道路;

2、o1的關注重點在于兩點:從以語言為核心走向思維鏈,更強調思維鏈(CoT,"Chain of Thought");把思考過程和給出結果,分兩階段運行,能夠增加泛化性;

3、除了數(shù)學和代碼,AI醫(yī)生是可以用強化學習提升的領域;

4、另外,他做了一個預言:代碼會變成大模型下一步的核心能力,大模型通過寫代碼解決更多問題甚至是自身思考過程,未來幾年將從強化學習范式走向寫代碼來解決問題的新范式。

以下為王小川的訪談節(jié)眩(為了方便閱讀,作者做了一些文本優(yōu)化)

o1摸到了一條從快思考走向慢思考的道路

科技新聞《潛望》:關于OpenAI做強化學習的經過,你了解哪些事實?

王小川:之前在Sam Altman被宮斗下課的時候,我理解并不是狗血的事。

它的董事會是又聰明、也挺正直的人,不會犯傻。有的人要么蠢,要么壞。但這些人既不蠢,也不壞。紛爭背后一定有某些大家沒發(fā)現(xiàn)的事。

在之前一周,我聽到當時他們一個核心的人傳出來:NoamBrown,之前是DeepMind做強化的一個大神加入OpenAI,并且號稱跟其他朋友講,他們有一些突破性的事情了。一周后,Sam Altman又出了點事。

前后是兩個事。第一個,被宮斗,一定是技術上大家沒看到的東西在內部有質疑,說Sam Altman比較激進,他對安全性(認識)不足,把安全重要性放在技術突破后面。有些突破性的技術可能不安全,但他有點無所謂,想盡快把技術突破做下去。恰巧Noam說他們有技術突破,而Noam代表強化學習。

兩個放一塊,去年底我們推論出,OpenAI強化學習有一些突破了。

科技新聞《潛望》:今年初OpenAI發(fā)Sora,你們技術同事想跟進,被你摁死了。這次o1呢?

王小川:這個技術范式核心是語言模型,然后走向強化學習這是智能提升的兩個階段。

當做Sora時,它既不是語言學習,也不是強化學習,就不在提升智力方向里,而是另一個獨立產品。因此做Sora,從技術上并不代表智能的提升,場景上也不是百川所追求的。我當時認為,有同學這么想,屬于“技術沒想明白,場景也沒想明白”。

去年4月百川下場的時候,就在強調強化學習,以及強調多模態(tài)不是智能提升方向。

我們說大模型是“讀萬卷書”,強化學習是“行萬里路”。大模型本身叫“學而不思則罔”,它會讀很多書,但內心偏混亂。單獨強化學習有一個典型作品,是AlphaGo。我相信AlphaGo是對人工智能的啟蒙,它是強化學習特別是自我博弈的一個典型代表。這個技術,之前DeepMind一直沿著這個路子走,走到后來發(fā)現(xiàn)它叫“思而不學則殆”,停在一個問題里面走不出來了。

因此,這兩個技術都有自己的局限性。

在人工智能發(fā)展史上DeepMind有很多成果,像AlphaGo、AlphaZero,甚至一點數(shù)據都不用。只是很不幸,OpenAI從語言里面把通用智能往前走了一步,就是用學習的方法,用思考的方法。這種技術(學習和思考)早晚會合璧。

科技新聞《潛望》:有評論說“相比GPT-4o,o1模型向前邁了一步,卻又退了兩步”,你怎么看?

王小川:我不認為它叫進一步、退兩步,也不叫轉彎,就是范式升級了。

快思考是慢思考誕生的一個過程。先得有快思考,才能有慢思考,它不是轉彎的過程。而是,怎么用大模型的快思考,之后能夠讓它學會慢思考,是一個進階。

我沿用DIKW的模型DIKW指的是從Data到Information到Knowledge最后到Wisdom,四步走。之前的搜索是Information這層,幫你獲得信息。到了大模型LLM之后就到了Knowledge這層,它有知識、有溝通、有快思考。而今天有了這么一個慢思考,它已經從Knowledge進化到了有Wisdom的雛形,真的開始有智能。

因此它是范式升級,把原來的模型作為組件之一,不只是用今天這么一個強化學習服務于大模型。大模型是它的一個組件了,這是一個大的跨越。

總結來說,既不是轉彎,也不是進退,而是摸到了一條走向慢思考的道路。

科技新聞《潛望》:為什么我們需要一個能慢思考的AI?它能幫我們解決哪些事?

王小川:智能本身一定是思考的過程。無人駕駛做端到端,在端到端里面也需要能一步、兩步、三步去想。就像我們做幾何定理證明題,求解一定得有思路。當你有思考過程,就是一個慢思考。所以,智能本身需要有多步的思考。

大多數(shù)比較復雜一點的問題,不管是代碼問題,還是數(shù)據、邏輯問題,或者咱們日常想解決的事,都得分步驟解析,而不是一拍腦袋就有快思考結果。

除了文學寫作,可以用快思考寫詩,一鼓作氣做完了;大多數(shù)時候需要有多步,需要慢思考。

科技新聞《潛望》:o1隱藏了思維過程,甚至有人破解o1的思維鏈會被警告要封號,OpenAI為什么這么做?

王小川:之前做大模型,各家用它的數(shù)據做蒸餾,能夠迅速接近它。OpenAI畢竟是一個商業(yè)公司,不是一個公益型公司。一旦公開,大家不僅仿效它的邏輯,更容易爭奪它的數(shù)據;不僅破解它的算法,而且是它的數(shù)據獲齲

這會讓別人家進步變得很快。也說明,這個技術本身獨有性是有限的。

因此,封鎖是一個競爭策略。

從以語言為核心走向思維鏈,

分兩階段運行增加泛化性

這兩句把強化學習的精髓講完了

科技新聞《潛望》:我們應該怎么看待o1,是一個過渡性的產品形態(tài)嗎?

王小川:o1有點像當年GPT-3的發(fā)布,離最后3.5和4突破性有距離。但是3發(fā)布在業(yè)內就已經很震撼了。

科技新聞《潛望》:我前幾天和一個前OpenAI研究員(邊塞科技創(chuàng)始人、清華叉院信息研究院助理教授吳翼)聊,他的研究方向是強化學習。他說,現(xiàn)在相當于從階段一進入到階段二。之前pre-training(預訓練)能挖的金礦越來越少,大家意識到以強化學習為基礎的post-training(后訓練)是第二個大金礦,就讓邁向AGI的梯子多了幾節(jié)。

王小川:這個理解完全一樣。

科技新聞《潛望》:在你看來,OpenAI o1應該關注哪些要點?

王小川:第一,它堅持以語言為中心,又叫語言中軸。

之前大家多少覺得多模態(tài)是智力。但你看OpenAI上多模態(tài)幫助不大,現(xiàn)在還是語言為核心,甚至更進一步,從語言為核心走向CoT("Chain of Thought",思維鏈),更強調思維鏈了。因此語言在中間承載思考的時候變成一個多步的思考。

第二,它把思考過程和給結果,分成了兩個步驟,這樣對思考過程能夠更好進行一個泛化。

比如說解數(shù)學題的時候,你可能是學會一個思路,就能解好多題。因此并不是他在追求這個題解對了的一個結果,而追求解題過程是對的。分成兩個階段之后,能把CoT變成一個能泛化到從你解一個數(shù)學題,到解更多題,甚至到其他領域共性能力提升。

因此,核心關注語言為核心的CoT,以及分兩階段的運行能增加泛化性這兩句話有很大信息量,已經把強化學習的精髓講完了。

科技新聞《潛望》:能不能介紹一下“強化學習”這個概念?

王小川:“強化學習”跟之前“監(jiān)督學習”的區(qū)別是:監(jiān)督學習你要告訴它解題過程是什么,它依葫蘆畫瓢;強化學習是不告訴它過程,只是判斷你做得對不對。

就像教小孩,你說你要做個事,一二三怎么做,小孩可能學得快,但他并沒有“知其所以然”。但是如果他做對了,你說對;他做錯了,你說錯,這個小孩的學習要自己花心思找方法。這就是“強化學習”跟“監(jiān)督學習”的本質區(qū)別。

大模型為什么特別強調強化學習呢?大模型本質是把全天下最優(yōu)質的語言來做訓練,我們說是“一個壓縮的過程”。壓縮過程是一個在原有數(shù)據“分布內”的一種智能,它的思考能力是不會超過你原始數(shù)據的。

但我們知道,單看智能是跳出原來的框架去想事。數(shù)學上叫“分布外”,大模型叫“分布內”,就在探索以前未知的事。所以這個時候需要創(chuàng)造環(huán)境,讓你在這個環(huán)境互動當中,環(huán)境的反饋能給原來數(shù)據語言之外的內容,能提升你的解題問題或者智力。

從“分布內”走向“分布外”,這是智力必須的過程。所以用強化學習就變成了必須的事。

科技新聞《潛望》:這里面包含哪些關鍵技術原理,復刻它難嗎?

王小川:有很多數(shù)據和工程問題要做。復刻它本身,如果你蒸餾它會變得很簡單;但復刻起來的時候,對于你的算力,對于你的專家來標注這個系統(tǒng),都還是有蠻多挑戰(zhàn)。

比復刻個GPT-4會變得更難一些。

科技新聞《潛望》:還是需要專家、需要人工?

王小川:我覺得需要的,也需要人教它。

科技新聞《潛望》:Self-play RL(自博弈強化學習)能讓人工更少嗎?

王小川:肯定會。計算機領域有句話是這么說的:求解一個問題比驗證一個問題更難。找問題答案比判斷答案對不對更難。

你走迷宮,找到那條出路是難的,但要驗證這個迷宮走得對不對、是不是走通了、有沒有撞墻,是簡單的。或者做幾何定理證明題,你求解它難,但你找到求解過程后,讓另一個人驗證求解過程有沒有bug是簡單的。

我們很愿意用強化學習,其中重要的是,我并不知道怎么解這個題,但我能驗證你解得對不對。這個情況下能使整個系統(tǒng)的能力得到很大提升,也降低標注數(shù)據本身的難度,或者同等標注數(shù)據的難度,它就能解更復雜的題目,這是中間的核心邏輯。

科技新聞《潛望》:強化學習能實現(xiàn)泛化性嗎?它能夠帶來通用智力水平的提升嗎?

王小川:強化學習之前的泛化性是不好的。AlphaGo之前就做得不好。

今天OpenAI基于這兩件事,我覺得把強化學習做得挺好。第一,它局限在數(shù)學、代碼,這個局部領域有足夠大的突破。也說明這兩個領域里有足夠好的數(shù)據來驗證它。比如數(shù)學題做得對不對?一個程序是否能編譯通過?運行完了跟你想要的結果一不一樣?所以,在沒有泛化性和絕對答案的情況下,它做得特別好。

第二,它的泛化性來自于之前把它分為兩階段,就是把CoT和后面的執(zhí)行過程分開了。因此,就像之前訓練代碼訓練了之后,整個系統(tǒng)邏輯能力提升了一樣。之前咱們也講了GPT-3.5這兩個版本合在一起之后,邏輯性提升來自于代碼的學習。現(xiàn)在也是一樣,其他場景的泛化性來自于對于數(shù)學和代碼的CoT本身掌握得更好了,這個CoT能泛化到其他思考環(huán)節(jié)去。

科技新聞《潛望》:之前大家對GPT-4有一個詬病是數(shù)理能力比較差,o1變成了數(shù)學、編程方面的偏才,未來會出現(xiàn)更多專注于特定領域的模型嗎?

王小川:我不覺得它是偏才,現(xiàn)在就是一個“文科也不錯、理科一下子變得特別強”的模型。

至少OpenAI代表的路線圖是通用的道路,會逐步把這樣一個領域拓展開。并不代表以OpenAI自己積累的數(shù)據閉環(huán)就能做到全知全能。在各個領域使用的時候,專業(yè)領域的數(shù)據會扮演很重要的角色。

科技新聞《潛望》:做一個o1需要多少的算力、數(shù)據,有沒有一個預估?

王小川:可能跟做個GPT-4差不多。

科技新聞《潛望》:o1 + GPT-4o會出現(xiàn)什么?

王小川:不需要合并。現(xiàn)在叫o1,已經版本重置了。

合并本身不難,即便包含不了,分兩個調用也行。

科技新聞《潛望》:o1只是新范式的第一步,之后它會怎么演變?

王小川:它的算力繼續(xù)增加、訓練效率提升,以及如何在領域數(shù)據中更好地能去使用,還有大量可挖掘的內容。

往下有幾個事可能會發(fā)生:第一,領域的更好的泛化能力,就是找到范式把領域知識給做起來,是一個要突破的事。

第二個,再往下,我可以做個預言:未來代碼會扮演更重要的角色。

以前代碼是幫助提高邏輯能力,或者幫助程序員輔助寫代碼。我認為未來代碼會變成大模型下一步的核心能力。

也就是說,大模型通過寫代碼能夠去解決更多的問題,解決自身的思考過程,從強化學習范式還會走向寫代碼來解決問題這個新范式這在未來幾年內會實現(xiàn)。

走出大廠射程,

大模型“六小龍”至少能活一家

科技新聞《潛望》:百川在強化學習這條路上是怎么做的?

王小川:百川一直挺重視強化學習,去年就成立這樣一個團隊。OpenAI是走在我們前面,這個得承認。

我們在Baichuan3 發(fā)布做了一個實驗,用強化學習訓練詩詞。做強化學習之前要靠金標準,是在能絕對判斷對錯的地方訓練,所以通常要做理科任務,數(shù)學、代碼是可以做的。文科上沒有對錯判斷的標準,寫得好不好挺難讓機器校對。所以,我們想在文科里是否也有一個Reward Model(獎勵模型),于是想到用唐詩和宋詞。

尤其是宋詞,大家寫起來比較難,它的字數(shù)、平仄、韻律、對仗有很多要求。但是要求反而是一種規(guī)則。當時我們在訓練模型的時候,不是說讓機器仿照人這么寫詩詞,而是讓機器寫詩詞之后,我們用一個程序模型來判斷詩詞寫得是否符合字數(shù)、平仄、韻律和對仗。預訓練時就做了這樣一個實驗,取得了不錯效果,代表我們在這方面之前就有積累和思考。

再往下,除了數(shù)學和代碼以外,我們認為醫(yī)生是蠻好的可以用強化學習提升的領域。醫(yī)療在很多問題上是有標準答案的。比如一個病人,綜合癥狀他到底有什么樣的?或者該做什么檢驗、檢查,該開什么藥?這些地方是有答案的。

如果仿照醫(yī)生的CoT再來驗證答案對不對,這樣能使模型的功力大漲。因為醫(yī)生解釋,不是光看醫(yī)學院的書,讀完就會了。他在臨床中間一輩子可能看幾萬個病人,得到自己的提升。醫(yī)生是在病人的互動中得到提升的,很多數(shù)據被記錄下來。

因此,強化學習用來做醫(yī)療是一個特別好的應用方法,使醫(yī)療的可行性和質量得到很大提升。

科技新聞《潛望》:為什么你們當時做實驗選擇在詩詞領域,是一個文科領域,而沒有選擇像數(shù)學、編程這種理科領域?

王小川:容易上手。

你在做任何突破的時候都有挑戰(zhàn),因為它本身文科就好,只是文科上的不足是詩詞,因此用它來做驗證,比在當時做數(shù)學和代碼更容易上手做實驗。

科技新聞《潛望》:Reward Model怎么設計?

王小川:我們首先是會有程序能夠判定,比如說這樣一首詩詞,這種字數(shù)。比如通過詞牌名大概100多首,每個詞牌名的格式我們有數(shù)據分析。并且平仄,一聲、二聲、三聲、四聲,還有韻律、押韻,都可以用程序校驗,我們當時就已經寫了Reward Model。先是有一個規(guī)則的判定,再把它泛化成一個模型這個路線圖比較接近o1的做法。

但沒有它做得更完整。o1特別好,有CoT的過程,我們當時不帶CoT。

科技新聞《潛望》:今天看到o1以后,你能復現(xiàn)出哪些技術路徑,從中改進你們的做法?

王小川:我們更強調CoT了,原來中間沒有CoT這一步,直接從輸入到答案。

有CoT之后第一,我們做醫(yī)療的時候會找醫(yī)生的思考路徑,這樣更快提升它的能力,就是有CoT的過程,而不只是完整的端到端;第二,有CoT之后泛化能力也會得到很大提升,只要思路對,答案就對。

科技新聞《潛望》:做了一年多強化學習,有沒有積累更多關于強化學習的know-how?

王小川:強化學習一部分是從環(huán)境中學到新東西,一部分我發(fā)現(xiàn)它會激活原有一些能力。比如在寫詩詞,我們讓它學會了字數(shù)、平仄和韻律,結果大模型自己就把對仗輸出了本來還沒教它學對仗呢。

這就說明,它潛藏著記憶和能力,可以激活出來。所以在強化里,一方面是面向未來的范式,一方面它跟以前的強化學習邏輯也不完全一樣。

科技新聞《潛望》:但這幾個月AI有點變冷,o1能夠重振大家對于AI的信心嗎?

王小川:我不太關心外界環(huán)境,確實也聽說外界在變冷,大家覺得比較迷茫,技術突破變慢,或者沒找到應用場景。

然而對于百川,一開始就明確了我們的應用場景是在知識領域里造顧問,尤其是造醫(yī)生。場景很清晰,離結果更近了,而不是開辟新大陸。

科技新聞《潛望》:國內的公司現(xiàn)在達到GPT-4水平了嗎?

王小川:在接近吧。

科技新聞《潛望》:復刻o1的時間周期相比GPT-4怎樣?

王小川:會比做GPT-4快一些,難歸難,但畢竟隨著國內也好、美國也好這么多開源項目產生,不管大廠還是創(chuàng)業(yè)公司進入,資本的充裕度和人才的集中度已經比剛開始發(fā)布GPT-3.5或GPT-4之后市場的人才儲備、資金儲備多了很多。

在一兩個月時間里,有一些接近他們的模型就開始會出現(xiàn)了,會很快。

科技新聞《潛望》:你說國內還是國外?

王小川:都有可能。GPT-4比如用18個月,o1可能做到它那樣也許9個月。起步有一個樣子出來,可能1-2個月就有了。要達到一樣的高度需要花力氣。

科技新聞《潛望》:關于o1你有哪些想要知道但不知道的事?

王小川:挺多不知道,比如它擁有多少算力,有多少領域專家。

科技新聞《潛望》:o1可見上限是什么?

王小川:我認為可能在未來兩三年內,這個范式會跑出它的結果,跟GPT-3.5到4是一樣的。

剩下的就是代碼可能會扮演更重要的角色機器自己寫代碼,代碼運行完了,生成一個神經元網絡,甚至把神經元網絡和它的模型再融合到一塊去。

我認為未來還有新的范式會產生。

但是那一步做完了,我覺得AGI就接近了。

科技新聞《潛望》:你們接下來準備怎么做?

王小川:一方面美國領先的地方要跟進,另一方面堅定在醫(yī)療場景上突破。

科技新聞《潛望》:你說去年是為了趕上這個時代火車,一個快速rush的狀態(tài),今年呢?

王小川:我們去年不敢大聲提醫(yī)療,我講“醫(yī)療是大模型皇冠上的明珠”,大家不太理解這個場景的可行性。大家會問商業(yè)模式、倫理問題。

去年只造一個輪子,模型趕快入常今年開始,我們開始真正的雙輪驅動,“超級模型”+“超級應用”。而且是一個“水漲船高的應用”,不只是“沿途下蛋的模式”。

水漲船高的應用,什么意思?就是模型越大,我這個領域能做得更好;而不是模型大到一個階段就跟我領域沒關系了。“沿途下蛋”的意思就是我下了個蛋,就放那,模型再好,你就下個新的蛋。這種情況下,你的蛋越來越多,你自己就會被拖累了。

因此,先做個廣告模型放那兒,再做個客服模型放到那兒這種情況不叫水漲船高,隨著模型大就被淹掉的狀態(tài)。而說到醫(yī)療,模型越大,這個行業(yè)可能存活率越大,這叫水漲船高。

科技新聞《潛望》:也就是說,假設模型能力特別強以后什么場景可以應用。

王小川:對。但是,模型在一般場景下,我也能進入。模型越大,這個場景就越受益,可以找這樣一個場景。

科技新聞《潛望》:進去以后等著唄。

王小川:當然得努力工作了。

等著也對,模型越好,這個場景就越受益。

科技新聞《潛望》:模型和應用兩條腿,你現(xiàn)在對哪一條腿更滿意?

王小川:都在初始狀態(tài)。

未來這兩個也有關系,你的場景越清楚,對模型要求越細化。

科技新聞《潛望》:在醫(yī)療場景最終我們能看見的形態(tài)是什么?它好像不會是一個Super App,挺難想象的。

王小川:以前是App,就是叫PMF(產品市場契合點),我去發(fā)現(xiàn)需求,去滿足需求,去創(chuàng)造需求。這是以前的邏輯。我去年提了TPF(技術產品契合度),我們從需求驅動開始變成供給驅動,供給驅動就是這個需求已經現(xiàn)實存在,只是供給不足,我把它造出來,就有市常我更多地強調技術和產品匹配度。

大模型一個很大的邏輯是在“造人”,在造數(shù)字員工,因為它會語言,會思考,會溝通,而且學的是人類之前遺留下來的知識和經驗,所以它不是在造計算器、造車這種邏輯它是在造人。我們把造醫(yī)生當成重點突破。

如果從產品形態(tài)看,你就是造了一個能夠用的醫(yī)生,前期是從全科、兒科入手,未來會走向專科的醫(yī)生,到最后走向生命的數(shù)學模型。這是下一個階段,從智能模型走向生命模型,這是遠期目標。在機器智能模型里,它像智能人一樣,就是個醫(yī)生。

科技新聞《潛望》:人類跟它的交互界面會是什么?

王小川:靠自然語言的交互。

有可能你是個App,有可能是醫(yī)院里一個終端設備,但最后它的交互是靠語言進行。語言或者視覺,跟人一樣。

科技新聞《潛望》:在產品上什么時候百川讓大家看到一個大的突破?

王小川:今年內吧。今年開始可能能接觸到一點了,算是與人對話的。

科技新聞《潛望》:你上次說會造三個人,除了醫(yī)生,另兩個人你現(xiàn)在怎么想?

王小川:更通用的顧問我們也會做。

娛樂我們降低了。娛樂的目的是造虛擬世界,時間還沒有到。所以我們現(xiàn)在可以等一等,先把通用的顧問和醫(yī)生造出來。

我們想的娛樂不是跟你聊天的一個東西,而是造一個能夠去創(chuàng)造世界、一個敘事的故事。這里缺少足夠多的數(shù)據和資源訓練它。

科技新聞《潛望》:聊天機器人這個市場現(xiàn)在是一個紅海,終局會是什么樣?

王小川:它是不是個市場都不知道,就別說叫紅海市場了。

科技新聞《潛望》:大模型創(chuàng)業(yè)“六小龍”能活幾家?

王小川:至少活一家吧。

科技新聞《潛望》:怎么看字節(jié)和大模型創(chuàng)業(yè)公司的競爭?

王小川:字節(jié)就飽和式攻擊嘛,在一種共識里,字節(jié)是會發(fā)展非?。但一定有比他們更高的認知,他們看不到的東西,或者他們組織能力做不到的事,才會有創(chuàng)業(yè)公司生存的機會。

走出大廠的射程,在這個射程內你是沒什么好活的。

贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港