展會(huì)信息港展會(huì)大全

對(duì)著3個(gè)中國(guó)AI大模型,兩個(gè)美國(guó)科技界大佬深聊了半小時(shí)
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-12-04 11:17:39   瀏覽:207次  

導(dǎo)讀:智東西(公眾號(hào):zhidxcom)作者 | 徐豫編輯 | 云鵬智東西12月3日消息,當(dāng)前AI行業(yè)快速發(fā)展,競(jìng)爭(zhēng)也越來(lái)越激烈,特別是各種高級(jí)推理模型之間的競(jìng)爭(zhēng)。過(guò)去一段時(shí)間,中國(guó)科技公司陸續(xù)發(fā)布了3款自研的AI模型,分別是DeepSeek(深度求索)的Deepseek R1、阿里巴巴的Marco-1以及香港中文大學(xué)與商湯科技的聯(lián)合實(shí)驗(yàn)室MMLab的OpenMMLab混合模型。這些新AI模型在性能和可訪問(wèn)性上媲美Op ......

智東西(公眾號(hào):zhidxcom)

作者 | 徐豫

編輯 | 云鵬

智東西12月3日消息,當(dāng)前AI行業(yè)快速發(fā)展,競(jìng)爭(zhēng)也越來(lái)越激烈,特別是各種高級(jí)推理模型之間的競(jìng)爭(zhēng)。

過(guò)去一段時(shí)間,中國(guó)科技公司陸續(xù)發(fā)布了3款自研的AI模型,分別是DeepSeek(深度求索)的Deepseek R1、阿里巴巴的Marco-1以及香港中文大學(xué)與商湯科技的聯(lián)合實(shí)驗(yàn)室MMLab的OpenMMLab混合模型。這些新AI模型在性能和可訪問(wèn)性上媲美OpenAI的預(yù)覽版推理模型o1-preview,同時(shí)也反映了OpenAI等AI大模型巨頭比預(yù)期更早受到開(kāi)源創(chuàng)新的沖擊。

今年9月中旬,OpenAI發(fā)布o(jì)1-preview的同時(shí),還為AI模型執(zhí)行復(fù)雜推理任務(wù)設(shè)立了新的基準(zhǔn)。該公司預(yù)計(jì)最快于下周發(fā)布其o1系列模型的滿(mǎn)血版,但現(xiàn)在看來(lái),OpenAI自證o1系列模型仍遙遙領(lǐng)先的壓力越來(lái)越大。目前,該公司的估值已高達(dá)1570億美元,并放言要實(shí)現(xiàn)AGI(通用人工智能),這些都給其領(lǐng)導(dǎo)層帶來(lái)了不小的壓力。

AI模型性能乃至整個(gè)AI行業(yè)都處于高速創(chuàng)新的快車(chē)道上。去年,OpenAI GPT-4的首發(fā)比Anthropic Claude 2足足早了5個(gè)月。然而,今年o1-preview只比同行早發(fā)了兩個(gè)半月,時(shí)間優(yōu)勢(shì)大幅收縮。

這一開(kāi)源舉措也印證了該領(lǐng)域的其他玩家,諸如開(kāi)源實(shí)驗(yàn)室AI2的OLMo 2模型和開(kāi)源模型服務(wù)公司Nous Research的Nous Forge模型,也能通過(guò)與OpenAI閉源不同的道路,來(lái)擴(kuò)大先進(jìn)AI技術(shù)的可訪問(wèn)性。

11月28日,圍繞上述3款中國(guó)自研AI模型的開(kāi)源水平、AI2的OLMo 2模型的特點(diǎn)和OpenAI未來(lái)幾周內(nèi)可能會(huì)采取的應(yīng)對(duì)措施,美國(guó)知名科技媒體VentureBeat創(chuàng)始人兼CEO馬特馬歇爾(Matt Marshall)對(duì)話谷歌機(jī)器學(xué)習(xí)開(kāi)發(fā)專(zhuān)家薩姆維特維奇(Sam Witteveen),倆人共同分享了他們的分析和判斷。

以下是此次訪談部分內(nèi)容的編譯(為提高可讀性,智東西在不違背原意的前提下進(jìn)行了一定的增刪修改):

一、快速發(fā)展的中國(guó)開(kāi)源模型,對(duì)o1-preview構(gòu)成挑戰(zhàn)

Matt Marshall:中國(guó)開(kāi)源模型的興起正在挑戰(zhàn)OpenAI o1-preview的地位,你怎么看?

Sam Witteveen:中國(guó)的DeepSeek(深度求索)公司基本上放棄了他們名為R1的AI模型。這是該公司嘗試推出的一款A(yù)I推理模型。我試用過(guò)這款模型,給我留下了深刻的印象,它接近于OpenAI已經(jīng)上線的o1-preview和o1-mini。o1的完整版模型還未發(fā)布。

從那時(shí)起,我們看到中國(guó)其他的AI模型開(kāi)發(fā)商陸續(xù)推出了類(lèi)似的模型。因此,我認(rèn)為真正重要的不僅僅是這些模型本身,這些模型非常好,而真正有意思的一點(diǎn)是DeepSeek稱(chēng)他們會(huì)開(kāi)源模型權(quán)重,或者公開(kāi)發(fā)布模型權(quán)重。希望在接下來(lái)的一周到兩周內(nèi),我們能夠看到該模型權(quán)重,并開(kāi)始上手使用它。

同時(shí),我認(rèn)為這其中還有另一個(gè)有意思的現(xiàn)象,那就是開(kāi)源模型是如何追趕專(zhuān)有技術(shù)模型的。在我看來(lái),這也是OpenAI在今年9月發(fā)布o(jì)1-preview的原因。目前只有o1-mini和o1-preview,我們都在等待o1模型的完整版。有消息說(shuō)今年的感恩節(jié)(11月28號(hào))后,OpenAI將發(fā)布滿(mǎn)血版的o1模型。

那么,o1滿(mǎn)血版是否會(huì)大幅推動(dòng)OpenAI的發(fā)展,還是說(shuō)現(xiàn)階段部分中國(guó)科技公司已經(jīng)復(fù)刻了這些專(zhuān)有技術(shù)公司實(shí)際使用的模型?我認(rèn)為這是AI領(lǐng)域非常重要的一次進(jìn)展,讓我們拭目以待。

Matt Marshall:DeepSeek是一家來(lái)自中國(guó)的量化對(duì)沖基金公司,已經(jīng)成立了有一段時(shí)間了,但由于該公司具有AI方面的專(zhuān)業(yè)知識(shí),因此我認(rèn)為DeepSeek是幾家有1萬(wàn)個(gè)GPU并且能夠完成這部分工作的公司之一。

不過(guò),OpenAI一直在說(shuō)他們已經(jīng)領(lǐng)先了,其CEO薩姆阿爾特曼(SamAltman)11月27日才在播客中說(shuō)將會(huì)在2025年實(shí)現(xiàn)AGI。他們用這種說(shuō)辭吸引了不少人,

但在我看來(lái),這種說(shuō)法已經(jīng)開(kāi)始變得有點(diǎn)過(guò)時(shí)了。OpenAI過(guò)去曾擁有強(qiáng)大的領(lǐng)導(dǎo)力,但現(xiàn)在其領(lǐng)先優(yōu)勢(shì)已經(jīng)不復(fù)存在了。換句話說(shuō),如果他們?nèi)匀幻黠@領(lǐng)先,應(yīng)該能夠再次證明這一點(diǎn)。

二、基于思維鏈,推理模型能自查并糾正“strawberry”

Matt Marshall:涉及到開(kāi)發(fā)方面,你認(rèn)為這些模型方面的變化對(duì)開(kāi)發(fā)應(yīng)用程序來(lái)說(shuō)意味著什么?

我們討論過(guò)AI模型已有太多的榮耀,上周還討論過(guò)Agentic AI的發(fā)展透露出AI模型的價(jià)值越來(lái)越小。對(duì)于你那邊的開(kāi)發(fā)人員來(lái)說(shuō)這又意味著什么?為什么你仍然對(duì)這些大模型感到興奮?

Sam Witteveen:我覺(jué)得你說(shuō)的完全正確。隨著AI模型整體都越來(lái)越強(qiáng)大,你所需要一個(gè)AI模型去完成的事項(xiàng)或技能,現(xiàn)在幾乎所有市面上的AI模型都可以做得到。

本周AI2推出的OLMo 2也是很有趣的一款A(yù)I模型,它實(shí)際上是一個(gè)完全開(kāi)源的AI模型。那么,這其中有什么區(qū)別呢?一個(gè)完全開(kāi)源的版本意味著他們不僅提供了模型權(quán)重,還同時(shí)提供了訓(xùn)練代碼、數(shù)據(jù)集和所有他們采用的設(shè)置,有了這些,你就可以復(fù)制這一個(gè)AI模型。

你可以想象到很多組織會(huì)喜歡這種形式,因?yàn)樗麄兛梢圆榭磾?shù)據(jù)集的內(nèi)容,從而發(fā)現(xiàn)是否有任何受版權(quán)保護(hù)的材料,或者是否與他們公司的立場(chǎng)相沖突。

這款名為OLMo 2的AI模型采用了一種更恰到好處的開(kāi)源方式。我們過(guò)往談?wù)摰拇蟛糠珠_(kāi)源的AI模型版本都屬于開(kāi)放模型權(quán)重的類(lèi)型,就是雖然我們拿到了該AI模型,但并沒(méi)有獲得其訓(xùn)練數(shù)據(jù)、訓(xùn)練腳本等資料。

但是,這些來(lái)自中國(guó)的開(kāi)源AI模型,大部分都獲得了許可證。就像DeepSeek R1發(fā)布后,我們可以看到它的許可證是怎么樣的,公司是否能夠直接使用它,使用后是否能獲得良好的結(jié)果,以及是否能夠針對(duì)特定用例微調(diào)該模型?我們暫且還不清楚他們具體是如何訓(xùn)練的,如何進(jìn)行所謂的測(cè)試時(shí)間計(jì)算。

這些模型與你之前談到的GPT-4、GPT-3模型之間的區(qū)別在于,前者在實(shí)際進(jìn)行推理時(shí)會(huì)花費(fèi)更多的計(jì)算量,這是由于該模型一直在推理。過(guò)往的那些模型只有在訓(xùn)練時(shí)才會(huì)花費(fèi)較多的計(jì)算量,一旦訓(xùn)練完成,他們將使用更少、更一致的計(jì)算量。

不同的是,這些推理模型會(huì)消耗更多的計(jì)算量,并且它們可以自我迭代。這也是人們將它們稱(chēng)之為推理模型的原因。它們會(huì)思考用戶(hù)的需求,然后緊接著會(huì)不斷回過(guò)頭來(lái)重新思考并自行完善它們給出的答案,從而改善輸出結(jié)果。從中可以看出,這些推理模型有很長(zhǎng)的思考鏈路,我們現(xiàn)在把這個(gè)過(guò)程叫作“思維鏈”。

Matt Marshall:我看到了有部分開(kāi)發(fā)人員測(cè)試了DeepSeek R1的“思維鏈”能力。例如,讓它計(jì)算草莓(strawberry)英文單詞中R字母的數(shù)量,你可以看到它的推理過(guò)程。一般來(lái)說(shuō),當(dāng)你要計(jì)算該單詞中R字母的數(shù)量時(shí),它可能會(huì)轉(zhuǎn)變兩三中答法,隱蔽性比較強(qiáng)。而DeepSeek的R1能做到,OpenAI的o1卻做不到。

OpenAI說(shuō)他們不想公布所有的思維鏈,這可能是出于競(jìng)爭(zhēng)原因,但同時(shí)我認(rèn)為他們不想透露有偏差的情況。如果將推理過(guò)程展示出來(lái),你就可以看到模型具體哪個(gè)地方出錯(cuò)了,那么你也可以重新輸入提示。而且開(kāi)發(fā)人員和用戶(hù),也可以弄清楚問(wèn)題并改進(jìn)這一點(diǎn)。因此事實(shí)上,在集群規(guī)模較小的前提下,中國(guó)這方面確實(shí)做得更好。

不過(guò),有一些人說(shuō)你可以使用許多技巧,例如你所使用的tokens數(shù)量、計(jì)算量,會(huì)對(duì)推理效率產(chǎn)生較大影響。我之前和Cap Gemini的生成式AI執(zhí)行副總裁史蒂夫瓊斯(Steve Jones)討論過(guò)這件事情。他們與許多企業(yè)合作使用生成式AI。

瓊斯說(shuō),他基本上都在使用ETIC框架,該框架將正確的Lang圖與一些計(jì)劃和執(zhí)行框架混合在一起。根據(jù)他的經(jīng)驗(yàn),這樣做將輕松擊敗o1-preview,以及上述任何一種模型。

Sam Witteveen:確實(shí),當(dāng)o1問(wèn)世時(shí),我做過(guò)一個(gè)“窮人版”o1測(cè)試。我自己創(chuàng)建了一些模型,其中包括一個(gè)Agentic版本和一個(gè)小模型版本。我訓(xùn)練或者微調(diào)它們,以便與o1對(duì)齊。我發(fā)現(xiàn),Agentic版本更安全,這是由于你可以在里面設(shè)置檢查、驗(yàn)證、制衡等環(huán)節(jié)。外加一個(gè)類(lèi)似于R1這種模型,你就擁有了兩全其美的方法。

在草莓英文單詞R字母的計(jì)數(shù)實(shí)驗(yàn)中,我拋給R1的第一個(gè)測(cè)試是當(dāng)我拼錯(cuò)了四個(gè)字母R時(shí),R1怎么回答“數(shù)一數(shù)你知道的草莓英文單詞中的R字母的數(shù)量(How many r’s in ‘strawberry)”。當(dāng)然,結(jié)果是它仍能夠正確識(shí)別并回答出有4個(gè)R字母。

三、整合多家模型能力,用一個(gè)系統(tǒng)定制專(zhuān)業(yè)領(lǐng)域模型

Matt Marshall:總部位于美國(guó)舊金山的Fireworks AI于11月18日發(fā)布了一個(gè)專(zhuān)門(mén)從事復(fù)雜推理的復(fù)合AI模型,雖然它沒(méi)有針對(duì)o1-preview進(jìn)行基準(zhǔn)測(cè)試,但它對(duì)標(biāo)GPT-4o。另外,中國(guó)的阿里巴巴和

OpenMMLab同樣發(fā)布了對(duì)標(biāo)o1-preview的模型版本。這其中你認(rèn)為有哪些值得關(guān)注的事情呢?

Sam Witteveen:還有一家位于美國(guó)舊金山的創(chuàng)企也在微調(diào)大模型等方面做了許多事情,并建立了良好的口碑。這家名為Nous Research的開(kāi)源模型服務(wù)公司推出了一款模型Nous Forge。據(jù)我了解,他們的方法更適合做代理這種事情,例如你可以更換任何模型,這意味著他們的系統(tǒng)不一定是圍繞某個(gè)單一的模型建立的,而是可以整合當(dāng)時(shí)你需要的或者你發(fā)現(xiàn)的一個(gè)新模型。

在我看來(lái),所有這些AI模型未來(lái)都將朝著類(lèi)似的方向發(fā)展,即使我們還沒(méi)有看到完整版的o1。如果o1最終呈現(xiàn)的效果比這些模型都要好,那將十分有趣。但與此同時(shí),其可能需要花費(fèi)更多時(shí)間來(lái)推理。因此,我認(rèn)為他們不會(huì)局限于開(kāi)發(fā)商用的標(biāo)準(zhǔn)模型,而是會(huì)面向科學(xué)發(fā)現(xiàn)、癌癥治療等領(lǐng)域開(kāi)發(fā)更多的模型。

人們正在研究如何從OpenAI中至少實(shí)現(xiàn)其中一些想法,F(xiàn)在,也許我們還沒(méi)有像OpenAI那樣完整的秘密來(lái)源,也許他們還有更有趣的東西要來(lái)。你可以設(shè)想一下,未來(lái)我們不介意等待模型“思考”一周的時(shí)間,看看它是否會(huì)生成某種更加深入或創(chuàng)新的結(jié)果,F(xiàn)在關(guān)鍵在于o1到底能達(dá)到哪種程度。

來(lái)源:VentureBeat

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港