展會信息港展會大全

關于AI,沈向洋院士最新發(fā)聲!
來源:互聯(lián)網   發(fā)布日期:2024-11-23 06:40:17   瀏覽:189次  

導讀:11月22日,美國國家工程院外籍院士、粵港澳大灣區(qū)數(shù)字經濟研究院創(chuàng)院理事長沈向洋在2024IDEA大會上分享了其對人工智能“三件套”(算力、算法、數(shù)據)的最新思考。他表示,在技術大爆發(fā)時期開展創(chuàng)新,對技術的深度理解尤為重要。站在商業(yè)的視角,新技術快速沖入市場,則意味著技術需要理解需求。技術要在持續(xù)不斷的反饋和創(chuàng)新中,與市場完成匹配。從“摩爾定律”到“黃氏定律” ......

關于AI,沈向洋院士最新發(fā)聲!

11月22日,美國國家工程院外籍院士、粵港澳大灣區(qū)數(shù)字經濟研究院創(chuàng)院理事長沈向洋在2024IDEA大會上分享了其對人工智能“三件套”(算力、算法、數(shù)據)的最新思考。他表示,在技術大爆發(fā)時期開展創(chuàng)新,對技術的深度理解尤為重要。站在商業(yè)的視角,新技術快速沖入市場,則意味著技術需要理解需求。技術要在持續(xù)不斷的反饋和創(chuàng)新中,與市場完成匹配。

從“摩爾定律”到“黃氏定律”:算力需求持續(xù)增長

整個計算行業(yè)過去四五十年的發(fā)展,最重要的一件事情是算力的不斷提升。根據英特爾創(chuàng)始人之一戈登摩爾(Gordon Moor)提出的摩爾定律,當價格不變時,集成電路上可容納的元器件的數(shù)目,約每隔18-24個月便會增加一倍,性能也將提升一倍;蛘邠Q句話,性能每2年翻一倍,價格下降一半。

然而過去這十幾年隨著人工智能的蓬勃發(fā)展,特別是深度學習的發(fā)展,對算力的需求更加提高。英偉達提出了以其創(chuàng)始人黃仁勛的名字命名的“黃氏定律”,認為GPU(圖形處理器)將推動AI性能實現(xiàn)逐年翻倍。

“從以前的百億級,到現(xiàn)在的千億級、萬億級,大模型參數(shù)規(guī)模越來越大,對訓練的要求越來越高。要訓練這樣的模型,數(shù)據量要增長,性能要隨之提升,對算力的需求也會呈現(xiàn)出平方級的增長。所以我經常講一句話,那就是‘講卡傷感情,沒卡沒感情’!鄙蛳蜓蟾锌f道。

同時,沈向洋評論稱,英偉達是過去十幾年,IT行業(yè)、人工智能行業(yè)最了不起、最成功的一家公司之一,它硬生生把自己從一家做硬件、芯片的乙方公司做成了甲方!按蠹覍τミ_的未來充滿信心,最重要的是對算力的需求。這也解釋了為什么過去十年英偉達的市值漲了300倍!

從GPT到o1:人工智能發(fā)生范式轉移

沈向洋表示,從2017年開始Transformer架構(一種基于注意力機制的深度學習模型架構)出來,人工智能、深度學習、大模型基本上是沿著Transformer這條線“堆”數(shù)據、“堆”算力。GPT4推出之后,盡管GPT5一直沒有出來,但OpenAI仍然推出了一些新技術突破的東西,包括多模態(tài)GPT-4o。最新的o1(OpenAI最新發(fā)布的大語言模型)推理學習能力展現(xiàn)出的人工智能的范式轉移非常值得我們認真思考。

GPT系列做的事情是通過預訓練來預測“下一個Token(吞吐量)”。技術背景是把所有的數(shù)據進行“聰明的”壓縮,它可以很快給你答案。只要問一句話就能得到一個結果。而新的范式變革是增強學習,即可以自行改善的“Learning(學習)”,在給出答案之前還有一個后訓練、后推理的過程。

實際上,增強學習并不是一個新鮮事物。AlphaGo下圍棋就是用這種增強學習的方法打敗人類世界冠軍的。不過新的增強學習“打法”更為通用。以前做一個系統(tǒng)只能解決一個問題,比如下圍棋或者做其他工作。今天o1不僅可以做數(shù)據、做編程,還可以做物理、做化學等等!拔矣X得接下來這幾年,算法沿著SRL(強化學習)這條道路走下去,一定會有令人驚艷的全新突破!鄙蛳蜓蟊硎尽

從海量到高質量數(shù)據短缺:未來大模型需要合成數(shù)據

公開數(shù)據顯示,GPT3的訓練用了2T(即2萬億Token)的數(shù)據。GPT4大概用了20T(即20萬億Token)的數(shù)據,幾乎相當于今天能找到的所有清洗過的互聯(lián)網數(shù)據。GPT5要比GPT4有長足的進步,預測數(shù)據量大概會達到200T(即200萬億Token)的規(guī)模。

為了進一步闡釋大模型訓練所需的數(shù)據量規(guī)模,沈向洋列舉了幾個例子:1萬億數(shù)據相當于500萬本書,或者20萬張高清照片,亦或是500萬篇論文。一個人從小學、中學、大學到念完大學的時候,真正學到的東西相當于1000本,也僅僅是0.00018T的數(shù)據。人類歷史上所有的書加起來大概也只有21億Token的數(shù)據。

“現(xiàn)在互聯(lián)網上已經找不到那么多高質量的數(shù)據了,人工智能向前發(fā)展要造數(shù)據、合成數(shù)據,這有可能帶來大模型創(chuàng)業(yè)的下一個百億美金問題,那就是怎么來合成數(shù)據!鄙蛳蜓蟊硎。GPT系列模型的訓練依靠的是互聯(lián)網語料數(shù)據,比如文本、圖片、音頻、視頻等多模態(tài)數(shù)據,o1的訓練則需要強邏輯性的數(shù)據,很多數(shù)據是網上沒有的,需要做一些優(yōu)質的合成數(shù)據。

“我們不能盲目的造數(shù)據,而是要有理有據,有邏輯關系的存在。要先采集真實數(shù)據,建一個語境圖譜,然后再合成數(shù)據,把這些合成數(shù)據放進大模型繼續(xù)做預訓練和推理!鄙蛳蜓蠼榻B說道。據他透露,IDEA DataMaker(數(shù)據合成平臺)知識驅動大模型數(shù)據合成技術已經可以將模型推理準確率提升25.4%以上,平均節(jié)約成本達85.7%。同時,IDEA大模型合成數(shù)據加密訓練技術可以打破數(shù)據孤島,助力私域數(shù)據的安全流通。相較于基礎模型,該技術可將大模型專業(yè)推理能力提升12.8%~24.1%,加密接近無損甚至少量提升。

作者丨宋婧編輯丨趙晨美編丨馬利亞監(jiān)制丨連曉東

贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港