劃重點
01人工智能(AI)的能耗問題引發(fā)關(guān)注,預計隨著AI的發(fā)展和普及,其在能耗中的占比將逐年提升。
02專家表示,降低AI能耗的方法包括軟硬件技術(shù)的提升和宏觀層面的建設(shè)布局優(yōu)化,如軟硬件壓縮、剪枝、量化等技術(shù)。
03另一方面,AI在數(shù)據(jù)中心業(yè)務(wù)中的位置越來越重要,數(shù)據(jù)中心的數(shù)量和規(guī)模也在快速增長,但能耗問題仍復雜許多。
04為應(yīng)對AI能耗挑戰(zhàn),有觀點認為發(fā)展清潔低碳的能源并在基建層面進行規(guī)劃有助于讓AI更加環(huán)境友好。
05除此之外,針對性訓練較小的模型可以用較低的成本滿足落地需求,未來AI可能是“小而美”的。
以上內(nèi)容由大模型生成,僅供參考
11.5
知識分子
The Intellectual
圖源:Pixabay
撰文 | 戚譯引馮灝
無論是否支持人工智能(AI)的發(fā)展,我們都難以忽視一個重要的問題,那就是AI的能耗。有人擔心AI發(fā)展過快,對能源市場和環(huán)境、氣候造成沖擊;而有人擔心能源產(chǎn)業(yè)進步太慢,最終成為制約AI發(fā)展的瓶頸。
根據(jù)預測,隨著AI的發(fā)展和普及,AI在能耗中的占比還將逐年提升。AI研發(fā)企業(yè)也在能源供應(yīng)方面進行了大筆投資,以期滿足未來需求。10月14日,谷歌公司宣布將購買核能初創(chuàng)公司Kairos Power建造的小型模塊化反應(yīng)堆生產(chǎn)的電力[1]。此前在9月20日,微軟公司宣布與星座能源公司(Constellation Energy)達成協(xié)議,將重啟三里島核電站1號反應(yīng)堆,并購買其未來20年內(nèi)產(chǎn)出的電能[2]。OpenAI首席執(zhí)行官山姆奧特曼(Sam Altman)更是早早出手,在今年年初就大舉投資核聚變。
但與此同時,新的趨勢正在涌現(xiàn)。多位業(yè)界人士告訴《知識分子》,可以通過多種方式降低AI的能耗,讓能源利用更加高效,包括軟硬件技術(shù)的提升,以及宏觀層面的建設(shè)布局優(yōu)化。更重要的是,AI進步的方向不一定是更大、更強,一些小而美的模型正在悄然登場。
01
AI能耗評估難題
關(guān)于AI的耗電量,一篇廣為流傳的報道稱,ChatGPT 每日耗電量或超 50 萬千瓦時,相當于1.7萬個美國家庭的能耗[3]。還有研究估算,在最糟糕的場景下,未來谷歌AI的能耗將與像愛爾蘭這樣的國家相當[4]。然而另一方面,也有觀點認為媒體和大眾選擇性關(guān)注估算結(jié)論較為夸張的研究,并將對AI能耗的擔憂視為社會對新技術(shù)慣有的反應(yīng)[5]。
盡管當前關(guān)于AI能耗的討論大多基于估算數(shù)據(jù),但我們?nèi)匀豢梢跃痛诉M行一些定性討論。例如在算法層面,多位業(yè)界人士表示,就單次計算耗電量來說,AI在訓練階段比推理階段能耗更高。也就是說,大模型訓練過程中的超高能耗不會成為AI應(yīng)用中的常態(tài)。
清華大學電子工程系主任、清華大學信息科學技術(shù)學院副院長汪玉團隊測試了不同算力芯片的單卡推理功耗,他告訴《知識分子》:“推理階段的功耗基本在300W-500W,國產(chǎn)卡在150W-300W;相比之下,訓練階段的功耗在400W-700W。未來推理功耗還有比較大的下降空間,同等算力有望降到100W以下!币蚤_源大語言模型LLama3-405B為例,該模型有4050多億參數(shù),“使用近16000塊英偉達H100 80GB版本GPU進行訓練,耗時長達54天完成,加上配套設(shè)備總功耗接近20兆瓦,總能耗超過20000兆千瓦時”。
真實訓練的能量消耗要高于理論計算的結(jié)論。汪玉表示,大模型訓練時間長,GPU等硬件難以避免出現(xiàn)錯誤。在訓練過程中需要不斷進行檢查點的保存,出錯后中斷訓練并進行檢查點的恢復,這些操作均會造成難以預測的額外能耗開銷!斑@個應(yīng)該還是很可觀的”,汪玉說。
他提到,在大規(guī)模集群訓練中容錯相關(guān)的能耗開銷還是非常大,比如Llama 3-405B在為期54天的訓練期間,共發(fā)生了466次任務(wù)中斷(平均每3個小時發(fā)生一次中斷),約78%的中斷由硬件問題引起,容錯和錯誤恢復的時間占比約10%,實際算力利用率只有38%左右。
不過,從應(yīng)用場景上看,用戶推理請求的調(diào)用頻率要高得多。也就是說,即使單次調(diào)用AI的耗電量很低,其總能耗也可能相當可觀。南京大學高性能計算中心主任、高級工程師盛樂標告訴《知識分子》,AI系統(tǒng)運行階段最主要的成本就是電費,但是,“AI的實際應(yīng)用價值與推理操作的廣泛使用直接相關(guān),只有在推理方面用得更多,AI的落地價值才更大!
隨著技術(shù)的完善,日常使用AI推理的單次能耗有望下降。上海數(shù)珩信息科技創(chuàng)始人、董事長張繼生介紹,為提高AI系統(tǒng)在特定場景中的性能、降低整體能耗,研發(fā)出了很多軟硬件技術(shù),包括模型壓縮、剪枝、量化、異構(gòu)計算芯片等。
清華電子院能源電子中心主任兼清鵬智能創(chuàng)始人李中陽重點關(guān)注算電協(xié)同相關(guān)技術(shù)的研發(fā)與應(yīng)用,如何匹配算力的用電特性與新能源的供電特性是這一技術(shù)的核心,而這恰恰又需要AI前沿技術(shù)特別是大模型技術(shù)的加持。李中陽表示:“在宏觀上,即使AI的能耗/計算量在持續(xù)降低,其實也是挺費電的,因為計算量始終在那兒。”
總體上,關(guān)于AI算法能耗的討論主要基于模型體量、顯卡功率、計算時長等參數(shù)進行估算,這使得討論尤為困難。研究AI倫理、政策的研究者們呼吁改變這種不透明的現(xiàn)狀。
卡內(nèi)基梅隆大學人工智能和數(shù)字政策中心高級研究員、AIethicist.org 創(chuàng)始人梅爾?瓶耍∕erve Hickok)對《知識分子》指出,無法量化評估AI的能耗,就無法進行改進:“目前,各大科技公司都對自己的能源消耗有很好的了解,然而這些數(shù)據(jù)并沒有公開。在不少情況下,公司想法阻止這些信息的公開。”她提出,只有實現(xiàn)信息透明,我們才能追究各方的環(huán)境責任,并推動學術(shù)研究朝著更加節(jié)能的方向發(fā)展。
02
數(shù)據(jù)中心能耗超乎想象
討論AI能耗問題的困難不僅在于信息不透明,還因為它的邊界難以界定。具體而言,AI造成的能耗遠遠不僅來自于算法和芯片,還包括與之配套的基礎(chǔ)設(shè)施,其中最重要的就是數(shù)據(jù)中心的能耗。
盡管數(shù)據(jù)中心不僅用于AI的運行,還運營加密貨幣等業(yè)務(wù),但是伴隨著AI的爆發(fā),AI在數(shù)據(jù)中心業(yè)務(wù)中的位置越來越重要,數(shù)據(jù)中心的數(shù)量和規(guī)模也在快速增長。而無論是能耗的數(shù)量級,還是背后多樣的影響因素,數(shù)據(jù)中心的能耗問題都要復雜許多。
數(shù)據(jù)中心的耗電量遠遠超過一般人的想象。國際能源署(IEA)發(fā)布的一份報告顯示,2022年全球數(shù)據(jù)中心、比特幣和AI消耗的電能占全球用電量的2%,達到460 TWh[6];诋斍霸鲩L趨勢,IEA估計到2026年,全球數(shù)據(jù)中心總能耗將達1000 TWh,增幅超過一倍。
據(jù)統(tǒng)計,目前全球擁有超過8000座數(shù)據(jù)中心,其中約33%位于美國,16%位于歐洲,接近10%位于中國[6]。中國社會科學院工業(yè)經(jīng)濟研究所助理研究員張瑾告訴《知識分子》:“全國數(shù)據(jù)中心的耗電量加起來,與其他30個省份(除去港澳臺和西藏)一起排序,大概排在10多名左右,超過近一半的省份全年的電力消耗量!
并且,數(shù)據(jù)中心的數(shù)量和體量還在增長。張瑾說:“在我的研究區(qū)間之內(nèi),數(shù)據(jù)中心的發(fā)展是爆炸式的,不管是行業(yè)預測,還是股票市場的投資,大家對它普遍抱有極大的熱情!
IEA報告指出,在數(shù)據(jù)中心內(nèi)部,冷卻系統(tǒng)和服務(wù)器的能耗最高,各占數(shù)據(jù)中心能耗的40%。剩余20%的電能則用于能源供應(yīng)系統(tǒng)、存儲設(shè)備和通訊設(shè)備[6]。其中,隨著數(shù)據(jù)中心規(guī)模擴大,芯片設(shè)備功率提高,冷卻系統(tǒng)的能耗日益引起關(guān)注。然而,降低數(shù)據(jù)中心電能消耗的設(shè)計同時會造成耗水量的上升,在另一個維度上對生態(tài)造成影響。
國際標準化組織可持續(xù)金融科技工作組專家、中國環(huán)境科學學會碳達峰碳中和專委會委員陳鈺什告訴《知識分子》,隨著數(shù)據(jù)中心規(guī)模越來越大,使用傳統(tǒng)冷卻系統(tǒng)的耗電成本較高,因此,“大型數(shù)據(jù)中心逐步‘棄電用水’,通過冷水機或冷卻塔來交換熱量。這雖然可以大幅降低耗電量,但卻又因蒸發(fā)等原因造成驚人的耗水量!
微軟發(fā)布的公開報告顯示,微軟在2022財年的耗水量為640萬立方米,同比增加34%,這一趨勢與AI的發(fā)展密切相關(guān)[7]。加州大學河濱分校電氣與計算機工程副教授任紹磊(Shaolei Ren)團隊研究顯示, GPT-3每響應(yīng)10~50個請求,就要“喝掉”一瓶550 mL的水[8]。
而陳鈺什指出:“由于擔心設(shè)備遇水發(fā)生腐蝕等破壞,數(shù)據(jù)中心多使用淡水,僅有一小部分為非飲用水或可再生水。2022年,谷歌全球各地的數(shù)據(jù)中心共耗水52.2億加侖(約1,976立方米),其中四分之三以上均為淡水。這種用水結(jié)構(gòu)進一步增加了AI行業(yè)對全球水生態(tài)系統(tǒng)的影響!
對于新成立的數(shù)據(jù)中心,在設(shè)計上進行改進能夠緩解這個問題。盛樂標指出,對于大規(guī)模數(shù)據(jù)中心,液冷技術(shù)比風冷技術(shù)更加劃算,而且將冷卻水密封在循環(huán)中可以減少淡水的消耗。
03
能源行業(yè)如何迎接挑戰(zhàn)
從宏觀角度上看,AI的環(huán)境影響不僅與耗電量有關(guān),也與電能的來源密不可分。發(fā)展更加清潔低碳的能源,并且在基建層面進行規(guī)劃,也有助于讓AI更加環(huán)境友好。多位業(yè)界人士提到,數(shù)據(jù)中心應(yīng)當靠近發(fā)電廠,以實現(xiàn)算電耦合,減少電能傳輸和存儲過程中的損耗,這樣的產(chǎn)業(yè)布局也有利于吸納綠電。
“近幾年,隨東數(shù)西算戰(zhàn)略推進,數(shù)據(jù)中心布局呈現(xiàn)出由中心向周邊、由東部向西部的發(fā)展流動趨勢”,汪玉告訴《知識分子》。他指出,目前新疆有豐富的綠電資源,如光伏、風電。李中陽也認為:“對中國而言,最大的優(yōu)勢是擁有堅強的電網(wǎng)和充足的能源供應(yīng)能力,挑戰(zhàn)是怎么樣盡可能使用更多的新能源(發(fā)展人工智能)!
然而,在東西部發(fā)展不均衡的背景下,在西部建設(shè)數(shù)據(jù)中心也面臨著人才缺乏、維護困難的問題!皷|數(shù)西算最大的問題,是東部的數(shù)據(jù)或計算需求到不了西部,”盛樂標指出。AI計算往往需要大量的數(shù)據(jù),如果計算需求離數(shù)據(jù)中心太遠,數(shù)據(jù)的傳輸成本就會非常高。因此,盡管貴州、內(nèi)蒙等西部地區(qū)建設(shè)了不少數(shù)據(jù)中心,但它們的使用效率還遠遠比不上東部的超算中心。
AI的龐大需求也對綠電的穩(wěn)定性提出了挑戰(zhàn)。盛樂標指出,風電、水電和光伏容易受到季節(jié)影響,而核電作為穩(wěn)定且環(huán)保的能源選項,是未來數(shù)據(jù)中心選址的一個趨勢,所以未來的趨勢可能是在核電站旁邊建設(shè)數(shù)據(jù)中心。就在2024年3月,美國亞馬遜公司花6.5億美元購買了一座建在核電站旁邊的數(shù)據(jù)中心,該核電站可提供960兆瓦的電力。長遠來看,可控核聚變技術(shù)的突破或許是支撐AI大規(guī)模發(fā)展的關(guān)鍵。
04
節(jié)能減排,
AI是助力還是阻礙?
在氣候議題越發(fā)緊迫的當下,AI的發(fā)展與節(jié)能減排目標之間的矛盾顯得越發(fā)尖銳。有學者擔憂,從短期看來,AI增長造成的硬件需求增加必然會增加能耗和碳排放。
“數(shù)字產(chǎn)業(yè)化和產(chǎn)業(yè)數(shù)字化,現(xiàn)階段在整個經(jīng)濟系統(tǒng)的碳排放中占比,實際上非常高。尤其是,人們天然認為新技術(shù)產(chǎn)業(yè)是符合綠色、低碳要求的,但其實它們的能耗一點也不低,生命周期排放也是相當高的。”張瑾告訴《知識分子》。
她指出,總體上,學界目前認識到,數(shù)字化轉(zhuǎn)型與碳排放之間呈現(xiàn)出倒U型關(guān)系。在數(shù)字化發(fā)展初期,大量的基礎(chǔ)設(shè)施建設(shè)、落后的配套設(shè)施及人才,使得數(shù)字化節(jié)能減排的效應(yīng)會被建設(shè)初期產(chǎn)生碳排放增加效應(yīng)抵消;隨著基礎(chǔ)設(shè)施逐步完善,數(shù)字化的技術(shù)效率效應(yīng)顯現(xiàn),可以大幅提升能源效率和減排效果。“但最近我們的研究發(fā)現(xiàn),(數(shù)字化轉(zhuǎn)型與碳排放之間)或許是N型關(guān)系,即隨著數(shù)字化發(fā)展深度和廣度持續(xù)推進,數(shù)據(jù)要素和算力成為驅(qū)動經(jīng)濟增長的關(guān)鍵要素時,其對電力的需求會呈現(xiàn)飛躍式的增加,屆時會進步一增加能耗和排放。”
也有觀點認為,AI能夠成為人類應(yīng)對氣候變化的得力助手,并且這方面的一些應(yīng)用已經(jīng)落地!叭斯ぶ悄芸梢蕴峁﹦(chuàng)新的方式來監(jiān)測、分析和減少我們對環(huán)境的影響!标愨暿哺嬖V《知識分子》。
他舉例說,西門子中國上海智能制造中心的AI數(shù)字化能源管理系統(tǒng)實現(xiàn)了覆蓋整個制造流程的預測性維護,在提高能源效率的同時避免了非計劃停機帶來的額外消耗,單位產(chǎn)品能耗降低24%;人工智能驅(qū)動的華為云盤古大模型、谷歌Flood Hub服務(wù)提供了更先進的氣象預報,能夠幫助人們應(yīng)對災難天氣。除此之外,AI還可以用于電網(wǎng)調(diào)度、廢棄物管理等領(lǐng)域。
然而,量化評估AI在不同技術(shù)發(fā)展階段對環(huán)境各個方面的影響十分復雜。鄭州大學管理學院講師李國昊指出:“現(xiàn)在使用經(jīng)濟計量方法得出的結(jié)論是人工智能發(fā)展能夠減少排放,但這個結(jié)論其實是存在疑問的,因為很難把AI影響碳排放的復雜機理說清楚,也很難將影響路徑中其他干擾因素剔除掉。因此,還要建立更精細的系統(tǒng)模型,來測算它的真實影響!
除此之外,還可能存在反彈效應(yīng)成本降低會帶來技術(shù)的普及,使總能耗提升。例如,當家用汽車的發(fā)動機燃油效率提高后,駕車出行的成本降低了,人們就更傾向于駕車出行,造成總能耗增加。李國昊認為,人工智能也可能遵循同樣的發(fā)展路徑:隨著人工智能效率提高、成本降低,其部署量和總能耗也會提高。
不過,在人工智能高歌猛進的當下,討論其環(huán)境影響有時又顯得不合時宜。李國昊表示:“關(guān)注 AI的能耗本身,就像在經(jīng)濟發(fā)展初期去關(guān)注環(huán)境問題,本身就是不討好的事情!
上海金司南金融研究院產(chǎn)品創(chuàng)新中心主任尹茂華評論,從可持續(xù)發(fā)展的角度來看,AI能耗問題“不是短期的熱度,它是生產(chǎn)力和生產(chǎn)關(guān)系根本性變革的新工業(yè)革命”。她認為,中美的人工智能技術(shù)之間還有幾代的差距,伴隨大模型的商業(yè)應(yīng)用落地,能源的占用和擠壓正在發(fā)生,但芯片技術(shù)迭代也在同步降低能耗。人工智能引領(lǐng)的變革,將如何影響能源結(jié)構(gòu),需要持續(xù)關(guān)注。
05
AI的未來也許是“小而美”
商業(yè)、科技行業(yè)“贏家通吃”的邏輯放大了對落后的擔憂。但多位業(yè)界人士指出,一味發(fā)展模型、建設(shè)數(shù)據(jù)中心并不可取。
盛樂標指出,從頭訓練大模型成本高昂,對中小企業(yè)來說并不現(xiàn)實,“單一追求大型模型和數(shù)據(jù)中心的建設(shè)并不夠明智,AI要落地產(chǎn)生更大的價值,未來肯定是面向各行各業(yè)的行業(yè)大模型……只有熱度降下去以后,我們真正把精力放在算法的優(yōu)化上,或者是跟行業(yè)結(jié)合的相關(guān)模型研究上。通過與具體行業(yè)應(yīng)用的深度融合,才能實現(xiàn)AI價值的最大化!
相比之下,有針對性地訓練較小的模型可以用較低的成本滿足落地需求。一些企業(yè)已經(jīng)開始了這樣的嘗試!拔覀兊哪茉聪囊欢ㄊ潜日K麄冊谧龃竽P偷牡秃芏!睆埨^生介紹,“OpenAI這些公司做的大模型都是過千億參數(shù)的模型。我們跟客戶走得比較近,了解客戶的需求,并根據(jù)這些需求做了不同領(lǐng)域、不同行業(yè)的小模型,有些模型可能只有20億或50億參數(shù)!焙腿f億參數(shù)模型相比,這樣的小模型訓練成本、訓練時長都大大壓縮,同時還能很好地適應(yīng)特定領(lǐng)域的使用場景。
與功能強大的通用大模型相比,面向特定領(lǐng)域的模型比較不容易引發(fā)大眾的關(guān)注。實際上,多個AI引擎已經(jīng)在用戶頁面提供了特定的話題、用途選項,以便更精確地滿足用戶需求,這其中就體現(xiàn)了模型的迭代。
9月12日,OpenAI發(fā)布了較小的o1-preview和o1-mini模型,它們針對STEM領(lǐng)域進行了優(yōu)化,“在物理、化學、生物領(lǐng)域的重要挑戰(zhàn)性任務(wù)上的表現(xiàn)與博士生相當”[9]。媒體報道指出,新的模型進行了更多的推理過程,增加了響應(yīng)的延遲,有時要一兩分鐘才能輸出答案;這種做法可能增加了能耗,但同時大幅提升了解答的質(zhì)量,將來也許能夠幫助人類解決一些重要的問題。
或許,除了人工智能之外,我們還可以從其他許多方面入手,降低數(shù)字技術(shù)的碳排放。圖靈獎得主大衛(wèi)·帕特森(David Patterson)從加州大學伯克利分校退休后加入谷歌公司,他牽頭的一項研究分析了在智能手機和云端進行機器學習的能耗和碳排放,于今年1月發(fā)表[10]。他在回復《知識分子》的郵件中表示:“根據(jù)我的研究,我認為和使用AI產(chǎn)生的碳排放相比,計算機制造的隱含碳對氣候變化構(gòu)成了更大的挑戰(zhàn)。”
該研究估計,人工智能和機器學習的用電量僅占智能手機用電量的1%,并指出手機充電器消耗的能源達到手機的3倍以上,無線充電器的能耗尤其高昂。研究還指出:“2021 年,使用壽命過短的智能手機的隱含碳足跡幾乎是數(shù)據(jù)中心服務(wù)器的 3 倍……不久前人們拋棄了 75 億部智能手機!
總而言之,人工智能的能耗問題牽涉微觀和宏觀的多個層面,氣候問題更是如此。有時候,這樣的復雜性會成為人們回避討論或不作為的理由。但是另一方面,這也表明無論行業(yè)還是個人,我們有許多種途徑可以推動改變。
李璐對此文亦有貢獻
參考文獻:(上下滑動可瀏覽)
[1]Michael Terrel. New nuclear clean energy agreement with Kairos Power. Google Blog.https://blog.google/outreach-initiatives/sustainability/google-kairos-power-nuclear-energy-agreement/. 2024-10-14/2024-10-22
[2]Jennifer Hiller. Three Mile Island’s Nuclear Plant to Reopen, Help Power Microsoft’s AI Centers. The Wall Street Journal. https://www.wsj.com/business/energy-oil/three-mile-islands-nuclear-plant-to-reopen-help-power-microsofts-ai-centers-aebfb3c8. 2024-09-20/2024-09-23.
[3] Elizabeth Kolbert. The Obscene Energy Demands of A.I.. The New Yorker. https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai. 2024-03-09/2024-09-25
[4] de Vries A. The growing energy footprint of artificial intelligence[J]. Joule, 2023, 7(10): 2191-2194.
[5] Daniel Castro. Rethinking Concerns About AI’s Energy Use. Center for Data Innovation.https://datainnovation.org/2024/01/rethinking-concerns-about-ais-energy-use/. 2024-01-29/2024-10-22
[6] IEA (2024), Electricity 2024, IEA, Parishttps://www.iea.org/reports/electricity-2024.
[7] 2022 Environmental Sustainability Report. Microsoft.https://news.microsoft.com/wp-content/uploads/prod/sites/42/2023/05/2022-Environmental-Sustainability-Report.pdf. 2023-05/2024-09-25.
[8]Li P, Yang J, Islam M A, et al.Making ai less" thirsty": Uncovering and addressing the secret water footprint of ai models[J]. arXiv preprint arXiv:2304.03271, 2023.
[9] Introducing OpenAI o1-preview. OpenAI. https://openai.com/index/introducing-openai-o1-preview/. 2024-09-12/2024-09-25.
[10] Patterson D, Gilbert J M, Gruteser M, et al.Energy and Emissions of Machine Learning on Smartphones vs. the Cloud[J]. Communications of the ACM, 2024, 67(2): 86-97. https://dl.acm.org/doi/pdf/10.1145/3624719.