遙想兩年前,ChatGPT給了世界一記AI沖擊,而DeepSeek無(wú)疑是第二記沖擊。我們不僅對(duì)DeepSeek強(qiáng)勁的性能所震撼,也讓遠(yuǎn)在大洋彼岸的OpenAI、谷歌、META等一眾玩家感受到莫大壓力,從而紛紛繼續(xù)“卷”起來(lái),效仿DeepSeek的“開(kāi)源”模式。
對(duì)于DeepSeek本身,人們關(guān)注其如何在有限算力實(shí)現(xiàn)強(qiáng)大性能,更關(guān)注其在重重條令圍城之下的未來(lái)之路。而在最近,全世界的芯片廠(chǎng)商集體出動(dòng),紛紛宣布支持DeepSeek。尤其是眾多國(guó)產(chǎn)AI芯片廠(chǎng)商,集體發(fā)力,為DeepSeek建立了一個(gè)堅(jiān)實(shí)的后盾。
緣起:DeepSeek成功背后DeepSeek有四點(diǎn)創(chuàng)新:OpenAI測(cè)算,自2012年以來(lái),AI模型訓(xùn)練算力需求每3~4個(gè)月就翻一番,每年訓(xùn)練AI模型所需算力增長(zhǎng)幅度高達(dá)10倍。而連摩爾定律中,芯片計(jì)算性能翻一番的周期為18~24個(gè)月,更何況摩爾定律已經(jīng)出現(xiàn)放緩跡象。專(zhuān)家預(yù)測(cè),未來(lái)幾年OpenAI僅訓(xùn)練模型少還需要200~300億美元的硬件,Google需要200-300億美元,Anthropic需要100-200億美元,未來(lái)幾年至少投入1000億美元純粹用到訓(xùn)練模型。AMD將DeepSeek-V3模型集成于Instinct MI300X GPU;