DeepSeek 無疑是最火爆的話題之一
在 DeepSeek 旗下大模型
DeepSeek-R1 “爆火”后
多個云平臺宣布上線 DeepSeek 旗下模型
2025 年的春節(jié)無疑已被 DeepSeek 霸屏。
過去三年每年的春節(jié)都有一次重磅的 AI 討論:2023 年是 ChatGPT、2024 年是 Sora,這兩股風潮都是由 OpenAI 掀起,而 2025 年則是 DeepSeek 的 V3 與 R1。
除夕當天 1 月 28 日,DeepSeek 更是趁熱發(fā)布了文生圖模型 Janus-Pro,但后者沒有 V3 與 R1 吸引的關(guān)注大,原因在于其沒有像前者一樣動搖了過去基座大模型的「奇跡」來源:算力。
DeepSeek V3 的參數(shù)規(guī)模是 6710 億,訓練成本不到 560 萬美元,訓練時長在 280 萬 GPU 小時。相比之下,GPT-4o 的訓練成本約為 1 億美元,Llama 3 405B 訓練時長則為 3080 萬 GPU 小時。
Meta 的 Llama 3 是用 16000 張 H00 訓練,此前還計劃在 2024 年囤卡 60 萬張英偉達 GPU 去做模型升級;馬斯克創(chuàng)立的 XAI 甚至囤卡 10 萬張 H100 建數(shù)據(jù)中心。
根據(jù)媒體報道,DeepSeek V3 與 R1 發(fā)布后,Meta 在內(nèi)的多家硅谷企業(yè)受到極大震撼,并開始質(zhì)疑以往 OpenAI「大力出奇跡」的成功方法論,引起硅谷多家科技巨頭的暴跌,比如英偉達一夜之間被干掉 4.3 萬億市值,相當于騰訊與美團兩家中國互聯(lián)網(wǎng)巨頭加起來的市值。
對于 DeepSeek 帶來的震撼,業(yè)界不難聯(lián)想到「漂亮國將出臺一系列制裁政策」等等往日常規(guī)反應(yīng)。
值得注意的是,在 DeepSeek 給硅谷帶來地震的不久前,1 月 15 日,美國才剛將中國最早的大模型創(chuàng)業(yè)公司「智譜 AI」列入實體清單。AI 1.0 時代,商湯、曠視等企業(yè)也被美國列入實體清單。被列入實體清單的一大掣肘就是難以購買海外英偉達生產(chǎn)制造的 GPU,其在短期內(nèi)仍是基座大模型訓練升級的一個重要條件。但 DeepSeek 的崛起證明了:
根據(jù)相關(guān)消息,DeepSeek 至今仍未計劃對外融資,其主要依托幻方與梁文鋒個人輸血,但對中國其他大模型公司的融資與戰(zhàn)略也將帶來不小的震撼。據(jù)筆者觀察,春節(jié)期間不僅硅谷動蕩,國內(nèi)其他幾家主流的大模型公司也在加班拆解 DeepSeek 的模型秘籍。
DeepSeek 的崛起,肉眼可見將從以下幾個角度影響中國大模型的競爭:
首先是技術(shù)創(chuàng)新的天花板被拉高。
DeepSeek 不是第一家提出「要在 OpenAI 以外創(chuàng)新」的大模型團隊,此前其他國產(chǎn)大模型團隊的創(chuàng)始人也提出過相似的觀點,但 DeepSeek 是第一家通過發(fā)布新技術(shù)、身體力行踐行了這一觀點的團隊。
V3 證明了訓練千億基座大模型的成本可以進一步將下降,R1 的獨創(chuàng)(如完全用強化學習替代 SFT)證明了 OpenAI 并不是唯一能夠提出 AGI 解法的公司。盡管 GPT-5 遲遲未發(fā)布、大模型一度被認為已停滯不前,但 DeepSeek 在近兩個月的研究突破表明:大模型的潛在技術(shù)空間仍然是非常大的。
放棄預訓練的團隊,或許是資源不足,也或許是技術(shù)創(chuàng)新力不夠。這也驗證了大模型的技術(shù)創(chuàng)新在短期內(nèi)存在高壁壘,應(yīng)心存敬畏。
其次是「高效訓練」的概念將得到重視。
在當前的第一梯隊大模型公司中,「高效訓練」并不占主流觀點。例如,MiniMax 的大模型雖然也是采用 MoE 架構(gòu),但在其他高效訓練的方法創(chuàng)新上不見明顯發(fā)力。反而是第二梯隊的面壁智能一度通過端側(cè)模型引起業(yè)內(nèi)關(guān)注。但在 DeepSeek 受追捧前,即使面壁智能、乃至一切企圖顛覆 Transformer 架構(gòu)的基座模型研究都不受重視。
此前大算力訓練是基座模型廠商融資與構(gòu)建壁壘的競爭砝碼,但 DeepSeek V3 的參數(shù)規(guī)模為 6710 億、訓練成本卻不足 560 萬美金,過去大算力出奇跡的粗放方式也受到了質(zhì)疑。接下來,高效模型不僅是 DeepSeek、面壁與通義等開源擁躉的追求,在其他模型團隊的優(yōu)先級上也會更加靠前。
高效訓練的目標在于用更小的參數(shù)規(guī)模、更小的訓練成本來實現(xiàn)更高的性能。以面壁小鋼炮系列為例:MiniCPM 3.0 只有 4B 參數(shù)就能帶來超越 GPT-3.5 的性能,量化后的內(nèi)存僅 2GB;MiniCPM-o 2.6 的參數(shù)規(guī)模僅 8B 就逼近了 GPT-4o,而且實現(xiàn)了實時流式的全模態(tài)看聽說,在“真視頻”等很多功能上達到了以端勝云的效果。
DeepSeek 有訓練條件,此前傳出有一萬張卡,其做法是先做大再做小,而面壁智能由于融資與算力所限,并沒有采取先做大再做小的方法,而是直接做端側(cè)小模型。蒸餾后的小模型更擅長特定任務(wù),在部分任務(wù)上的表現(xiàn)或不如通用模型,但在個人移動設(shè)備的部署上已綽綽有余。未來或許可以結(jié)合定制化芯片開拓出新的市場。
降本三家企業(yè)同日宣布接入deepSeek
1 月 31 日,英偉達、亞馬遜和微軟這三家美國科技巨頭在同一天宣布接入由中國企業(yè)開發(fā)的先進大語言模型 DeepSeek-R1。
其中,英偉達宣布 NVIDIA NIM 已經(jīng)可以使用 DeepSeek-R1 模型。同日,亞馬遜也表示 DeepSeek-R1 模型可以在 Amazon Web Services 上使用。微軟也在同一天宣布將 DeepSeek-R1 正式納入 Azure AI Foundry,成為該企業(yè)級 AI 服務(wù)平臺的一部分。
DeepSeek-R1 被公認為是目前最先進的大語言模型之一,能夠提供高質(zhì)量的語言處理能力,這對于希望在其產(chǎn)品中集成最新 AI 功能的企業(yè)來說極具吸引力。
來源:應(yīng)用觀察