謹慎看待“中國AI正在超越美國”
前期探索工作的投入成本“浪費”是必須的,站在巨人肩膀上的后發優勢值得鼓勵,但無需太過驕傲,更不要讓噱頭蓋過了真實。
責任編輯:黃金萍
5天時間,三家中國AI企業接連發布了三款對標OpenAI o1系列的大模型。
1月20日,開年出圈的“東方神秘力量”DeepSeek(深度求索)發布推理模型DeepSeek-R1,在后訓練階段大規模使用了強化學習技術,在僅有極少標注數據的情況下,極大提升了模型的推理能力,使得它在數學、代碼、自然語言推理等任務性能上比肩OpenAI o1正式版,后者為OpenAI在2024年12月上線的推理模型。
與o1相比,R1的最大優勢之一在于高性價比——API服務定價為每百萬輸入tokens 1元(緩存命中)/ 4元(緩存未命中)、每百萬輸出tokens 16元,遠低于o1每百萬輸入tokens 15美元(約合人民幣110元)、每百萬輸出tokens 60美元(約合人民幣437元)。也就是說,R1的價格約為o1的三十分之一。
更令外界興奮的是,DeepSeek同步了開源模型權重,允許用戶通過R1輸出、蒸餾等方式訓練其他模型;而o1并未開源,基本處于“黑匣子”狀態。
1月21日,另一家中國大模型明星企業月之暗面推出了Kimi k1.5多模態思考模型。在long-CoT長思考模式下,k1.5的數學、代碼、多模態推理能力達到OpenAI o1正式版水平;在short-CoT短思考模式下,k1.5的數學、代碼、視覺多模態和通用能力,超越了OpenAI GPT-4o和Anthropic Claude 3.5 Sonnet。
Kimi k1.5尚未開源,但首次分享了詳細的技術報告,其中關鍵就是利用強化學習(RL)增強其推理能力:長上下文擴展和改進的策略優化建立了簡單、有效的RL框架,無需依賴蒙特卡洛樹搜索(MCTS)、價值函數和過程獎勵模型(PRM)等復雜技術。
英偉達高級研究科學家吉姆·范(Jim Fan)指出,DeepSeek和Kimi都簡化了RL框架,例如繞過MCTS,只需通過線性化思維軌跡,然后進行傳統自回歸預測;盡可能依賴事實和最終結果,而不是密集獎勵建模。
1月24日,中國AI企業百川智能的全場景深度思考模型Baichuan-M1-preview正式上線,測試結果顯示,它在數學、代碼等多個權威評測中的表現超越了2024年9月發布的OpenAI o1-preview(預覽版)。
除了推理能力,M1-preview還解鎖了“醫療循證模式”,能精準回答醫療臨床、科研問題,幫助用戶做出醫療決
登錄后獲取更多權限
校對:趙立宇