謹慎看待“中國AI正在超越美國”

前期探索工作的投入成本“浪費”是必須的,站在巨人肩膀上的后發優勢值得鼓勵,但無需太過驕傲,更不要讓噱頭蓋過了真實。

責任編輯:黃金萍

5天時間,三家中國AI企業接連發布了三款對標OpenAI o1系列的大模型。

1月20日,開年出圈的“東方神秘力量”DeepSeek(深度求索)發布推理模型DeepSeek-R1,在后訓練階段大規模使用了強化學習技術,在僅有極少標注數據的情況下,極大提升了模型的推理能力,使得它在數學、代碼、自然語言推理等任務性能上比肩OpenAI o1正式版,后者為OpenAI在2024年12月上線的推理模型。

與o1相比,R1的最大優勢之一在于高性價比——API服務定價為每百萬輸入tokens 1元(緩存命中)/ 4元(緩存未命中)、每百萬輸出tokens 16元,遠低于o1每百萬輸入tokens 15美元(約合人民幣110元)、每百萬輸出tokens 60美元(約合人民幣437元)。也就是說,R1的價格約為o1的三十分之一。

更令外界興奮的是,DeepSeek同步了開源模型權重,允許用戶通過R1輸出、蒸餾等方式訓練其他模型;而o1并未開源,基本處于“黑匣子”狀態。

1月21日,另一家中國大模型明星企業月之暗面推出了Kimi k1.5多模態思考模型。在long-CoT長思考模式下,k1.5的數學、代碼、多模態推理能力達到OpenAI o1正式版水平;在short-CoT短思考模式下,k1.5的數學、代碼、視覺多模態和通用能力,超越了OpenAI GPT-4o和Anthropic Claude 3.5 Sonnet。

Kimi k1.5尚未開源,但首次分享了詳細的技術報告,其中關鍵就是利用強化學習(RL)增強其推理能力:長上下文擴展和改進的策略優化建立了簡單、有效的RL框架,無需依賴蒙特卡洛樹搜索(MCTS)、價值函數和過程獎勵模型(PRM)等復雜技術。

英偉達高級研究科學家吉姆·范(Jim Fan)指出,DeepSeek和Kimi都簡化了RL框架,例如繞過MCTS,只需通過線性化思維軌跡,然后進行傳統自回歸預測;盡可能依賴事實和最終結果,而不是密集獎勵建模。

1月24日,中國AI企業百川智能的全場景深度思考模型Baichuan-M1-preview正式上線,測試結果顯示,它在數學、代碼等多個權威評測中的表現超越了2024年9月發布的OpenAI o1-preview(預覽版)。

除了推理能力,M1-preview還解鎖了“醫療循證模式”,能精準回答醫療臨床、科研問題,幫助用戶做出醫療決

登錄后獲取更多權限

立即登錄

校對:趙立宇

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址