月之暗面發(fā)布Kimi K2 性能對標Claude 4成本低80%
近日,國內(nèi)大模型獨角獸“月之暗面”發(fā)布并開源其最新一代 MoE 架構基礎模型 Kimi K2,總參數(shù)量高達 1 萬億(1T),激活參數(shù)為 320 億(32B),已在 Kimi Web 端和 App 端上線。該模型推出不到兩天,就在大模型 API 聚合平臺 OpenRouter 的 token 使用量上超越了馬斯克旗下 xAI 剛發(fā)布的“全球最強 AI”Grok 4,引發(fā)海外技術社區(qū)熱議。
Kimi K2 在代碼、Agent、工具調(diào)用等關鍵基準測試中均取得開源模型中的 SOTA 成績。實測中,開發(fā)者反饋其性能接近 Anthropic 的 Claude 4,但價格僅為后者的 20%,性價比極高。此外,Kimi K2 支持 OpenAI 和 Anthropic 雙 API 格式,兼容性強,可無縫接入各類開發(fā)框架。

多位開發(fā)者在對比測試中指出,Kimi K2 的編程能力幾乎可與原版 Claude Code 平替 85%,遠超 DeepSeek 等其他替代方案。有用戶表示,用 Kimi K2 幾乎寫完一整個前端組件庫,且過程完全自主,未引用外部庫,僅用簡單提示詞就生成高質(zhì)量代碼。
在 Agent 工具調(diào)用方面,Kimi K2 同樣表現(xiàn)出色。前 Anthropic 工程師 Pietro Schirano 表示,Kimi K2 是繼 Claude 3.5 Sonnet 之后首款讓他放心用于生產(chǎn)環(huán)境的非 Anthropic 模型,并具備并行調(diào)用多工具和“知道何時停止”的智能決策能力。
技術架構方面,Kimi K2 與 DeepSeek V3 高度相似,但在注意力頭數(shù)量和專家數(shù)量上做了調(diào)整,提升了長上下文效率和 token 利用率。其訓練使用了自研的 MuonClip 優(yōu)化器,解決了注意力 logit 爆炸帶來的訓練不穩(wěn)定性問題。
此外,Kimi K2 還在創(chuàng)意寫作、角色扮演等任務中超越 o3,中文創(chuàng)意寫作能力被認為唯一可比肩 R1。有網(wǎng)友評價稱:“這是開源模型的又一次勝利。”
Kimi K2 的發(fā)布不僅展示了中國大模型公司在架構創(chuàng)新和優(yōu)化上的實力,也為全球開發(fā)者提供了高性能、低成本的新選擇,標志著開源大模型生態(tài)進一步成熟。

