11月10日消息,“这是又一次DeepSeek式的辉煌时刻吗?开源软件再次超越闭源软件。”国际知名开源平台Hugging Face联合创始人Thomas Wolf在社交媒体上这样评价Kimi K2 Thinking的发布。
11月6日,中国AI初创公司月之暗面(Moonshot AI)推出并开源了其最新生成式人工智能模型——Kimi K2 Thinking。这款模型在多项核心基准测试中超越了OpenAI的GPT-5和Anthropic的Claude Sonnet 4.5。
而更令人震惊的是,媒体援引据一位知情人士透露,Kimi K2 Thinking模型的训练成本为460万美元,这一数字不到GPT-3训练成本的百分之一。
开源大模型正在全球AI领域掀起一场效率革命与成本风暴,而这场风暴的中心,正逐渐转向东方。
训练成本仅460万美元?小成本模型实现大性能突破
Kimi K2 Thinking的出现,彻底刷新了业界对AI模型成本与性能的认知。这个拥有1万亿参数的混合专家模型,每次推理仅激活320亿参数。
在技术设计上,它完美平衡了模型规模与计算效率,支持256k的上下文窗口,并采用原生INT4量化技术。
在权威基准测试中,Kimi K2 Thinking展现出了令人瞩目的实力:在Humanity‘s Last Exam中取得44.9%的优异成绩,在BrowseComp测试中获得60.2%,在SWE-Bench Verified和LiveCodeBench v6两个编码评估中分别达到71.3%和83.1%。
Kimi K2 Thinking模型的核心优势之一是它的Agent能力,能够连续执行200-300次工具调用,无需人工干预即可解决复杂问题。
在编程实践中,开发者只需一句指令,就能生成一个类似Mac OS的网页操作系统,具备文本编辑器、文件管理器、画图工具等完整功能。
如果说性能表现令人赞叹,那么Kimi K2 Thinking的成本控制则堪称革命。460万美元的训练成本,放在动辄数亿美元投入的大模型赛道,几乎是一个可以忽略不计的数字。
这一数字甚至低于DeepSeek V3模型的560万美元,更是与GPT-3等国际同类大模型高达数十亿美元的训练投入形成鲜明对比。
低成本的训练并未牺牲性能,Kimi K2 Thinking在保持顶尖性能的同时,运行成本也大幅降低。
Kimi K2 Thinking团队介绍,这种成本优势源于多方面的技术创新。一方面,模型采用了改进的MuonClip优化器,在长达15.5万亿tokens的预训练过程中实现了 “零损失尖峰” ,意味着训练过程极其稳定。
另一方面,原生INT4量化技术不仅将推理速度提升了约2倍,还显著降低了部署所需的GPU显存,使模型对硬件更加友好。
Kimi K2 Thinking的API调用价格为每百万token输入1元(缓存命中)/4元(缓存未命中),输出为每百万token 16元,相比GPT-5低一个数量级。
月之暗面2025年7月11日发布初代Kimi K2模型;9月5日升级为Kimi K2-0905版本,强化Agentic Coding能力;11月6日发布Kimi-k2 thinking
以至于,有国外AI发烧友在X上直接@了 OpenAl 的 CEO 奧特曼抛出了一个极其尖锐的问题:“你(Sam)凭什么需要数万亿美元才能做出顶尖模型而现在来自中国的模型,只花了区区460万美元就已经做得和你一样好,甚至更好?这到底是为什么?”
有网友评论:这个问题,简直是把所有的硅谷 AI巨头们架在火上烤。它用一种无可辩驳的方式证明了:更聪明的算法、更专注的团队以及站在巨人(开源社区)的肩膀上,完全可以以小博大。
同时,Kimi也升级了C端的会员计划。
规则改写:开源协议的反向输出
Kimi K2 Thinking的发布,迅速引发了全球AI社区的强烈反响。Hugging Face联合创始人Thomas Wolf的评价绝非个例,来自各方的反馈都肯定了这款模型的重要意义。
业内普遍认为,Kimi K2 Thinking极大地缩小了开源模型与闭源模型之间的差距,甚至在多个关键领域实现了反超。
开源的、可自由使用和修改的模型,首次在推理、编程和Agent能力等多个维度与顶尖闭源模型站在同一水平线上。
开发者社区对模型的实际表现给予了积极评价。有开发者测试后表示,Kimi K2 Thinking在创意写作方面表现出色,能够“将粗略的灵感转化为清晰、动人且意图明确的叙述”。
同时,其在处理复杂编程任务时展现出的逻辑性和完整性也令人印象深刻。
Kimi K2 Thinking引发广泛讨论的,不仅是其技术实力,还有其独特的开源规则。
模型采用Modified MIT许可证,在保留标准MIT许可证绝大多数自由的基础上,添加了一项关键限制:“如果此模型被用于超过一亿月活用户,或者2000万美元月收入的商业产品中,需要注明商品底层使用了 Kimi K2模型”。
有美国的科技博主表示,Kimi K2为防止美国一些公司继续白剽这些开源模型并套牌说是自己的,出现了比较“奇怪”的modifiedMIT License,并感叹:“世界颠倒了,这可不好”。
这一条款为开源软件协议带来了新思路。对于绝大多数研究机构和企业应用,这只是一项轻量级的 attribution要求,不影响商业使用和衍生开发。
但当项目规模达到巨头级别时,仍需保留对原始开发者的尊重和认可。
这种规则设计,可视为中国AI企业首次在开源协议中引入如此影响力的条款,开创了开源规则“反向输出”的先例。
长期以来,中国科技企业更多是国际开源规则的接受者,而Kimi K2 Thinking的开源协议标志着这一格局正在改变。
以小博大,重塑AI竞争格局
DeepSeek-R1和Kimi K2 Thinking这类小成本模型的崛起,正在从根本上改变全球大模型行业的竞争规则和未来走向。
这些模型证明了,通过架构创新和工程优化,完全可以在控制成本的同时实现顶尖性能。
传统的“规模至上”的发展模式遭到挑战。过去,OpenAI及美国AI公司的核心护城河之一是强大的融资能力和大规模算力基础。
而今,一个依赖数十亿美元投入、指望高价API收回成本的商业模式,突然要面对一个性能接近、但API成本低10倍的竞争者。
猎豹移动CEO傅盛的评价就指出Kimi K2 Thinking的真正价值:“Kimi真正‘可怕’的地方不是性能的绝对超越,而是来自其极不对称的性价比。”
他强调,当一个开源模型以极低的训练成本达到了最先进模型90%的纸面能力和75%的实际能力时,整个战局有彻底改变的可能。
行业已告别“比参数、比算力”的粗放阶段,进入“比落地、比价值”的精耕时代。企业应用不再盲目追求模型的“大而全”,而是更关注“刚刚好”的智能——在成本、速度和隐私间找到平衡点。
更为深远的是,小成本模型可能成为中国在全球AI竞赛中的差异化路径。
没有人会再质疑——开源模型的“星星之火,可以燎原”。
转载请注明出处。

相关文章
精彩导读
热门资讯
关注我们