「开源模型验货官」perplexity,给kimik2盖了个戳-凯发官网首页
当前位置: 凯发官网首页 > 热点资讯

「开源模型验货官」perplexity,给kimik2盖了个戳-凯发官网首页

perplexity每一次纳入新模型,都是很强的信号:这一次,亮的是kimi k2。

7月13日,perplexity联合创始人兼ceo aravind srinivas在x上发布消息:“kimi k2的内部评测结果非常惊艳,我们很快会启动post-training。”

perplexity的站台,让k2在开源社区的热度继续飙升,这种盛况并不陌生——上一次出现类似的轰动效应,正是perplexity宣布选择纳入deepseek-r1的时候。

这背后反映出一个有趣的现象:对于全球开发者来说,perplexity用不用某个开源模型,实际上已经演变成了一个重要的风向标。它所指向的,不仅仅是技术优劣,更是开源模型能否经受住真实产业环境考验的关键信号。

ai搜索是离“真实世界任务”最近的试炼场,而perplexity对模型的需求远不止“便宜”这么简单。

aravind曾在reddit上解释为什么没有接入gpt-4.5:“gpt-4.5的解码速度只有11个token/秒,相比之下,4o是110个token/秒,我们自己的sonar模型是1200个token/秒(快100倍)。这导致用户体验不佳,因为他们期望快速、准确的答案。”

换句话说,实时响应和低延迟是选型的生死线。perplexity的峰值请求量可达日常十倍,任何超过两秒的等待都会显著降低用户体验。在vllm fp8实测中,k2的moe架构仅激活32b参数,在相同硬件条件下输出速度比r1快一倍,且单位成本更低,这正是高并发场景下经济与性能的最 佳平衡点。

今年4月,aravind预告了perplexity的系列新功能,他强调这不是简单的产品改动,而是底层模型的重构:“我们需要重写基础设施才能大规模实现。”

他描述的核心功能是更强大的深度研究代理,能够思考30分钟或更长时间,“包括工具使用、交互式和代码执行功能,就像manus等最近的原型所展示的那样。”

这本质上是一个纯agent模式:给定自然语言需求,模型必须自主拆解任务、调用工具、执行代码,最终生成完整报告。这种能力恰好与kimi k2的“模型即agent”理念完全对齐——k2不是把agent能力当作后训练插件,而是在预训练阶段就将原生agent技能刻入权重。

k2在训练阶段引入了数百万条合成agent任务,覆盖搜索、浏览器、日历、python、sql等17种真实工具调用场景。模型学会在单一会话内连续编排16-20步操作,无需人类编写工作流。官方演示中,k2用16次ipython调用将13万行原始数据完成清洗、建模、绘图并输出交互网页报告,全程零人工干预——这直接对应perplexity设想的“30分钟自主研究”。

当然,选择开源模型的更深层原因在于完整的控制权。拥有完整权重意味着perplexity可以任意进行lora、rlhf、工具蒸馏,无需担心调用频率、并发上限或隐私合规问题。k2采用mit改协议,月活低于1亿即可商用,hugging face直接提供fp8/fp16全套权重,128k上下文窗口足够一次性处理整份财报。对perplexity而言,这意味着“模型-索引-工具”三层架构可以完全私有化,不再受任何闭源条款约束。

perplexity在其发展过程中,逐步从依赖openai的gpt模型转向使用开源模型,并在此基础上进行了自研和微调。

2023年下半年,perplexity宣布推出两款新的“pplx-7b-online”和“pplx-70b-online”,分别基于开源模型mistral-7b和llama 2-70b构建。“我们从llama-2发布之日起就开始使用开源模型,”aravind srinivas说道。

从模型特点来看,mistral-7b以轻量化和高速度成为早期尝试,验证了小模型在特定任务的可行性;llama-2-70b提供了更广的知识覆盖面;随后,perplexity还采用了code llama-34b,补强了代码相关的垂直能力。

真正的转折点出现在2025年2月,deepseek-r1让perplexity完成了从“使用开源模型”到“基于开源模型自研”的关键跳跃,获得了完整的权重控制能力。而后,perplexity又继续深度调优sonar模型,展现了自研能力的成熟,专门针对搜索问答场景进行优化。

如今选择kimi k2,正是这一战略的最新体现——不仅在速度和成本上优于r1,其原生agent能力更完 美契合了“30分钟自主研究”的产品需求。

综合来看,perplexity的模型选型必须在高性价比与高性能之间找到平衡,同时满足特定的产品需求。由于目前尚无开源模型能完全达到其标准,perplexity只能阶段性地选择最 优解,这种“择优而用”的策略反而让其成为了开源模型能力评判的重要风向标。

免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。

热门文章

网站地图