近日,DeepSeek V4技术报告在AI行业引发广泛关注。与以往依靠“暴力美学”堆叠算力和参数不同,V4展现出一种“克制美学”:通过一系列组合优化和重构,包括注意力机制(CSA+HCA)、MoE架构、后训练及推理系统工程等,实现了显著的效率提升。这些创新使得V4-Pro在处理百万Token长上下文时,所需算力仅为上一代V3.2的27%,KV缓存压缩至原来的10%。
然而,模型的价值不应仅停留在纸面参数和榜单表现。为此,我们邀请了近10位开发者、应用创业者和投资人,进行了为期三天的体验和测试。一个反直觉的结论浮出水面:DeepSeek V4对应用层的影响,可能远超模型层。尽管DeepSeek V4在工程优化上极致,但其技术报告也坦言,其发展轨迹约滞后前沿闭源模型3至6个月。V4通过牺牲部分准确性,换取了推理和Agent(智能体)能力的显著提升。
对于注重稳定和精确的商业场景,V4目前并非一款能够直接落地的模型。Pine AI首席科学家李博杰和某头部Coding Agent创业者Chillin均指出,其工具调用稳定性与幻觉率需要通过“脚手架”(harness)层面进行补足。这意味着V4的商业化部署离不开外部的规范与支持。基座模型性能的快速迭代也给应用层创业者带来挑战,未来应用的壁垒将在于如何将模型、Agent、产品场景和数据反馈组织成一个可靠、低成本、可规模化的生产系统。
核心优势:卓越的代码与智能体能力,兼顾成本效益与开源开放
DeepSeek V4-Pro在多个关键代码和软件工程评测中展现出当前开源模型的最高水平,几乎与顶尖闭源模型比肩。其真正的亮点在于高能力与低成本的结合,以及对开放开源精神的坚持。
PingCAP联合创始人兼CTO 黄东旭:他已将日常工作流(如邮件整理、文章撰写、日历管理、内容总结、网络浏览)从更昂贵的Claude Opus和GPT模型迁移至DeepSeek V4 Pro。黄东旭表示,V4的中文优化和整体语言能力更符合中文母语者习惯,其能力水平约在Claude Sonnet 4.5到4.6之间,但价格不到头部模型的四分之一。这大幅降低了Agent的成本开销,并提供了更高的安全感,避免因闭源服务中断而影响工作流。在编程能力方面,V4在几千行代码规模或处理复杂第三方系统调用场景下表现良好,尤其在几千到一万行规模的One-shot成功率较高。他认为,若有更强的模型(如GPT 5.5级别)为DeepSeek V4 Pro指明方向,并由V4负责执行,能显著降低Agent工程的总体成本。
零一万物技术与产品中心副总裁 赵斌强:他认为DeepSeek V4虽非“最全能”,却是“最值得信赖”的ToB基础模型,原因在于其坚定的开源承诺、完整的技术报告、极低的推理成本和全技术栈国产化适配。赵斌强对两点印象深刻:一是模型架构的底层创新,特别是混合注意力机制(CSA+HCA)在百万Token上下文窗口下保持高质量推理的能力,以及在Context压缩方面的先进探索和无保留的公开细节。二是其完成了华为昇腾910B/950的适配,在量化、稀疏化、领域expert优化等方面工作细致,这标志着国产全栈解决方案在摆脱对英伟达生态依赖的道路上迈出了实质性一步。
Pine AI首席科学家 李博杰:他对DeepSeek V4最惊艳之处在于其成功地将MoE、CSA+HCA混合注意力、mHC、Muon、FP4QAT这一系列复杂架构创新,在1.6万亿参数(目前最大开源规模)的模型上成功运行。