News

DeepSeek发布V4 Pro与Flash模型:开源且推理能力直逼顶尖闭源

DeepSeek发布V4 Pro与Flash模型:开源且推理能力直逼顶尖闭源

DeepSeek 在其模型发布一年多后,再次推出最新AI模型V4 Pro和Flash版本。此前,DeepSeek曾凭借其应用程序在美国苹果App Store免费应用排行榜上位列第一。

DeepSeek在其公告中表示:“欢迎来到高性价比百万上下文长度的时代。” 上下文长度指的是AI模型能够“记住”的最大token数量,上下文越长,AI在进行长时间对话时表现出的连贯性和一致性就越好。例如,OpenAI最近发布的GPT-5.5的上下文窗口长度就介于40万至100万之间。

新模型依然保持开源特性,允许用户下载代码并进行修改。DeepSeek声称V4 Pro增强了智能体(agentic)能力,并且在推理方面可以与顶级的闭源模型相媲美。它还表示,在丰富的世界知识方面,V4 Pro仅次于Gemini-3.1-Pro。具体来看,V4 Pro的总参数量达到1.6万亿,其中活跃参数为490亿。

与此同时,V4 Flash版本虽然不如V4 Pro强大,但其响应速度更快。DeepSeek指出,V4 Flash的推理能力非常接近V4 Pro,并且在简单的智能体任务上表现与Pro版本不相上下。V4 Flash的总参数量为2840亿,活跃参数为130亿。

值得注意的是,DeepSeek应用程序在登上App Store榜首后不久,曾被美国联邦机构和政府设备禁用。当时,美国当局认为它存在国家安全风险,并对美国AI股票构成威胁。韩国也曾因隐私问题暂停该应用的下载。

↗ 阅读原文