从“聊天便宜”变成“Agent便宜”!DeepSeek-V4把大模型费用 战推入“Agent时代”

等了15个月,今天(4月24日) ,DeepSeek-V4(预览版本)终于发布了,而且是在OpenAI发布GPT-5.5几个小时后 。

从“聊天便宜”变成“Agent便宜	”!DeepSeek-V4把大模型费用
战推入“Agent时代”-第1张图片

在约1000字的DeepSeek-V4产品介绍文章中,Agent(智能体)一词出现了多达11次。

DeepSeek-V4用专家模式(Pro)和快速模式(Flash)双版本配置 ,将大模型价格战从“聊天便宜”推进“Agent便宜 ”时代。

DeepSeek-V4凭借全新稀疏注意力与同策略蒸馏技术,把推理成本压到新低,V4-Flash版输出价仅为GPT-5.5 Pro的1.55‰ ,V4-Pro版性能比肩全球顶级闭源模型 。

“低价快模型 + 高价强模型”组合,让DeepSeek-V4打通了Agent规模化落地的成本账。

全球模型对比:DeepSeek-V4实际价格到底多便宜?

DeepSeek-V4发布后不久,全球最大AI模型应用程序编程接口聚合平台OpenRouter上 ,就已经有用户进行了调用。截至4月24日15点 ,OpenRouter平台上DeepSeek-V4-Pro的调用量达到2.99亿Token,V4-Flash调用量达到3.99亿Token 。

DeepSeek延续了一贯的“普惠”风格。

V4-Flash:缓存命中输入0.2元/百万Token,缓存未命中输入1元/百万Token ,输出2元/百万Token。

V4-Pro:缓存命中输入1元/百万Token,缓存未命中输入12元/百万Token,输出24元/百万Token 。

然而 ,不同于公司官方的API定价,OpenRouter平台会综合不同服务商渠道报价,按照各渠道实际调用流量加权计算得出的市场综合均价 ,也就是实际使用价格,该价格也会随时变动 。

《每日经济新闻》记者统计OpenRouter数据发现,截至4月24日13:30 ,本周调用量领先的国内外主流AI大模型中,DeepSeek-V4-Flash的成本优势突出,每百万Token的平均输出价低至0.279美元 ,仅为OpenAI新发布的GPT-5.5 Pro(180美元)的1.55‰。

Anthropic Claude Opus系列 、OpenAI GPT-5.4 ,以及谷歌Gemini 3.1 Pro Preview等大模型的输出价格均在12~25美元区间,是DeepSeek-V4-Flash的数十倍。

在输入端,DeepSeek-V4-Flash每百万Token平均输入价仅为0.07美元 ,只略高于阶跃星辰Step 3.5 Flash的0.031美元,显著低于其他国内外主流大模型 。

值得一提的是,业界一直在关注DeepSeek-V4是否会使用国产算力。DeepSeek在产品介绍文章中用小字表示 ,受限于高端算力,目前V4-Pro的服务吞吐十分有限,预计下半年