昨天半夜,推特爆料账号 @legit_api 爆料:Deepseek-v4正在做发布前的测试准备。DeepSeek V4 的 Lite 版已经在至少一家推理服务商那里跑起来了。内部代号 "sealion-lite",签了严格的保密协议。百万 token 上下文窗口,原生多模态,比现在 DeepSeek 网页和 App 上能用到的模型"好很多"。好很多是多少?评论区有人贴了v4 ...
技术规格方面,消息称 DeepSeek 正积极测试 V4 Lite, 具备 100 万 tokens 的超长上下文窗口 ,作为对比 DeepSeek V3.2 为 128K(128000)tokens。 上下文窗口(Context Window)是指 AI 模型在生成回答时能“记住”的之前对话或输入文本的长度。窗口越大,模型处理复杂长篇任务的能力越强。
与前代V3相比,V4的升级堪称跨代际突破。其上下文处理能力从现有水平跃升至100万tokens,相当于可同时解析整部《战争与和平》长度的文本。更引人注目的是原生支持多模态推理,不仅能处理超长代码库,还能在生成复杂SVG矢量图等任务中展现卓越性能。测试中,该模型仅用单次推理就完成了需要多步骤交互的图形设计任务,令工程师团队惊叹不已。