昨晚,DeepSeek 无预警发布了 DeepSeek-V3-0324 模型。虽然官方低调地称其为“小版本迭代”,但实测表现远超预期。该模型在代码生成、前端开发等方面显著提升,部分能力甚至比肩 Claude 3.7 Sonnet,引发了全球 AI 社区的热议。
在大模型竞技场测试 KCORES 中,DeepSeek-V3-0324 的代码能力得分为 328.3 分,超越了普通版 Claude 3.7 Sonnet 的 322.3 分,接近 Claude 3.7 Sonnet 思维链版本的 334.8 分。在 Aider LLM Leaderboard 排行榜中,DeepSeek-V3-0324 在多语言基准测试中的得分为 55%,比 V3 有显著提升,略低于 R1。在非思考/推理模型中,它排名第二,仅次于 Claude Sonnet 3.7。
测试数据还显示,在表现良好的模型中,DeepSeek-V3-0324 的花费最低,比 R1 低很多,仅需约 1/5 的成本,具有极高的性价比。Claude Sonnet 3.7 Thinking 的花费是 DeepSeek-V3-0324 的 33 倍,o1 则是其 167 倍。
目前在 DeepSeek 官网上,只需关闭“深度思考”选项即可使用新模型。Hugging Face 上也提供了开源下载。DeepSeek-V3-0324 包含 685B 参数,较前代 V3 小幅增加,采用 MoE(专家混合)架构,激活参数 370 亿。网友实测 DeepSeek-V3-0324 支持 4-bit 量化,可在 512GB M3 Ultra Mac 上以 20+ token/s 速度运行,磁盘占用仅 352GB。新模型采用与 DeepSeek-R1 相同的 MIT 许可,允许自由修改、商用及模型蒸馏,比上一版 V3 更开放。
(更多资讯请关注56之窗资讯网:56news.ffsy56.com)