DeepSeek新模型曝光?“MODEL1”现身开源社区

来源:上海证券报2026年01月22日 12:15

恰逢DeepSeek-R1模型发布一周年,DeepSeek新模型“MODEL1”现身开源社区。

近日,DeepSeek官方在GitHub更新了一系列FlashMLA代码,涉及的114个文件中,有数十处提到了此前未公开的“MODEL1”大模型标识符。

2025年2月,DeepSeek启动“开源周”,计划以每日解锁的形式逐步公开5个代码库,Flash MLA为首个开源项目。公开资料显示,Flash MLA通过优化Hopper GPU的内存访问和计算流程,显著提高可变长度序列的处理效率。其核心设计包括动态内存分配机制和并行解码策略,可减少冗余计算并提升吞吐量,尤其适用于大语言模型的推理任务。

在某些文件中,“MODEL 1”与已知的现有模型“V32”(即DeepSeek-V3.2)并列提及。行业分析认为,“MODEL1”或许代表一个不同于现有架构的新模型,可能正是DeepSeek还未对外发布的下一代模型(R2或者V4)。

此前有市场消息称,DeepSeek计划在2月春节前后发布新一代AI模型DeepSeek V4,但发布时间可能会视实际情况而变化。V4模型是DeepSeek 2024年12月发布的V3模型的迭代版,具备强大的编程能力。DeepSeek内部的初步测试显示,V4在编程能力上超过了目前市场上的其他顶级模型,如Anthropic的Claude和OpenAI的GPT系列。

2026年1月以来,DeepSeek动作不断,已陆续发布了两篇技术论文,分别介绍了名为“优化残差连接(mHC)”的新训练方法,以及一种受生物学启发的 “AI记忆模块(Engram)”。

1月12日,DeepSeek在github上发表新论文,文章由DeepSeek与北京大学合作完成,作者中有梁文锋署名。文章指出,Transformer架构缺乏原生的知识查找机制,迫使它们通过计算低效地模拟检索。为此,DeepSeek提出了条件记忆(conditional memory),并给出了实现方案Engram模块。DeepSeek称,该模块不仅有助于知识检索,同时在一般推理和代码/数学领域方面取得了更大的进步。

在业内看来,梁文锋旗下私募幻方量化较高的收益率,为DeepSeek的研发提供了更多支持。公开资料显示,幻方量化2025年的收益均值达56.55%,在中国管理规模超百亿的量化私募业绩榜中位列第二,仅次于以73.51%收益均值登顶的灵均投资。目前,幻方量化管理规模已超700亿元。

【责任编辑:李扬子】

投稿与新闻线索: 微信/手机: 15910626987 邮箱: 95866527@qq.com
中国能源网官方微信二维码
欢迎关注中国能源官方网站
分享让更多人看到
中国能源网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。

即时新闻

要闻推荐

热点专题

精彩视频

国网经研院马良解读配电网新业态:站在爆发前夜,以标准与规划破局提质
国网经研院王旭阳解读分布式新能源新规则:反送电约束放宽,安全边界划重点!
四川大学刘友波:配网升级难在哪?三大瓶颈与AI破解之道(下)
四川大学刘友波:配网升级难在哪?三大瓶颈与AI破解之道(上)

精彩图集

再访美军空袭后的拉瓜伊拉港
华盛顿举行反对联邦执法人员暴力执法抗议活动
首批下穿太湖超大直径盾构机下线
沪宁合高铁南京特大桥跨滁河斜拉桥顺利合龙
DeepSeek新模型曝光?“MODEL1”现身开源社区
分享到: