过去24小时,AI 产业的三条主线同时加速:一条是 Agent 工具链开始走向“公共品”治理;一条是中国模型继续用架构创新去压低训练与推理成本;另一条是混合架构(线性注意力 + 高稀疏 MoE)把旗舰能力推到更可部署、更可规模化的区间。

1. Peter Steinberger 宣布加入 OpenAI;OpenClaw 正在发展为基金会,保持开放与独立
点评:
Steinberger 并未将 OpenClaw “卖给” OpenAI,而是推动其法律实体化为非营利基金会,这明显借鉴了 Linux、PyTorch 等成功先例。基金会模式的精妙在于:既能借力巨头的资源与人才加速技术突破,又用制度保障社区自治与长期开放,这是一种高度清醒的“有限合作”。
在 Anthropic、OpenAI、Google 纷纷构建封闭 Agent 生态的当下,OpenClaw 的独立存在具有公共品价值:高权限、强执行的 AI 代理不必依附某家云厂,提供免许可、可审计、可私有部署的替代方案,避免生态进一步割裂。
接下来真正值得盯的是:OpenClaw 基金会会采用什么治理模型(理事会/技术委员会/赞助会员机制、RFC 流程、商标与版本控制),以及是否能把权限系统、插件沙箱与安全审计做成“企业也敢用”的标准化底座。
2. DeepSeek 新一代大模型 V4 传闻:或通过 mHC 与 Engram 进一步降低训练与推理成本
点评:
DeepSeek 继续把竞争重心押在更硬核的方向:单位成本下的有效智能密度。当模型能力逐步趋同、开源扩散加速时,真正能拉开差距的往往是训练效率、推理吞吐,以及能否把成本优势转化为更快的迭代节奏与更低的交付门槛。
若传闻中的路径成立:mHC 提升动态推理效率,Engram 卸载静态记忆负担,形成“计算—存储”解耦的新稀疏范式,为 AI 提供“低算力高智能”的可行路径。训练与推理双端显著降本,通常会带来三连效应:迭代周期更短、价格弹性更强、生态扩散更快。
DeepSeek 这次会不会再次像 2025 年那样形成全球级的冲击波,关键就看它能否把纸面降本变成真实可交付的吞吐、尾延迟与稳定性。
3. 阿里巴巴发布 Qwen3.5 与旗舰模型 Qwen3.5-397B-A17B:总参数 397B,前向仅激活 17B
点评:
Qwen3.5 走的是“混合架构强落地”的路线:通过 Gated Delta Networks(线性注意力)与高稀疏度 MoE(混合专家)结合,实现“万亿级能力、百亿级成本”。对比前代 Qwen3-Max(万亿参数),新模型在长上下文(32K token)解码吞吐量提升 8.6 倍,部署显存占用降低 60%,推理效率最高可达 19 倍——这些指标指向同一个结论:它更像一款为规模化部署而生的旗舰,而不是单纯为榜单优化的巨型模型。
更值得关注的是专家调度可能更精细:推理、编程、多模态理解走不同的专家路径(例如工具调用、代码补全、视觉理解的专门分支),从而提升不同任务下的稳定性与一致性。再叠加 Qwen3.5-397B-A17B 已在 Hugging Face、ModelScope 开源,阿里延续“超400个开源模型、10亿+下载”的生态打法,目标显然不止是“模型强”,而是要把开发者默认栈继续做厚。
过去72小时最重要的AI事件:
当 OpenClaw 选择基金会化来守住开放与独立,DeepSeek 押注“计算—存储解耦”去压低成本,Qwen3.5 用混合架构把旗舰能力推向可部署区间,AI 竞争正在从“谁更强”转向“谁更能交付、谁更能扩散、谁更能成为默认基础设施”。