过去24小时的三条消息,分别落在三个关键战场:长上下文是否能从“参数竞赛”变成“可交付能力”;开源工具链是否会成为下一代Agent入口;以及大模型公司在资本与监管双重压力下,如何把自己升级为“可上市的基础设施公司”。

1. DeepSeek 网页及 APP 测试新的长文本模型结构,支持 1M 上下文;API 仍为 V3.2,仅支持 128K
点评:
超长上下文是大模型的重要演进方向,多家厂商都在推进。若 DeepSeek 真能实现高效、稳定、低成本的 1M 上下文落地,将为中国产模型在法律、投研、研发文档、代码库级阅读等专业场景打开新的想象空间。
但上下文越长,模型越像检索系统;真正的分水岭不是“能塞多少”,而是能否给出稳定的引用定位、可验证的推理链条,并在超长输入里不被噪声带偏。目前 1M 上下文在服务端推理成本、延迟、以及尾延迟波动上依然很“贵”,因此先在网页/App 灰度而非开放给大规模 API 开发者,反而是更理性的路线。
DeepSeek 这次会把“长上下文的可用性”真正拉开差距吗?
2. OpenClaw 之父 Peter Steinberger:扎克伯格与 Sam Altman 都在积极拉他,但他的条件是项目必须保持开源
点评:
这条消息的重点不是“谁在挖人”,而是开源在工具链赛道里已经变成生死线:一旦闭源或被强绑定到某家平台,短期商业化可能更顺,但长期会削弱社区信任、降低外部贡献动力,最终拖慢迭代速度。开源的透明性也意味着可审计,能让社区发现安全风险,避免闭源后变成“不可控的黑箱”。
对 Meta 和 OpenAI 来说,“拉人”更像是在争夺下一代 Agent 与开发者工具链的入口:谁能把本地运行、权限控制、技能/插件体系、记忆系统变成默认栈,谁就能在模型趋同后继续掌握分发与锁定效应。Peter 坚持“必须保持开源”,本质是在提前划定博弈边界:可以合作,但不允许把入口锁死。
如果 OpenClaw 未来真的要被某家平台收购或深度绑定,你觉得更可能是 Meta、OpenAI 还是 Google?
3. Anthropic 任命 Chris Liddell 加入董事会:前微软 CFO、通用汽车副主席,曾任白宫副幕僚长并参与多次权力移交
点评:
Liddell 的关键履历之一,是主导通用汽车 2010 年 230 亿美元 IPO。Anthropic 在 2026 年 2 月完成 300 亿美元 G 轮融资、投后估值高达 3800 亿美元的背景下引入他,市场很容易读出一个信号:公司正在强化上市所需的财务纪律、治理结构与资本市场叙事,IPO 进程可能在加速。
更重要的是政策维度。Liddell 对华盛顿政策机器的运作非常熟悉,而 AI 监管、出口管制、国家安全审查、政府采购与公共部门合作,都会越来越直接地影响大模型公司的战略空间。Anthropic 这一步像是在补齐“政策与公共事务能力”的短板,把公司从研究导向的模型公司,进一步推向可长期合规生存的 AI 平台公司。
你认为 Anthropic 在 2026 年能成功上市吗?
过去72小时最重要的AI事件:
当 1M 上下文开始走向真实灰度、开源工具链被巨头争抢、董事会席位开始补齐“IPO+政策”能力,AI 产业的竞争已经明显进入下一个阶段:谁能把能力变成交付,把生态变成默认,把合规变成壁垒,谁就更可能穿越周期。