在 AI 进入深水区的当下,芯片、终端、模型与监管正同步展开新一轮博弈:AWS 用 192 核 Arm CPU 冲击 x86 格局;英伟达在自动驾驶领域发起 VLA 模型攻势;字节跳动把 AI 助手推向系统入口;欧盟则试图重新划定 AI 服务的竞争边界。

亚马逊推出新一代自研服务器芯片 Graviton5,采用 3nm 制程、192 个核心,主攻 AI 推理与云端能效。这是 AWS 自研 Arm CPU 的第五代产品。外界普遍猜测由台积电代工,但台积电未回应。
点评:
Arm 的最大优势一直是能效,而当核心数与制程堆到极限,它第一次真正具备了撬动数据中心格局的筹码。
这颗 192 核、3nm 的 CPU,本质上就是对 x86 发起的一场正面进攻。
如果其 AI 推理性能与扩展性在实测中稳定,那么传统服务器 CPU 将迎来十年来最强冲击。
代工是否来自台积电并非重点,更关键的是:云厂商正把自研 CPU 当成战略级武器。
当全球最大的云服务商开始自己做 CPU 时,x86 的护城河还剩多少?
英伟达发布开源的视觉–语言–行动(VLA)模型 Alpamayo-R1,专为自动驾驶研究设计,并同步提供工具链与数据集。NVIDIA 称其在规划准确率、越界率、近距离遭遇率等多项指标上显著优于基准模型。
点评:
英伟达的真正意图不只是发布模型,而是继续强化自动驾驶研发对其 GPU 全生态的绑定。
未来自动驾驶的核心竞争力,可能不再是车企自研算法,而是谁能更快训练出更聪明的大模型。
但现实问题仍在:车企是否愿意基于 Alpamayo-R1 深度投入?
字节跳动与中兴合作推出定制机型 Nubia M153(3499 RMB),开售即售罄。豆包助手获得系统级权限,可执行跨 App 操作,具备视觉感知、模拟点击、长期记忆等能力。
点评:
这是中国市场最早明确以 AI Assistant 作为核心卖点的新机型之一。
豆包不再是被动工具,而是能主动代理用户操作的系统级智能体。
字节跳动正在从内容、社交延伸到系统入口,其战略意义不亚于一次入口迁移。
但国内竞争极为激烈 —— DeepSeek、Qwen 等头部模型都在同步推进 C 端体验,豆包必须保持优势。
欧盟委员会正式调查 Meta 是否利用 WhatsApp 的高权限入口限制第三方 AI 服务接入,从而形成竞争壁垒。
点评:
欧盟担心 Meta 将 WhatsApp 打造成一个“封闭 AI 花园”,把十亿级用户入口完全掌控在自家体系中。
Meta 否认指控,强调用户有多种 AI 选择,但其策略显然倾向于优先强化自身 AI 的平台化能力。
如果欧盟最终认定 WhatsApp 存在限制性措施,未来 AI 服务平台化竞争将面临更严格的监管框架。
以下是连续两天最重要的全球 AI 事件,可结合阅读,理解过去一周的行业走向:
December 4 · Multi-Cloud Alliance、Samsung 2nm、AMD 利好
可阅读完整分析:
December 4 · Multi-Cloud Alliance、Samsung 2nm、AMD 利好
December 3 · Marvell 收购、苹果健康 AI、谷歌搜索体验转向
深度内容请见:
December 3 · Marvell 收购、苹果健康 AI、谷歌搜索体验转向
Arm CPU 挑战 x86、自动驾驶大模型“上车”、AI 手机冲击系统入口、监管重新界定竞争边界 —— AI 行业的竞争已经从单点突破转向全生态战。
未来 48 小时仍会出现新的变量,而今天的每条动态,都可能改变整个行业的走向。