过去一天,算力军备竞赛、先进制程路线、以及多模态评测排名同时出现“信号级”变化:字节跳动用超百亿美元级预算提前锁定高端GPU供给;英特尔把 14A 与 High-NA EUV 绑定为量产叙事;而谷歌 Gemini-3-Pro 在 SuperCLUE-VLM 12月榜单上拉开明显分差,进一步抬高多模态门槛。

点评:
字节跳动旗下 AI 助手“豆包”的日处理 token 量已从 2024 年底的 4 万亿飙升至 2025 年底的 50 万亿,半年内增长 12.5 倍。
142 亿美元的采购预算,若全部用于 H200 芯片,可购买约 7.1 万张,这表明字节跳动并非仅满足于短期部署,而是试图提前锁定未来 1–2 年的高端算力资源,以支撑大模型训练、多模态生成、实时视频 AI 等前沿应用。
对字节来说,芯片不是普通 IT 采购,而是战略资源:谁能更稳定地拿到更高规格、更大规模的 GPU,谁就更可能在模型迭代速度、推理成本、产品上线节奏上形成优势。
但跨境高端 GPU 供给始终受出口管制与合规审查影响,计划金额不等于最终可交付规模与型号结构。
点评:
Intel 14A 将成为全球首个采用 High-NA EUV 光刻技术的量产工艺节点。High-NA EUV 能将光刻分辨率提升约 50%,突破 3nm 以下制程的物理极限,是实现更高晶体管密度的核心保障。
如果英特尔真能在 2026 年实现 14A 量产,它提供的不是单一节点,而是一个战略信号:先进制程不再只有台积电一条主干道。对大客户而言,多一个可量产的先进节点,就多一张谈判筹码,也多一份供应链韧性。
但关键不在“宣布量产”,而在良率、成本与产能爬坡曲线。14A 若兑现,将显著增强 Intel Foundry 的可信度,帮助其争取更高阶的外部客户与长期合约;若延迟或良率不达标,市场会迅速把它归类为“路线图承诺”而非“可交付产品”,对代工业务拉新极其不利。
英特尔会在 2026 年实现吗?
点评:
在 VLM 赛道,能拉开分差通常意味着两点之一:要么视觉编码与对齐做得更扎实,要么在可评测任务集上具备更强的工程化优化。无论是哪一种,谷歌这次至少证明了它在“可量化的多模态能力”上处于第一梯队。
值得注意的是,本次排名的第二名到第五名:商汤 SenseNova V6.5 Pro(75.35 分)位居第二;字节跳动旗下豆包(73.15 分)排名第三,但在基础认知单项得 82.70 分;百度 ERNIE-5.0-Preview 与阿里 Qwen3-VL 均进入前五,其中 Qwen3-VL 更是首个总分突破 70 分的开源模型。
整个榜单的前五名除了 Google 外,其余都是中国的大模型。遗憾的是 Anthropic Claude-opus-4-5 和 OpenAI GPT-5.2(high)都未进入前 5 名。
Gemini-3-Pro 的领先,是 Google 多年深耕多模态技术的必然结果,而且这次确实拉开了与竞争对手的距离。
过去 72 小时最重要的 AI 事件: