2026年2月28日·24小时AI动态:OpenAI 1100 亿美元融资震动行业,Meta Olympus 受阻,PayPal 漏洞暴露金融安全隐患

过去一天,三条消息把 AI 产业的“上限”和“底线”同时拉到台前:OpenAI 用超大规模融资继续加码平台化路线;Meta 自研训练芯片 Olympus 因复杂性与制造风险重新评估,折射出 AI 芯片自研的高门槛;而 PayPal 因代码变更导致的长周期数据泄露,则提醒所有公司——在 AI 与金融深度融合的时代,安全不是成本项,而是信任的地基。

1. OpenAI 宣布完成新一轮融资,总额 1100 亿美元;周活超 9 亿,消费者订阅用户超 5000 万,付费企业用户超 900 万;Codex 周活增长超两倍至 160 万

点评:
从你提供的结构看,这轮融资更像“为下一阶段的算力强投入 + 产品矩阵扩张”提前备足弹药:亚马逊代表云与分发,英伟达代表核心算力供给,软银代表长期资本与全球资源。1100 亿美元的量级意味着 OpenAI 不是在做单点产品,而是在按“基础设施平台”的思路提前锁定关键资源。

900 万付费企业用户强化了 B2B 的确定性:只要 OpenAI 能持续把“效率提升”量化成 ROI,企业会更愿意把它列入基础设施预算,而不是可选工具。Codex 周活到 160 万且增长超两倍也很关键——一旦编程工作流入口被占住,竞争优势就不只是模型能力,还包括生态、插件、权限、审计与团队协作等系统能力。

真正的悬念在于:ChatGPT 的用户与付费用户增长还能持续多久,以及在增长放缓前,OpenAI 能否把“规模”稳态化为“高留存的付费结构”。

2. Meta 原计划 2026 年推出第二代训练芯片 Olympus,但因技术复杂性与制造风险而重新考虑

点评:
Olympus 的受阻未必是能力不足,更可能是生态壁垒与工程复杂度过高。按你提供的信息,Olympus 采用 SIMT 架构、强调兼容 CUDA,且目标支撑千亿参数级大模型训练——这本质上是走一条最难的路:既要追赶 GPU 的系统能力,又要在软件生态、编译器、内核与集群调度上补齐长期积累。

更重要的是,Meta 的策略调整非常现实:在与英伟达保持合作的同时,与 AMD 签下千亿美元级 MI450 推理芯片协议;又与谷歌达成数十亿美元合作,租用 TPU 用于新模型训练。对 Meta 来说,重点已从“押注单一路线”转向“多元算力组合”,用 NVIDIA GPU + Google TPU + 自研 MTIA 的结构来争夺供给确定性与单位成本优势。

这也给其他企业一个更清晰的信号:AI 芯片自研是一条极其漫长的路,哪怕巨无霸也会反复试错。

3. PayPal 披露商业贷款系统代码错误导致约 6 个月数据泄露,涉及敏感信息;已修复并提供两年信用监控

点评:
漏洞源于 PayPal Working Capital(PPWC)贷款应用的一次代码变更,导致客户 PII 在 API 响应中被意外暴露。更令人担忧的是时间跨度:从 2025 年 7 月 1 日持续到 12 月 13 日(发现并修复当天),长达 165 天的异常数据流出未被日志告警捕获,这意味着攻击者完全可能在更早阶段就批量爬取数据。

即便 PayPal 提供两年 Equifax 信用监控,这也很难覆盖身份盗用可能潜伏数年的风险,真正的长期成本往往由用户承担。补救措施符合行业标准,但事件本身值得反思:在 AI 与金融深度融合的时代,任何一行未经严格安全验证的代码,都可能成为摧毁信任的导火索。

过去72小时最重要的AI事件

作者: Kairo创作时间: 2026-02-28 03:44:01
阅读更多