就在刚刚,苹果正式确认和 Google 达成多年期 AI 合作
每年 10 亿美元,拿到一个 1.2 万亿参数的定制版 Gemini,供 Siri 使用
这个模型比苹果现有的云端模型大 8 倍
苹果向 CNBC 提供的声明里,这么表达:
经过仔细评估,我们确定 Google 的技术为 Apple Foundation Models 提供了最强大的基础
翻译一下:我们尝试自研了,但没搞定
https://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.htmlAnthropic 要价太狠Bloomberg 的 Mark Gurman 爆料,苹果在做决定前评估了三家:Google、OpenAI、Anthropic
Anthropic 的 Claude 在测试中表现最好,但要价超过15 亿美元/年苹果觉得太贵,pass 了
Google 能拿下这单,一方面是价格更合适,另一方面是老交情Google 每年给苹果付大概 200 亿美元,让 Google 搜索当 Safari 的默认引擎现在苹果反过来每年给 Google 付 10 亿,买 AI 能力
这关系....挺微妙的
用户看不到 Google 标识之前的 ChatGPT 集成,是明晃晃的露出品牌Gemini 则是悄悄躲在 Siri 的的背后
在使用过程中,用户看不到任何 Google 品牌,所有功能都以 Apple Intelligence 和 Siri 的名义呈现
技术架构上,新版 Siri 有三个核心组件:
查询规划器由 Gemini 驱动,负责理解复杂请求,决定怎么执行
知识搜索系统本地和云端结合,处理信息检索
摘要生成器也是 Gemini 驱动,生成最终回复
架构上,所使用的Gemini,是跑在苹果自己的私有云上,在这个过程中,理论上Google 碰不到用户数据
苹果用的是基于 Gemini 3 Pro 的定制版本,MoE 架构,1.2 万亿参数
苹果自研的云端模型只有 150B 参数左右,差了一个数量级
和 ChatGPT 什么区别苹果现在同时和 OpenAI、Google 合作,但方式不一样
ChatGPT
Gemini
品牌
用户明确知道在用 ChatGPT
完全隐藏,以 Siri 名义呈现
角色
可选的外挂式扩展
Siri 核心架构的底层引擎
授权
每次用都要用户确认
后台自动运行
数据
跑在 OpenAI 服务器
跑在苹果服务器
总结一下:ChatGPT 需要用户主动调用,Gemini 是作为 Siri 的背后支持
苹果软件副总裁 Craig Federighi 在内部备忘录里说:
在这场 AI 马拉松中,我们不必自己发明每一项技术,但必须确保为用户提供最佳体验
时间线时间
事件
2024 年 3 月
Bloomberg 首次报道苹果和 Google 洽谈
2024 年 6 月
WWDC 发布 Apple Intelligence 和 ChatGPT 集成
2025 年 3 月
苹果宣布推迟「更智能的 Siri」至 2026 年
2025 年 11 月
Bloomberg 披露 10 亿美元交易细节
2026 年 1 月 12 日
苹果正式官宣
预计 2026 年春
新版 Siri 随 iOS 26.4 发布
从首次传闻到正式落地,差不多两年
苹果的算盘多位分析师的判断是:10 亿美元买来的喘息机会
苹果内部测试显示,自研模型在复杂对话、上下文理解、创意任务上明显落后
人才流失也很严重,AI 团队首席架构师已经跳槽 Meta,拿了 2 亿美元薪酬
但苹果没把 Gemini 当长期方案
公司正在加速开发自己的万亿参数云端模型,目标是条件成熟后替换 Gemini
最早可能 2026 年底准备好
所以这笔交易的本质:用 10 亿美元买 2 到 3 年时间,等自己的模型追上来
对 Google 来说,进入苹果生态的长期位置比 10 亿美元技术使用费更有价值
如果 Gemini 能同时覆盖安卓和 iOS 两大生态的数十亿用户,和 ChatGPT 的差距会迅速缩小
两边都有自己的算盘
本文网址:




