新 Siri 的“发光边框”——两年了,用户等来的就这个

一、Siri:从行业先驱到全公司最大的笑话

2011 年,Siri 随 iPhone 4S 登场,教会了几亿人怎么跟手机说话。那一年,Google Assistant 还不存在,Alexa 是个想都不敢想的东西。Apple 当年在 AI 这条赛道上,起步比谁都早。

然后呢?十四年过去了。

2025 年,Siri 成了科技圈最大的 meme。连三星的 Bixby 在很多场景下都比它好用。

John Gruber——跟踪 Apple 二十多年的老牌评论人——给 Apple 2025 年 AI 表现打了 F,原话是“一场彻底的、非常公开的失败”。如果 Apple Report Card 里有单独的 AI 评分项,这个 F 会更扎眼。

问题出在哪?The Information 在 2025 年 4 月做了一篇炸弹级报道,超过半打前 Apple AI 团队员工接受了采访,揭开了 Siri 溃败的内幕。

二、Siri 内部:一部宫斗剧

Giannandrea 和 Federighi 同台——台上握手言欢,台下两个团队打得不可开交

先说人。

John Giannandrea——2018 年从 Google 挜来的 AI 掌门,直接向 Tim Cook 汇报。

他的 AI/ML 团队内部有个不雅绰号,叫“AIMLess”——漫无目的。这个绰号在 Apple 工程师之间广为流传,说明了内部人怎么看这个团队的执行力。

The Information 的报道揭了一个关键细节:Giannandrea 在 2022 年 ChatGPT 发布时,曾跟团队说 chatbot 没什么用。没什么用。高层对 ChatGPT 引发的革命没有产生任何紧迫感。一位前员工的原话概括了一切:“Senior leaders didn’t respond with a sense of urgency to the debut of ChatGPT in 2022.”

再说 Siri 的直接负责人Robby Walker。多名前同事评价他:缺乏野心,不敢冒险,沉迷于“小赢”。他的得意之作包括:把“Hey Siri”的“Hey”去掉——这个功能花了两年多才搞定。他还用边际百分比的方式优化 Siri 的响应延迟。

更离谱的是一件事:有一组工程师想用 LLM 让 Siri 具备情感敏感度——比如检测到用户在痛苦中时给出合适的回应。Walker 否了这个项目。

架构决策也是反复横跳。最初的计划是同时做两个模型——端侧小模型代号“Mini Mouse”、云端大模型代号“Mighty Mouse”。后来 Walker 拍板改成只做一个大的云端模型。然后又变了。这种反复横跳让工程师极其沮丧,不少人选择离职。

两支团队的内斗才是最致命的。Giannandrea 的 AI/ML 组和 Federighi 的 Software Engineering 组之间,已经到了互相猜忌的地步。Software Engineering 的人不满 AI 组薪资更高、升迁更快、还能“周五早退和休更长的假”。

与此同时,Federighi 悄悄搭建了自己的 AI 兵力——一个叫“Intelligent Systems”的数百人团队,由他的副手 Sebastian 领导。这个团队被内部认为是实际交付 Apple Intelligence 功能的主力。两套 AI 团队在同一家公司并行,互不信任。

三、WWDC 2024:那场改变一切的“假演示”

Federighi 在台上演的那些功能,Siri 团队自己都没跑通过

2024 年 6 月,WWDC 舞台上,Apple 展示了 Apple Intelligence 最惊艳的功能——Siri 帮你查邮件找航班信息、跨 App 安排午餐,一气呵成。

但据 The Information 报道,这场演示让 Siri 团队自己都惊了——因为他们从来没见过能跑起来的版本。当时唯一在测试设备上真正运行的新功能,只有 Siri 的那个发光边框动画。

划重点:这是 Apple 历史上的一次重大背离。这家公司以前的规矩是——发布会上只展示已经在测试设备上跑通、且市场团队确认能按时发布的功能。

WWDC 2024 打破了这个传统!

然后 Apple 拿这些不存在的功能去卖 iPhone 16。

官网首页写着“Hello, Apple Intelligence”,门店销售拿它当最大亮点。一个 beta 都算不上的东西,拿来卖手机。

四、四次跳票:从“即将到来”到“再等两年”

两年了,核心功能还在“即将推出”

时间线值得仔细看:

2024 年 6 月 WWDC 发布 Apple Intelligence,暗示年底上线核心 Siri 功能

2024 年秋 iOS 18.1 上线,只有 Writing Tools 等基础功能,“更聪明的 Siri”没来

2025 年 3 月 Apple 正式宣布:跨 App 操作的 Siri 和个人上下文功能延期到 2026 年

2025 年 3 月 Tim Cook 对 Giannandrea 失去信心,Siri 从 Giannandrea 手中被剥离,交给 Vision Pro 的 Mike Rockwell

2025 年 4 月 Rockwell 开始全面清洗 Siri 管理层,把 Vision Pro 的得力干将调入 Siri 团队

2025 年 12 月 Giannandrea 正式“退休”(说是退休,更像被退休),Apple 从官网领导层页面直接删了他

2026 年 1 月 Apple 与 Google 签多年合作协议,用 Gemini 驱动下一代 Siri

2026 年 2 月 Bloomberg 报道:内测中的新 Siri 错误率高达 33%,响应延迟达 3 秒,部分功能可能推到 iOS 27 甚至 2027 年

四次跳票。从一家以“one more thing, available today”闻名的公司嘴里说出来,简直是品牌自杀。

Craig Federighi 自己都承认了:这个功能“didn’t work reliably enough to be an Apple product”。Greg Joswiak 更直接:“We never want to ship something that had an error rate that we felt was unacceptable.”

但话说回来,根据一个不存在的功能卖了一整代 iPhone,多少有点超前了。

五、新 AI 掌门:从 Google 挜来的人,现在要用 Google 的模型

Giannandrea 被“退休”后,Apple 请来了Amar Subramanya——之前是微软 AI Corporate VP,再之前在 Google 干了 16 年,负责过 Gemini Assistant 的工程。

MacRumors 上有条高赞评论说得精辟:“一个负责过 Gemini 开发的人,现在来负责一个将由 Gemini 驱动的 Siri。逻辑闭环了。”

Subramanya 向 Federighi 汇报,不再向 Tim Cook。这意味着 AI 不再是一个独立的战略层级,而是被塞进了 Software Engineering 下面。

你可以理解为:Apple 终于承认 AI 不是一个可以单独存在的研究项目,它必须是产品的一部分。

但 Giannandrea 只是冰山一角。2025 年 12 月那一周,Apple 经历了Tim Cook 时代最大规模的高管离职潮

扎克伯格没花一分钱收购费,靠挖人就抽干了 Apple 的 AI 血

John Giannandrea — AI 掌门,“退休”

Alan Dye — 自 2015 年起负责 Human Interface Design,被 Meta 挜走,去领导 Reality Labs 设计工作室。Billy Sorrentino(高级设计总监)跟他一起走了

Kate Adams — 2017 年起担任总法律顾问,宣布 2026 年底退休

Lisa Jackson — 环境、政策与社会责任 VP,2026 年 1 月退休

Ruoming Pang — AI Foundation Models 团队负责人,7 月已跳槽 Meta,带走了约 100 名工程师

Ke Yang — Siri AI 驱动的 Web 搜索负责人,10 月跳槽 Meta

Jian Zhang — AI 机器人研究负责人,9 月跳槽 Meta

Luca Maestri — CFO,也在这一年选择了退出

一周内三位 SVP 级高管宣布离开,这在 Apple 历史上极其罕见。Fortune 直接说了:“Apple won’t be the same in 2026.”

而 Meta 是最大的赢家——设计、AI Foundation Models、AI 搜索、AI 机器人四条线的负责人全去了 Meta。扎克伯格没花一分钱收购,完成了对 Apple AI 团队的“外科手术式抽血”。

六、Apple 与 Google 的 AI 联姻:万亿级的“投降书”

2026 年 1 月 12 日,Apple 和 Google 发了一份联合声明:下一代 Apple Foundation Models 将基于 Google 的 Gemini 和云技术。

说白了,Apple 自己做不出足够好的大模型,买了 Google 的。据传每年费用约 10 亿美金,结构上是云计算合同。这笔交易的背景比表面更复杂:

1. Jony Ive 是导火索。

2025 年 5 月,OpenAI 以 64 亿美金收购了 Ive 的公司 io。Apple 的传奇设计师跑去帮 Sam Altman 做 AI 硬件。知情人透露,Ive 转投 OpenAI 后,Apple 和 OpenAI 的关系急剧冷却,这直接推动了 Apple 转向 Google。

2. Apple 做过“bake-off”。

Google 和 OpenAI 都参与了竞标。Google 赢在技术全面性和 Apple 能接受的合作条款——Eddy Cue 在反垄断案庭审中透露,Google 之前竞标 Apple Intelligence 时提了“很多 Apple 不愿接受的条件,也没跟 OpenAI 接受的一样”。这次 Google 学乖了。

3. OpenAI 被边缘化了。

ChatGPT 在 Apple 设备上变成了“可选的附加功能”,Gemini 才是核心。Fortune 的分析师直接说:Apple 用户如果觉得 Gemini 好用,可能会开始把 Gemini 等同于 AI,OpenAI 的品牌心智优势就没了。Sam Altman 自己说 Apple 是 OpenAI 的长期主要竞争对手。

我深度怀疑 Gemini 情绪价值给足了:

七、用户买账了吗?

73%的用户觉得 Apple 的 AI 功能“没什么用”——这数字比不做 AI 还尴尬

数据说话。

SellCell 的调查:73%的 Apple Intelligence 用户表示 AI 功能没什么价值或不如手机其他功能重要。作为对比,三星用户那边这个数字是 87%——所以不只是 Apple 的问题,但 Apple 是那个嘴上喊得最响、落地最差的。

通知摘要是最大的灾难现场。一位母亲发短信说“今天爬山差点累死我”,AI 摘要变成“试图自杀,但已康复”。BBC 的新闻标题被 AI 改得面目全非,逼得 Apple 把新闻类通知摘要直接砍掉。有人收到 Amazon 包裹追踪摘要说:“你的包裹同时在 8 个站外、已送达、明天将送达。”

Apple 期待的“AI 超级换机潮”完全没有出现。Consumer Intelligence Research Partners 的调查显示,大多数人去年换 iPhone 的原因还是——旧手机坏了。分析师们最初期望 Apple Intelligence 能驱动一波换机需求,但“我们没有看到市场预期的那种增长”。

Macworld 的测试更直观:用同一张照片分别测试 Apple 的 Clean Up、三星的 Galaxy AI 和 Google Gemini 的图片编辑功能,Apple 的结果用他们自己的话说“不只是输了,是尴尬级别的输”。

Reddit 上的差评更是每天都能刷到。

八、论文打得响,产品一塡糊涂

Writing Tools——Apple Intelligence 里少数真正能用的功能,但也就那样

Apple 的研究团队不是吃素的。这一点需要公平地说。

《The Illusion of Thinking》——2025 年 6 月发表,用可控的拼图实验环境证明,所有前沿推理模型(包括 o3、DeepSeek-R1)在复杂度超过阈值后会“推理崩溃”——准确率归零,而且推理 token 反而减少,仿佛模型“放弃了”。

这篇论文火遍全网,一度被各路媒体解读为“AI 根本不会思考”。

我的判断:这篇论文与其说是纯粹的科研贡献,不如说是一次精准的战略传播。Apple 在说什么?“我们不是落后了。那些烧几百亿训大模型的公司,它们的推理模型可能根本没有真正在推理。我们走小模型、端侧、任务专注的路,才是更严谨的方向。”

但学术界反响很分裂。Simon Willison 直接说这篇论文“获得了远超其应得的关注度”,因为标题迎合了“LLM 被过度炒作”那群人。有人发了反驳论文《The Illusion of the Illusion of Thinking》(后来被证实是恶作剧),但真正的学术反驳也不少——指出很多失败是因为输出 token 限制而非推理能力本身。Apple 自己也承认研究用的是黑箱 API,无法观察模型内部状态,结论不一定能泛化到所有推理领域。

除了这篇明星论文,Apple 的研究实力体现在:

Foundation Models Tech Report 2025(7 月发布):397 位作者联合署名,详细介绍了约 30 亿参数的端侧模型和服务端 MoE 模型的架构,包括 KV-cache 共享、2-bit 量化感知训练等技术。端侧模型在公开 benchmark 上达到或超过同等大小的开源基线。

MLX 框架(2023 年 12 月开源):专为 Apple Silicon 优化的机器学习框架,NumPy 风格 API,支持 Swift/C++/Python 绑定。这是 Apple 在开发者生态上做的最聪明的事之一——让 Mac 成为本地 AI 开发的最优硬件。

ICLR、ICML、NeurIPS、CVPR:Apple 在所有顶会都有大量论文,覆盖计算机视觉、隐私保护、扩散模型、强化学习等。论文产出不输 Google DeepMind 和 Meta FAIR。

《The Super Weight in Large Language Models》:发现 LLM 中极小的参数子集(有时只有一个参数)对模型整体功能有不成比例的影响。

Private Cloud Compute:这是 Apple 在隐私计算领域的真正创新——服务器端推理数据加密传输,Apple 自己都无法访问用户内容。

说白了,Apple 的研究团队有能力。问题是研究和产品之间有一条巨大的鸿沟——论文发了很多,产品交不出来。这是一个典型的“科研与工程脱节”的案例。

九、Apple 做对了什么?

公平起见,要说说 Apple 这几年在 AI 上不全是灾难的地方:

1. 芯片。

Apple Silicon 的 Neural Engine 确实是硬实力。有测试显示 Apple 芯片每美元可输出 1 亿 token,而 Nvidia H100 只有 1200 万。M5 芯片在 MLX 上的本地推理速度比 M4 提升了 19-27%。这是 Apple 最坚固的护城河。

2. Foundation Models Framework(WWDC 2025)。

把约 30 亿参数的端侧模型以 API 形式开放给第三方开发者。最关键的点是:零推理成本。开发者在 Apple 生态内做 AI App,不用付 API 费。这是目前唯一一个大规模提供免费端侧推理的平台。

3. 隐私架构。

不管你怎么评价 Apple 的 AI 功能有多拉,Private Cloud Compute 的架构设计确实领先。端侧处理优先、服务端加密、Apple 自己无法看到用户数据——这不是营销话术,是有真实技术实现的。

4. 收购策略(虽然太小了)。

DarwinAI(深度神经网络压缩)、Mayday Labs(AI 日程管理)、Pointable AI(RAG 和 Agent)、WhyLabs(ML 监控)、Common Ground(数字分身)——这些收购都指向正确的方向,但规模太小。Apple 至今最大的收购是 2014 年 30 亿买 Beats。有分析师说 Apple“可能需要收购 Anthropic”——但 Anthropic 2025 年 3 月的估值已经是 615 亿美金了。

5. MLX 开源生态。

这个框架让 Mac 成为了本地跑 LLM 最方便的平台之一。Ollama 已经整合了 MLX 后端。这对开发者的吸引力是真实的。

十、95 亿 vs 3000 亿:这不是一个量级的比赛

别人砸 3200 亿搞 AI,Apple 只掏了 95 亿——差了整整 33 倍

2024 财年,Apple 的资本支出是 95 亿美金,占总收入的 2.4%。

同一年,Meta、Amazon、Alphabet、Microsoft 四家计划总共投入超过3000 亿美金。Amazon 一家就要花 1000 亿,微软 800 亿。

Apple 连训大模型的 GPU 都是租 Google Cloud 的

这个差距不只是钱的问题。它意味着 Apple 在 AI 基础设施上根本不在同一个赛道。它的策略是——让别人训好模型,我来做整合和端侧优化。

这条路能走通吗?也许能。毕竟 Apple 从来不靠做底层技术赢,它赢的是整合、体验和生态。

但话说回来,如果底层模型能力完全受制于人,你的天花板就是别人给你的。以前 Apple“不做搜索引擎,用 Google 的”——每年收 200 亿美金的默认搜索费。现在“不做大模型,用 Google 的”——每年付 10 亿美金的 Gemini 授权费。角色从收租的变成了付租的

十一、外部威胁:Ive + Altman 的组合拳

Jony Ive 转投 OpenAI 这件事,值得单独说。

2025 年 5 月,OpenAI 以 64 亿美金收购了 Ive 的公司 io。Ive 将负责 OpenAI 的硬件产品设计。Altman 说得很明确:这个设备要挑战手机作为人机交互主要入口的地位。

这不只是挜了 Apple 一个人。Ive 带走了一批前 Apple 设计团队的人。而且 io 的合并意味着 OpenAI 现在有了一个世界级的工业设计能力——这正是 OpenAI 过去最缺的拼图。

Apple 这边呢?也在做 AI 穿戴设备——一个类似 AirTag 大小的“AI Pin”,有双摄像头和无线充电,计划 2027 年推出,初始产量 2000 万台。

但 OpenAI 的设备据说 2026 年底就要出。先发优势在 OpenAI 那边。

更讽刺的是,Ive 离开 Apple 是 2019 年的事。六年了,Apple 没有再出过一个能定义品类的硬件设计——Vision Pro 太贵太重,AirPods Pro 只是迭代。AI 时代的硬件定义权,可能要落到他的前设计师和他最大的 AI 对手手里。

十二、App Intents:一个“画了饼但开发者不买单”的框架

Apple Intelligence 的终极愿景是什么?不是 Writing Tools,不是 Genmoji,而是Siri 能跨 App 帮你干活。比如你说“找到 Safari 里那个菜谱,把食材加到我的购物清单里”——Siri 理解你的意思,调用两个 App,完成多步骤操作。

这个愿景依赖一个关键基础设施:App Intents

App Intents 不是新东西。它的前身 SiriKit 2016 年就有了,2022 年升级为 App Intents 框架,用于 Shortcuts、Spotlight、锁屏 Widget 等系统级整合。但 WWDC 2024 的那场“假演示”里,Apple 把 App Intents 提升到了一个新高度——它是 Siri 理解和操作第三方 App 的“接口层”。

问题在哪?Apple 的整个 Siri AI 升级计划,高度依赖第三方开发者主动适配 App Intents。这不是 Apple 自己能搞定的事。开发者需要在自己的 App 里写代码、声明 Intent、定义 Entity、标记 Schema——工作量不小,而且 Apple 至今没有发布正式可用的 Siri 端。

划重点:开发者被要求为一个他们从未见过能跑起来的 Siri写适配代码。Apple 的开发者文档至今仍然写着:“Siri’s personal context understanding, onscreen awareness, and in-app actions are in development and will be available with a future software update.”——“未来的软件更新”,连个日期都没有。

据 Mark Gurman 报道,Apple 目前只和大约 8 个头部 App(包括几款知名社交和效率工具)在定向合作开发 App Intents。Apple 内部的工程师也在担忧:系统能否兼容足够多的 App?在银行、健康等高敏感场景,准确率够不够?

这里有一个鸡生蛋蛋生鸡的困局:如果开发者不适配,新 Siri 就没有足够多的 App 可以操作,体验就不会好;体验不好,开发者更没动力适配。

对比一下微信小程序的路径:微信是先做好了基础设施和分发渠道,用流量和商业利益吸引开发者涌入。Apple 的 App Intents 目前既没有成型的 Siri,也没有给开发者可见的流量回报。这就是为什么 App Intents 虽然技术上设计得不错,但生态推进极其缓慢。

十三、小程序/Mini Apps:Apple 学微信,学了个寂寞

说到微信小程序,就不得不提 Apple 在“轻量级应用”赛道上的尴尬历史。

2020 年,Apple 在 iOS 14 发布了App Clips——允许用户不下载完整 App,通过 NFC、二维码或链接直接启动一个轻量版应用,完成点餐、付停车费等即时任务。发布时,全世界的科技媒体都说:这不就是微信小程序吗?

微博上有人直接问:“App Clips,这不就是小程序吗?”

从功能层面看,App Clips 确实是 Apple 对微信小程序模式的学习。但差距巨大:

微信小程序 2017 年上线,到 2024 年已经有超过700 万个小程序,日活超过 4 亿,小游戏总用扃 10 亿,年交易规模数千亿。它已经是一个平行于 App Store 的应用分发生态。

App Clips 呢?上线四年后,有策划者统计,被活跃使用的 App Clips 只有几十个。开发者采纳率极低。2020 年底的统计显示只有 10-20 个 App Clips 被推荐。

2025 年,Apple 又推出了Mini Apps Partner Program——试图修复 App Clips 失败的问题。区别是 Mini Apps 可以持久留存(App Clips 30 天后自动删除)、有更完整的开发者支持和变现路径。Apple 还在从微信小程序的商业模式中抽佣——Bloomberg 估计 Apple 从微信小程序交易中收取 15%佣金,可能每年带来数十亿美金收入。

但核心问题没变:Apple 至今没有像微信那样建立起一个有自发生长能力的小程序/轻应用生态。原因很简单——Apple 的分发模型是 App Store 中心化审核制,而微信小程序是社交裂变+二维码扫码的去中心化分发。两种哲学,两种结果。

比如我做 Mana,做的是让用户用自然语言创建原生 iPhone App。说白了,Mana 想做的事情和 App Clips/Mini Apps 的方向有重叠——都是降低 App 的创建和使用门槛。但 Apple 的平台策略对这类“让用户自己造 App”的工具,态度非常矛盾。它一边鼓励开发者用 App Intents 接入 Siri,一边又在封杀能帮用户跳过 App Store 的工具。

这就引出了下一个话题。

十四、Vibe Coding 封杀令:Apple 在 AI 时代最危险的一次傲慢

Xcode 自己拥抱 AI 编程,却不让用户在 iPhone 上 vibe coding——双标到家了

2026 年 3 月,Apple 悄悄封杀了多款“vibe coding”应用。

什么是 vibe coding?这个词是 Andrej Karpathy 在 2025 年 2 月造的——用自然语言描述你想要什么,AI 帮你生成并运行代码。不需要编程经验,对话式创建软件。Replit、Vibecode、Anything 等 App 把这种能力带到了 iPhone 上。

然后 Apple 动手了。

The Information 在 3 月 18 日报道:Apple 以 App Store 审核规则2.5.2 条为由,阻止 Replit 和 Vibecode 发布更新。这条规则的核心是:App 必须是“自包含”的,不能下载、安装或执行会改变自身或其他 App 功能的代码。

表面看,这是一条存在多年的规则。Apple 的发言人也说了:“这不是针对 vibe coding App 的新政策。”

但深层的逻辑很清楚:

第一,收入威胁。

Vibe coding App 让用户可以直接在手机上创建 web 应用,这些应用不经过 App Store,Apple 抽不到 30%的佣金。这直接挑战了 Apple 最核心的商业模式。

第二,分发威胁。

当一个 App 内部可以生成并运行无限多的新应用时,它本质上变成了一个绕过 Apple 审核的替代 App Store。Apple 审核的意义就没了——审过的 App 和用户实际运行的 App 完全是两回事。而且 vibe coding 已经在冲击 App Store 的审核体系本身——Sensor Tower 数据显示,2025 年 12 月 App Store 月度提交量同比增长56%,创四年新高。有开发者在 Reddit 上抱怨审核等了六周还没过,连 Elon Musk 最近都在吐槽 iOS 审核太慢。Apple 自己声称 90%的提交仍在 48 小时内处理完,但开发者社区的体感完全不是这样。

第三,竞争威胁。

Apple 自己在 Xcode 里拥抱 AI 编程拥抱得比谁都积极。2025 年 9 月 Xcode 26 集成了 ChatGPT 和 Claude 做代码辅助;2026 年 2 月 Xcode 26.3 更进一步,引入了 Anthropic 的Claude Agent SDK和 OpenAI 的Codex,支持完整的 agentic coding——AI 可以自主浏览项目文件结构、理解架构、写代码、跑测试、甚至通过 Xcode Previews 视觉验证 UI 效果。Apple 还采用了 Anthropic 开发的MCP(Model Context Protocol)作为开放标准接口,任何兼宽 MCP 的 Agent 都能接入 Xcode。

Susan Prescott(Apple 开发者关系 VP)的原话是:“Agentic coding supercharges productivity and creativity.”

所以逻辑是这样的:用 Claude Agent 在 Xcode 里自主写代码、跑构建、改项目设置?Apple 鼓励。用 Replit 在 iPhone 上用 AI 生成一个 App?Apple 封杀。同样是 AI 生成代码、同样是执行未经审核的代码,区别只在于:一个走 Apple 的工具链和 App Store,一个不走。

具体的处理方式:

Replit(估值 90 亿美金)被告知:如果把生成的 App 改成在外部浏览器打开而不是 App 内 WebView,就可以恢复更新。Replit 从 1 月起无法发布更新,在开发者工具下载榜上从第一跌到第三。

Vibecode被告知:去掉“为 Apple 设备创建 App”的功能,才能通过审核。

Anything更惨——直接从 App Store 下架。创始人尝试了浏览器版 workaround,也被拒绝了。

讽刺的是什么?Apple 一边在 WWDC 上推 Foundation Models Framework 鼓励开发者做 AI App,一边在 App Store 里封杀让用户自己做 App 的 AI 工具。一边说“AI 是 Apple 的未来”,一边把 AI 时代最有活力的开发者工具踢出去。

竞争律师 Gene Burrus 直接说了:Apple 有“在自己平台上封杀竞争对手”的历史。

Google Play Store 呢?没有对同类 App 施加相同限制。

我的看法:这可能是 Apple 在 AI 时代犯的最危险的一次傲慢。不是因为 Replit 或 Vibecode 本身多重要——而是因为 vibe coding 代表的趋势不可逆。当非程序员可以用自然语言创建软件时,整个“App Store 审核-分发-抽成”的模型就面临根本性挑战。Apple 可以封杀一个 Replit,封杀十个 Anything,但它封杀不了这个趋势本身。

更值得玩味的是 Anything 的遭遇。这个 App 去年 11 月上线,9 月刚融了 1100 万美金、估值 1 亿。用户已经通过它在 App Store 上发布了数千个 App。12 月起 Apple 就开始阻止它更新,Anything 团队试了浏览器预览的 workaround——Apple 拒了,3 月 26 日直接下架。连妥协的机会都不给。

而同一周,一个功能几乎一模一样的印度 vibe coding 应用 Emergent,更新被批准了,还冲上了开发者工具榜第一。规则一样,执行不一样。这种选择性执法,才是最让开发者寒心的。

但 Anything 团队没认输。今天(4 月 3 日),他们在 X 上官宣了一个骚操作:把 vibe coding 搬到了 iMessage 里。推文原话:“Apple is scared of vibe coding. They removed Anything from the App Store, so we moved app building to iMessage. Good luck removing this one, Apple.”

说白了,App Store 不让活,那就寄生在 Apple 自己的 iMessage 生态里。iMessage extension 是 Apple 自己开放的能力,你总不能把自己的 Messages 也下架了吧?这步棋直接把 Apple 架在了一个极其尴尬的位置上——封杀 iMessage extension 等于打自己的脸,不封杀等于默认 vibe coding 继续在 iOS 上存在。

X 上瞬间炸了。开发者社区的情绪很一致:这不是一个 App 的反抗,这是整个 vibe coding 趋势对 Apple 围墙花园模式的正面挑战。

CNBC 的专栏标题说得好:“Apple’s crackdown on AI apps puts it on the wrong side of history.”——Apple 站在了历史的错误一边。

十四点五、Siri Extensions:Apple 终于想通了?

Claude Agent 已经能自主写代码跑测试了——Siri 连跨 App 操作都搞不定

就在封杀 vibe coding 的同一周,Bloomberg 的 Gurman 又爆了一个大料:Apple 计划在 iOS 27 中推出Siri Extensions——允许第三方 AI 助手接入 Siri。

这意味着什么?如果你装了 Gemini、Claude 或 ChatGPT 的 App,你可以通过 Siri 直接调用它们。Siri 变成了一个 AI 的路由器,而不是唯一的 AI。

目前测试版系统里已经有了相关描述:“Extensions allow agents from installed apps to work with Siri, the Siri app and other features on your devices.”用户可以在设置里自行开关想用哪些 AI 服务。Apple 还计划在 App Store 里开辟一个专门的 AI 应用专区。

我的判断:这是 Apple 在 AI 策略上做过的最聪明的一步棋。

原因很简单——Apple 终于想通了一个道理:自己做不出最好的 AI,那就做 AI 的平台。就像它做不出最好的 App 但做了 App Store 一样。Siri 不需要比 ChatGPT 聪明,它只需要成为你调用 ChatGPT 的入口。

而且这里面有商业利益。用户通过 Siri 订阅第三方 AI 服务,Apple 照样抽成。ChatGPT 的独占地位结束,变成和 Gemini、Claude 平等竞争。Apple 从“依赖 OpenAI”变成了“让所有 AI 公司来我这里交租”。

但讽刺也在这里:一边在 Siri 层面开放第三方 AI 接入,一边在 App Store 层面封杀让用户自己用 AI 造 App 的工具。一边说“来我的平台”,一边说“但只能用我允许的方式”。

这两件事放在一起看,Apple 的逻辑其实很一致:欢迎 AI,但必须经过我的收费站。

十五、接下来的 12 个月

Cook 还有大约 1.5 年来证明 Apple 的 AI 不是一场昂贵的笑话

TD Cowen 分析师说得直接:Apple 大约还有1.5 年来拿出让人信服的 AI 方案。

Needham 分析师 Laura Martin 说 Apple 在 AI 上落后竞争对手一到两年:“如果 Android 那边每年都在集成最新的 Gemini 和生成式 AI,你下次换手机的时候——一年后、两年后——Android 的 AI 体验会越来越好,Apple 就会开始丢用户。”

新 Siri(代号 Campos,由 Gemini 驱动)如果顺利的话会在 iOS 26.5 或者 27 推出。如果再跳票,如果用户体验还是比不过直接用 ChatGPT——Apple 就要面对一个它从未面对过的局面。

我的判断

Apple 的 AI 困局不是单一问题,是一系列矛盾的叠加:

技术上有能力,组织上执行不了。

芯片世界级、论文高产、MLX 生态健康——但一个 AI 负责人对 chatbot 视而不见、一个 Siri 主管花两年去掉一个“Hey”、两个团队互相甩锅记日志、WWDC 上演一场没人见过能跑起来的 demo。

嘴上喊开放,手上在封杀。

一边推 Foundation Models Framework 鼓励开发者做 AI 应用,一边在 App Store 封杀 vibe coding 工具。一边说 App Intents 是 Siri 的未来,一边连正式可用的 Siri 都发不出来让开发者测试。

傲慢。

Apple 的傲慢在于:它以为自己可以用“慢就是快”来应对每一个技术浪潮。在手机、手表、芯片上这套成立。但 AI 不是硬件,AI 是速度和规模的竞赛。更要命的是,vibe coding 这种趋势正在从根本上动摇“App Store 审核-分发-抽成”的商业模式。Apple 不是输给了某个对手,而是在用旧世界的规则试图管理新世界的创新。

好消息是 Apple 在调整——换人、换架构、换策略。坏消息是时间窗口只剩大约一年半甚至更短。

15 亿台设备和全球最有消费力的用户群,是 Apple 最后的缓冲。如果这个缓冲期内还拿不出东西,那 Apple 在 AI 时代的故事,就不是“后来居上”,而是“起个大早,赶了个晚集”。

最后:

这篇文章里反复出现的一个矛盾:Apple 自己在 Xcode 里全面拥抱 AI 编程,却用 2.5.2 条款封杀 iPhone 上的 vibe coding 工具。

我们做的 Mana,就踩在这条线上——用自然语言直接生成原生 iPhone App,零代码门槛。

接下来我们准备放一个大招:将团队过去沉淀的 105 个原生 Skill 全部开源。这些 Skill 覆盖了从 UI 组件到系统能力调用的完整链路,是我们在端侧 vibe coding 上踩过的每一个坑、验证过的每一条路。

移动端 vibe coding 是 AI 时代尚未被攻下的最大战场。

Mana 要做的,不只是一个工具,而是这个品类的基础设施。

欢迎关注、试用、交流合作。


本文同步自微信公众号,点击查看原文