- A+
XM外汇消息:
去年 WWDC 上,被苹果过度宣传又放了鸽子的苹果智能 (Apple Intelligence),余味尚存。
可能你也遇到过,
就在2025 年 6 月 10 日凌晨,WWDC25 的主演讲(录播)也刚刚结束,与 AI 有关的部分仍然令人时不时感叹:「就这」。
简而言之,
今年苹果在 AI 上宣布的诸多所谓新模块,例如实时翻译、快捷指令等,并无太多革命性;至于视觉智能 (visual intelligence),不仅模块落后 Google Lens 六七年,交互体验上也远未达到一众 Android 友商的内置 AI/Agent 产品在 2025 上半年水平。
简而言之,
但看完全场我能够断言的是:唯有一条关于苹果智能的消息,将带来深远的影响——无论对于普通访客,还是开发者而言。
总的来说,
它就是「基础模型框架」(Foundation Models Framwork),苹果为开发者传递的端侧 AI 模型接入框架。运用它,苹果开发者将能够轻松地为自己的 app 接入端侧大语言模型,且无需支付 token 成本。
与其相反的是,
这意味着开发者能够无负担为访客传递基于 LLM 的能力和服务,进行纯端侧的推理,无需担心调用云端 LLM API 产生的 token 费用,自然也不必将成本转嫁给访客。
XM外汇用户评价:
开发者能够更体面地维持自己选取的收费模式,访客也因此获益。
苹果智能,纯端侧
据相关资料显示,
去年 WWDC,苹果宣布了以「苹果智能」为名的一系列 AI 产品、模块和能够传递给开发者的技术能力。大家已知这些发布的东西里面大部分都跳票了,甚至完全就是「雾件」(vaporware,指宣布了但严重跳票的软件)。
来自XM外汇官网:
这的确影响了外界对苹果在 AI 上到底有几成功力的判断。
但苹果仍然坐拥全球智能手机第一出货量。即便在超大参数量的云端 LLM 上动作迟缓,这家公司对于人们如何运用 AI,以及开发者如何在项目中应用 AI 技术,仍然有着巨大的话语权——这是客观的、毫无疑问的。
而在今年 WWDC25 上,我看到了苹果正在行使这种话语权。它告诉开发者:
令人惊讶的是,
朋友们想给访客传递 AI 能力?没疑问,朋友们能够完全在设备本地用苹果传递的端侧模型进行 LLM 推理,不需要联网,既保护了访客隐私,也不产生云端费用。
朋友们想给访客传递 AI 能力?没疑问,朋友们能够完全在设备本地用苹果传递的端侧模型进行 LLM 推理,不需要联网,既保护了访客隐私,也不产生云端费用。
说出来你可能不信,
「基础模型框架」就是苹果交到开发者手上的利器。
简要回顾一下,
基础模型是苹果智能的核心,去年仅用于苹果自家产品和模块运用;而从今天展开,苹果把基础模型开放给开发者,任何第三方应用都能够直接利用这些端侧的基础模型,来实现基于 AI 的模块,为访客带来崭新的体验。
与其相反的是,
比如现场展示的「Kahoot!」,一个教育类产品,能够用端侧模型生成针对访客定制化的一套题目;
不可忽视的是,
又或者Alltrails,一款海外徒步玩家必备的产品,即使在深山险境完全无网的情景下,也能为访客传递必要的协助。
不妨想一想,
那么,具体都有哪些基础模型?
- 去年 WWDC 上苹果发布的一款,以及其
- 面向端侧/苹果定制的 ChatGPT 模型。
——已知的至少有这两大类(具体的模型型号未知,苹果目前还没有具体对非开发者传递更具体信息)。目前「基础模型框架」原生接受 Swift(其它语言情况未知),开发者只需要几行代码就能够接入,接受资料生成、软件调用等多种 LLM 能力。
但现如今开发者手上的选取太多了:DeepSeek、Claude、O 系列、Gemini……以及它们的各种官方型号和面向具体场景的再训练版,凭什么跟苹果的基础模型玩呢?
苹果给出的价值主张非常直接。
便捷来说,运用这些 LLM 是有直接经济成本的,访客量和活跃度/粘性越大,调用云端 API、生成 token 的成本越高。
请记住,
面对这种成本,明星创业公司能够通过风投融资,大厂能够运用现金储备来补贴,结果是现如今的访客早已习惯免费的 LLM 产品了。
值得注意的是,
但对于中小开发者,特别是独立开发者,这就成了一个非常实际的疑问了:想象一下访客刚刚下载朋友们的 app,想要浅尝朋友们的 AI 模块,一上来就看到「本月还有 3 次免费生成额度」……而如果朋友们的竞争对手里正好有大厂,朋友们怎么和它们竞争?
现在苹果带着「基础模型框架」来到朋友们面前,免费开放端侧模型给朋友们,让朋友们调用 iPhone/iPad/Mac 的本地算力,迅速、高效、且隐私地进行 LLM 推理,化解访客的需求。
来自XM外汇官网:
朋友们不再为了支付云端 API 费用而资金链紧张;不再为了负担 token 成本而在定价策略上「动作变形」,能够坚定且体面地选取朋友们喜欢的、让访客也感到舒服的商业模式——如果朋友们是个中小或独立开发者,这是不是听起来还挺美好的?
这是一种开发者和访客双赢的局面——当然,加上苹果,那就是三赢。
「虽迟但到」,AI 版
他指出苹果总是在一些关键产品/技术上晚于竞争对手,这也是大家都知道的事情;但朋友们必须承认,在公司存续的历史上,苹果确实也没错过哪次重大的、范式级的科技革命。
总的来说,
比如苹果的 Safari 浏览器,以及浏览器内核 WebKit,推出时间是 2003 年初,比曾经轰动世界,甚至敢叫嚣让微软生意做不下去的网景浏览器足足晚了 8 年,甚至比 「.com 泡沫」破裂都晚了 3 年——但晚来总比不来好,更别提在 Safari 之前 Mac 平台上没有一个好用的浏览器。
事实上,
如果套用这个逻辑,被迫卷入 AI 时代的苹果,需要一套在今天能够和 Safari/WebKit 地位对等的新产品技术组合。
不妨想一想,
好消息是:正如本文开头提到,iPhone 的出货量和市占率优势实在太大了。无论外界怎样嘲讽苹果在 AI 时代落后,也都无法否认一个现实:
通常情况下,
在可预见的相当长一段时间里,苹果仍然有足够的话语权,能够定义访客怎样(在 iPhone/iPad/mac/Vision 产品上)运用 AI,而不是让 AI 来定义自己的产品应该长什么样。
综上所述,
朋友们能够看到 OpenAI 收购了前苹果设计领袖 Jony Ive 的公司,试图开发一款「完全 AI 原生」的新形态设备;但朋友们也会看到 OpenAI 和苹果达成协议,成为苹果生态里唯一的「全球只是合作伙伴」——也即唯一的外部基础模型供应商。
苹果认为自己落后 OpenAI 了吗?没有。不然苹果应该给 OpenAI 交钱。正相反,根据 The Information 报道,OpenAI 会像老前辈 Google 作为 iOS 默认搜索引擎那样,为了能够进入苹果生态成为默认基础模型,而给苹果交「过路费」。
不可忽视的是,
如果 ChatGPT 访客订阅月费是 20 美元的话,苹果抽成有可能高达30%。而且这笔收入几乎等于纯利润。
XM外汇消息:
朋友们看,苹果向 OpenAI 收钱,然后变相补贴开发者以及终端访客——是不是还挺意外的?
2009 年第一财季的苹果财报会上,当时由于乔布斯病重而第二次担任苹果代理 CEO 的库克,说过几段话,后来被称为「库克信条」。其中有一段是这么说的:
大家相信,大家需要拥有和控制大家所生产产品背后的主要技术,并且只参与大家能够做出重大贡献的市场。
XM外汇报导:
大家相信,大家需要拥有和控制大家所生产产品背后的主要技术,并且只参与大家能够做出重大贡献的市场。
通常情况下,
再结合 John Gruber 的分析,我把这个思路收敛到一句话:
不妨想一想,
苹果应该造出一款设备,一种运行 AI 产品/服务/LLM 的载体,然后用这个设备/载体去定义人们怎样运用 AI,而不是让 AI 反过来定义自己该如何开发产品。
XM外汇消息:
在 WWDC25 之后,外界在观察和评论苹果 AI 工作的时候,或许能够采用这种新视角。
来自XM外汇官网:
苹果智能,微更新
最后大家来看一下 WWDC25 的其他 AI 新发布资料。
实时翻译
苹果终于在 iOS/iPadOS/macOS 内集成了一套达到了业界(两三年前)基准水平的实时翻译模块。
这你可能没想到,
目前实时翻译接受信息、电话和 FaceTime 三个应用。所有翻译能够完全在端侧完成。
事实上,
- 在发信息的时候,访客能够用自己的语言输入,在 UI 上实时看到翻译后的外语文本流式输出,然后手动点击发送;同理,对方发来的信息,在访客本地的 UI 上也能够自动翻译。
- 在电话中,先说出原文,然后双方都能听到翻译后的语音
- FaceTime 场景下,一方说话,另一方能够看到翻译后的字幕
尤其值得一提的是,
Genmoji 和 Image Playground
概括一下,
Genmoji:访客现在能够用 LLM 提示命令的模式,来生成带有更多新元素的 Genmoji 头像。比如:把树懒和灯泡合在一起
很多人不知道,
在 Image Playground 里,访客能够调用 ChatGPT 的多模态模型生成不同风格或者随机风格的照片——朋友们能够理解为这是一个苹果官方的 OpenAI 4o 套壳。
反过来看,
视觉智能 Visual Intelligence
视觉智能之前已经接受摄像头拍照搜索。在今年 WWDC 上又获得了一个令人无语的更新:接受截图搜索/后续交互了。
比如截图中的物品能够直接调用任意 App Store 应用进行搜索,或者对截图中的日期时间地点进行读取,将其添加到日历项、备忘录等。
从某种意义上讲,
(现在视觉智能终于追上了 Google 图片搜索以及 Lens 在 6、7 年前已经实现的模块。)
据相关资料显示,
但主要无语的地方在于交互模式太过于古老:截图,而不是像 2025 上半年的 Android 手机那样,不用截图就能直接对访客屏幕上的资料进行读取和做出反应,甚至具备 agent 能力能够直接代替访客操控屏幕。
通常情况下,
当然我的理解是苹果这么做可能有两方面原因:1)能力确实不如 Google/Android 厂商;2)出于隐私方面顾虑,需要访客手动截图、点击视觉智能识别按钮.
快捷模式
快捷模式 (Shortcuts) 接受苹果智能了,开发者能够对自己的 app 进行一些修改和适配,让访客能够迅速生成针对 app 的快捷模式。我不知道多少人会用快捷模式,全世界应该有几十个吧。
返回搜狐,查看更多