,在WWDC 2025的媒体采访中,苹果高管Craig Federighi和Greg Jozwiak(Jaws)坦言,Siri的下一个版本需要重新架构,原计划一年上线的功能将推迟至2026年。
这是苹果首次正面回应Siri为何难产,以及Apple Intelligence整体战略的节奏安排。
一、Siri架构重建,决定全面转向V2架构
苹果软件工程高级副总裁Craig Federighi和全球市场高级副总裁Greg Joswiak首次系统回应了外界关切的Apple Intelligence战略与Siri演进问题。
Craig直言不讳地承认,Siri当前版本(即V1架构)根本无法满足客户的期望,也达不到Apple的标准,这一架构已被团队内部“基本放弃”。
虽然在WWDC现场展示了Siri的一些新能力,但那并非基于新架构的产品,而是在旧有V1架构上推出的一次升级。
这次升级所包含的Siri体验改进,主要集中在以下几个方面:
- 更好的对话理解(语流):Siri能更好地理解用户在对话中可能出现的错误或自我纠正。
- 全新的视觉界面:提供了更美观、更现代的用户界面。
- 支持打字与Siri交流:用户现在可以通过键盘输入文字与Siri进行交互。
- 更强的Apple产品知识:Siri在理解和回答关于Apple产品相关的问题上表现得更出色。
Craig表示,团队去年曾尝试在原有基础上继续改进,但发现“花了很多时间,效果仍不理想”。
因此,真正的系统级变革将来自V2架构。Craig透露,V2架构是一个“更深度的端到端架构”,并且并非完全从零开始,而是基于V1架构的积累,将其“扩展到整个Siri体验,使其成为一个纯粹的架构”。
它意味着V2架构将成为Siri整个体验的底层基础,而不是像V1那样可能是一个局部或附加的解决方案。Siri的所有智能和功能都将围绕这个核心架构来构建和运行。
首先,是通过应用程序意图调用设备上更广泛的操作。简单来说,Siri将能更好地理解并执行那些涉及多个应用或复杂步骤的指令。
在V2架构下,Siri将能识别出你的“应用程序意图”,即理解你想要执行“查找照片”、“格式转换”和“发送邮件”等一系列任务,“更广泛地操作”你的设备,自动调动并串联起“信息”、“照片”、“文件”和“邮件”等多个应用或系统功能,一步到位地完成这个复杂任务,而不再仅仅是执行简单的、预设好的单一指令。
其次,是利用个人知识进行语义索引。这意味着Siri不仅能听懂你说的话,还能理解设备上所有私人信息。
它会利用“个人知识”,即你设备上所有的数据——包括邮件、信息、备忘录、照片等——进行深入的“语义索引”。这让Siri不仅能识别出“播客”这个词,还能理解问题背后的深层含义,然后智能地在所有个人数据中进行关联和查找,无论是邮件正文、聊天记录还是其他应用内容,从而准确地找到用户想要的信息。
当被问及“是不是还要等一年用户才能用上新Siri”时,Craig回答:“那正是我们说的意思。”这正式确认新架构Siri将于2026年才可能面向公众推出。
一年前,在WWDC 2024上,苹果展示的一款Siri。
Craig强调:“Apple的原则是:当我们推出某个产品时,它必须足够好。”他明确表示,不会“偷跑”上线未成熟的系统,V2架构必须通过严格的内部质量门槛,才会正式发布。
这也意味着,当前发布的Siri更新更多属于过渡性质,真正意义上的升级将在2026年到来。
二、Apple Intelligence不会是聊天机器人,追求“用时即现”
Craig和Joswiak提到,今年Apple Intelligence带来的是“具体可用的智能”,而不是抽象的AI概念。
面对业界对“Apple是否准备与ChatGPT、Gemini正面竞争”的疑问,Craig明确指出,Apple并不将Apple Intelligence定义为聊天机器人。
Siri的愿景从不是一个“聊天工具”,而是一个可以通过语音和上下文理解来辅助用户完成任务的系统。
他强调:“我们并没有将Apple Intelligence定义为我们的聊天机器人,也不是将它视为一个聊天应用。我们把它视为在我想做的地方,帮助我做我想做的事情。”这种理念也体现在Apple Intelligence的多个设计细节中。
例如,通过语音调取应用、理解上下文、调度快捷指令等功能,并非依赖纯对话逻辑,而是围绕实际操作需求设计的多模态交互系统。
值得注意的是,Apple Intelligence并非完全基于云端大模型,而是采用本地模型优先策略。
Apple向开发者开放了设备端的LLM框架,支持在iPhone或Mac本地运行特定推理任务,允许Swift直接调用模型能力。
这意味着第三方App开发者可以直接调用本地模型进行识图、识物、语义分析等功能,而非必须依赖远程云模型服务。
Apple还指出,必要时可调用私有云或OpenAI模型,处理超出设备性能的复杂任务,形成“本地优先+私有云+第三方API”的混合智能体系。
结语:Siri难产,AI转身,苹果承认它来晚了
苹果在一定程度上给外界释放出信号:苹果正在推翻旧Siri,重做一遍。
与此同时,苹果也在刻意避免“做一个聊天机器人”。它的AI不追求大模型对话能力,而是要深嵌入系统和设备,成为“用时即现”的任务助手。苹果没有否认自己在AI上的落后。Craig提到:“当V2准备好后,我们不会让用户等太久,但在此之前,我们也不会贸然发布。”
来源:YouTube
转自头条号智东西
文是楼上发的,图是楼上帖的,寻仇请认准对象。
有些是原创,有些图文皆转载,如有侵权,请联系告知,必删。
如果不爽,请怼作者,吐槽君和你们是一伙的!请勿伤及无辜...
本站所有原创帖均可复制、搬运,开网站就是为了大家一起乐乐,不在乎版权。
对了,本站小水管,垃圾服务器,请不要采集,吐槽君纯属用爱发电,经不起折腾。
暂无评论内容