苹果公司正计划对旗下语音助手Siri进行重大升级,这一消息由科技媒体MacRumors在最新报道中披露。据悉,即将推出的iOS 26.4系统将整合基于大语言模型(LLM)的全新核心架构,彻底改变Siri现有的工作模式。这一变革标志着苹果在人工智能领域迈出了关键一步,有望重塑用户与智能设备的交互体验。
传统Siri依赖关键词匹配的指令式架构将被彻底摒弃。新版系统采用的大语言模型架构,使Siri首次具备真正的逻辑推理能力。虽然初期版本不会支持像ChatGPT那样的无限制长对话,但其对模糊指令的理解和执行能力将实现质的飞跃。例如,用户无需使用精确的关键词,只需表达大致意图,Siri就能准确理解并完成任务。
在功能层面,升级后的Siri将带来多项突破性改进。个人情境功能允许系统深度索引用户的邮件、短信和文件内容,用户可直接下达"查找上周Eric发来的滑冰建议"或"显示我的护照号码"等复杂指令。跨应用集成能力也得到显著增强,用户可以命令Siri"编辑这张照片并发送给Eric",系统将自动完成多步骤操作。屏幕感知功能则使Siri能够理解当前屏幕显示的内容,提供更贴合场景的智能建议。
技术实现路径上,苹果采取了务实的合作策略。新版Siri的后端模型由苹果与谷歌Gemini团队联合开发,这种"自研+合作"的混合模式标志着苹果AI战略的重要转变。苹果软件工程主管Craig Federighi表示,这种端到端的重构使Siri的升级幅度远超最初iOS 18发布时的承诺。在隐私保护方面,苹果坚持"隐私优先"原则,通过私有云计算处理云端请求,同时确保敏感操作仍在设备端完成。
根据规划,iOS 26.4的测试工作将于2月底至3月初启动,正式版本预计在4月向公众推送。虽然此次更新不会使Siri成为完全体的聊天机器人,不支持长时记忆和多轮深度对话,但它被视为苹果构建"完全体AI"系统的重要跳板。业界普遍认为,这次升级将显著提升Siri的实用性,为未来更智能的交互体验奠定基础。



