北京时间6月10日凌晨1点,苹果召开WWDC25开发者大会。大会主要聚焦设计更新和AI功能。苹果推出了操作系统设计语言Liquid Glass,并将操作系统的版本改用年份命名。
在AI方面,去年苹果宣布将Apple Intelligence集成到包括Siri在内的一系列程序中,并与OpenAI合作将ChatGPT引入iPhone等设备。今年苹果没有进行大刀阔斧的AI更新,而是介绍了一些实用的功能。例如,iOS26将推出基于Apple Intelligence的实时翻译功能,该功能集成到信息、电话、FaceTime通话中,可实现文本和语音的即时多语言翻译。此外,iOS26还推出了视觉智能功能,用户可以通过相机识别物体并在浏览器中搜索类似图像,或者查看餐厅评分。
除了iOS的AI更新,watchOS26手表端也支持实时翻译。MacOS则推出了智能操作Shortcuts和Spotlight升级,允许用户通过语言创建自动化流程,并在桌面搜索引擎Spotlight中用自然语言快速启动多种功能。
苹果加深了与OpenAI的合作,宣布将ChatGPT的图像生成功能添加到Image Playground应用程序中。苹果还向第三方开发者开放了Apple Intelligence核心大语言模型。新发布的基础模型框架Foundation Models允许开发者访问苹果的设备端基础模型,并将其集成到App中。
市场研究机构Canalys研究经理周乐轩表示,面向第三方开发者的AI SDK和API可以将Apple Intelligence更紧密地集成到第三方应用中,让开发者和用户从苹果设备中获得更多价值。
尽管外界期待Siri AI功能的升级,但此次WWDC并未介绍相关升级。苹果软件相关负责人Craig Federighi表示,苹果还在努力让Siri提供更多个性化功能,这项工作需要更多时间才能达到标准。