Apple执行长Tim Cook表示:「我们坚信创新有著能够丰富人生的变革性力量。这就是为何近40年来,Apple在硬体和软体的核心嵌入辅助使用功能,借此提倡包容性设计。我们持续挑战科技的界限,这些新功能反映出我们为所有使用者提供最优质体验的长期承诺。」
在AI的驱动下,苹果的「眼动追踪」功能能够为使用者提供一个仅用眼睛即可导览iPad和iPhone的内建选项。前置镜头在几秒钟内即可完成设定和校正,而且透过装置端的机器学习技术,用于设定和控制此功能的所有资料都安全地保存在装置端,不会分享给Apple。「眼动追踪」的运作横跨iPadOS和iOS app,不需要额外的硬体或配件。透过「眼动追踪」,使用者可以导览app的元素,并运用Dwell Control来启动各个元素,只用眼睛即可使用实体按钮、滑动和其他手势等更多功能。
苹果还新增能够借由iPhone的触感引擎根据音乐音讯提供轻点、触感、精巧的振动等触觉效果的「音乐触觉」功能、使用装置端机器学习技术来为不说话或有失语风险使用者,辨识使用者语音模式的「聆听非典型语音」功能,以及能协助减少行驶车辆中乘客的晕车症状的「车辆移动提示」功能。
根据研究显示,动晕症常常是因为人们视觉与感觉的感官冲突所引起,这可能会造成一些使用者在搭乘车辆行驶中时难以舒适地使用 iPhone或iPad。「车辆移动提示」功能,是借由萤幕边缘的动态小点代表车辆移动的变化,有助于使用者减少感官冲突,而不干扰主要内容。「车辆移动提示」会使用iPhone和iPad内建的感测器来辨识使用者处于移动的车辆中,并因应这样的状况。此功能可设定在iPhone上自动显示,也可以在「控制中心」开启和关闭。
苹果也预告将为visionOS推出辅助使用功能,包括全系统的「即时字幕」,帮助包括聋人和听力障碍使用者在内的每个人,可以在即时沟通和app的音讯中跟上口头对话。透过visionOS中的FaceTime「即时字幕」功能,更多使用者可以轻松享受使用自己Persona进行交流和合作的独特体验。
使用者可至Apple支援了解如何运用内建辅助使用功能自订Apple装置。从调整手势到自订资讯在装置画面上的呈现方式,将自己的Apple装置设定成最适合自己的模式。