苹果即将推出的个人语音功能可以使用人工智能在 15 分钟内克隆你的声音
距离 WWDC 仅有几周的时间,Apple 于周二推出了适用于 iPhone、iPad 和 Mac 的一系列新辅助软件功能预览。这些功能旨在让那些患有认知、视力、听力、口语和行动障碍或有风险的人更容易使用 Apple 的设备,这些功能将于 2023 年晚些时候推出,但该公司宣布这一消息是为了配合全球无障碍意识日,今年定于 5 月 18 日星期四。
“今天,我们很高兴与大家分享令人难以置信的新功能,这些功能建立在我们使技术变得易于使用的悠久历史之上,”蒂姆·库克说道,”以便每个人都有机会创造、交流和做自己喜欢的事情。”
辅助访问
第一个新功能旨在让有认知障碍的人更轻松地使用 iPhone 和 iPad。辅助访问在单个应用程序级别上工作,提供简化或精简的体验以降低其认知要求。苹果将这一过程称为”利用设计创新来提炼应用程序和体验的基本功能。”
例如,”电话”和”FaceTime”应用程序已被简化为一个”通话”应用程序,旨在更易于使用,而”消息”则提供视频消息功能和仅表情符号键盘的选项。同样,相机、照片和音乐应用程序也有”精炼”版本。苹果没有表明第三方开发者是否能够创建其应用程序的辅助访问版本,但似乎会鼓励他们这样做。
最后,辅助访问提供了在操作系统级别自定义设备界面的能力,可以选择传统的基于网格的布局或基于行的布局。这听起来类似于 Apple Watch 上主屏幕视图的选择,它可以将应用程序显示为蜂窝网格或字母列表,我们许多人发现这更易于使用。
现场演讲
实时语音是一种文本转语音功能,适合那些无法说话或说话有困难的人。如果您手头有设备,它可以在面对面对话中使用,但它也可以让 iPhone、iPad 和 Mac 用户在电话和 FaceTime 通话期间输入回复并大声朗读。
对于那些打字速度不快的人来说,这听起来可能会减慢对话速度,但苹果表示,用户将能够保存常用短语以便快速回复。
个人声音
与实时语音相关,个人语音专为那些目前没有面临语音困难但将来可能面临这种风险的人而设计。这个想法是,你花 15 分钟在 iPhone 或 iPad 上大声朗读文本提示,然后 iPhone 或 iPad 将使用这些音频数据和机器学习来创建与你自己的数字语音相匹配的数字语音。然后,如果将来由于某种原因无法进行语音,您将能够使用实时语音功能以类似于您自己的声音拨打电话和发送消息。 Apple 向我们保证,数据将得到保密和安全,以防止音频冒充的可能性。
其他新功能和相关公告
这些是今天新闻稿中最重要的三个公告,但还有许多较小的公告值得一提。
例如,放大镜中的检测模式获得了新的”指向并说话”功能。这意味着视力不佳的用户可以将手指移过家用电器上的按钮,iPhone 就会大声读出他们的标签。
在 Mac 应用程序中调整文本大小将变得更加容易。对快速动画敏感的用户将能够在”消息”和 Safari 中自动暂停 GIF。失聪或有听力障碍的人将可以直接将经过 Made for iPhone 认证的听力设备与他们的 Mac 电脑配对。
然而,一些公告不属于软件功能的范围。 Apple 正在将其 SignTime 服务扩展到更多国家/地区,该服务为 Apple Store 客户和联系 Apple 支持的人员提供手语翻译服务。 Apple Store 零售店将举办一些会议,向顾客介绍无障碍功能,而与无障碍问题相关或由残疾人社区的人们制作的精选节目、电影和系列将在播客和 Apple TV 应用上展示。 p>