苹果可能刚刚泄露了 iOS 16 的大量细节
如果您昨天错过了,Apple 刚刚向我们展示了 iOS 的首次官方预览16. 当然,它实际上并没有这么称呼它,就像去年一样,该公司强调了几个即将对其操作系统进行辅助功能改进,仅表示这些改进将”在今年晚些时候在 Apple 平台上进行软件更新”。这基本上是 iOS 16、iPadOS 16、watchOS 9 和 macOS 13 的代码。
虽然苹果宣布的功能对于那些有各种视力、语言或运动障碍的人来说是非常棒的改进,但它们也说明了一些整体改进,特别是在人工智能和机器学习方面,我们很可能会在下一代苹果操作系统中看到这些改进。系统。如果我们阅读这些公告,以下是我们可以在 iOS 16 中看到的一些主要改进:
实时字幕 = 更好的语音识别
Android 从版本 10 起就拥有实时字幕功能,现在苹果将在三年后获得该功能。启用此设置后,您的 iPhone 或 Mac(如果配备 Apple 芯片)将自动为任何音频内容(包括视频、FaceTime 通话、电话等)实时生成字幕。这是去年在 iOS 15 中引入的设备上语音处理的自然扩展,但它表明该功能的复杂性有了很大的提高。
我们希望这意味着 Siri 对您的命令和听写的理解有所提高,但人们可以很容易地看到这些功能出现在其他地方。以Notes应用程序为例,人们可以想象一种”转录”功能,可以从任何录音或视频中创建文本。如果苹果将其作为辅助功能来宣传,那么实时字幕的转录将需要坚如磐石,并且它为 iOS 16 的其余部分打开了一个充满可能性的世界。
Apple Watch 镜像 = AirPlay 改进
今年晚些时候推出的另一项辅助功能将允许您在 iPhone 上镜像您的 Apple Watch,并使用 iPhone 的显示屏来控制您的手表。它的设计目的是让那些有运动功能问题的人更容易操作元素,并让残疾用户能够享受所有功能iPhone 的额外辅助功能。
得益于 AirPlay 的新进步,Apple 将在今年晚些时候允许 Apple Watch 镜像。
苹果
然而,Apple Watch 镜像也具有有趣的含义。苹果表示,该功能”使用硬件和软件集成,包括基于 AirPlay 的先进技术。”这并不一定意味着我们会看到像 AirPlay 3 这样的东西,但听起来 AirPlay 将会有一些改进,可能是为开发人员提供新框架的方式。
值得注意的是,这似乎允许设备以 AirPlay 目前无法实现的方式传达控制意图。 AirPlay 将音频和视频推送到设备,并允许进行简单的控制(播放/暂停、音量等),但允许 AirPlay 兼容的设备发出高级触摸控制信号似乎是新的,并且可能会带来一些令人难以置信的新功能。 p>
这是一个致命的场景:如果 Apple 可以将您的 Apple Watch 镜像到您的 iPhone 并允许您与其充分交互,那么它可能会将您的 iPhone 镜像到您的 Mac 或 iPad 并执行相同的操作!仅此一点就将是一个改变游戏规则的功能。
门检测 = 真实世界的 AR 对象识别
苹果公司一段时间以来一直在悄悄改进其物体识别功能。例如,您可以在照片应用程序中搜索各种内容并获取包含它们的图像,iOS 15 添加了一个简洁的 视觉查找功能,使用相机识别植物和动物、著名地标、艺术品和其他事物。
现在,苹果公司宣布将增加使用放大镜应用程序实时检测门的功能,包括判断门的距离和读取门上的文字。它仅适用于配备 LiDAR 的设备(这就是它的测量范围),但它意味着物体识别方面有了更广泛的改进。
iPhone 的摄像头很快就能检测到门是否打开。
苹果
最明显的用例是增强现实眼镜或护目镜,预计最早要到明年才会发布。但苹果已经为开发者提供了一个强大的 ARKit 框架,用于 AR 应用程序,并且包括识别和跟踪某些日常物品的能力。对于苹果来说,预览暂时不会推出的新技术也并不奇怪。
可以合理地推测,门检测功能是苹果在增强现实场景和物体检测方面已经开展的工作的自然延伸。因此,如果您在 WWDC 上看到针对开发人员的新 ARKit 框架功能的演示,请不要感到惊讶。它可能会在 iOS 16 中推出新的 AR 应用程序,但随着苹果继续将其 AR 软件工具最终集成到 AR 眼镜中,它也一定会出现在更大的项目中。