苹果公司将空间计算引入 iOS

苹果公司将空间计算引入 iOS

苹果公司正在为 Vision Pro 的首次亮相做准备。该公司的首款 XR 头显即将面世,随之而来的是与联想、微软、Meta、HTC VIVE 和其他 XR 头显供应商有异曲同工之妙的空间计算雄心。

不过,苹果与其他竞争对手相比的一个关键差异和优势在于已经建立的 iOS 产品和软件生态系统。在最初的 Vision Pro 展示中,苹果强调了头显运营商如何将 Vision Pro 空间计算框架与其他第一方产品和服务(从工作场所应用到 Apple TV 等硬件)结合起来加以利用。

如果苹果公司能成功地利用其产品生态系统和新的 MR 头戴式设备,那么该公司就会处于一个独特的位置,可以提供一种沉浸式设备,并配备用户可能已经拥有的、可随时推出的兼容和熟悉的软件和硬件阵容,从而提高可用性和采用率。

此外,苹果公司还在推动 Vision Pro SDK 支持其第一方和 Unity 支持的第三方沉浸式应用,同样是为了打造一款拥有集成应用和硬件的系统销售阵容的复杂硬件。

另一方面,苹果并不是唯一一家推动硬件和软件互操作性和交叉融合的 XR 公司。例如,微软正在为 2024 年的工业 Metaverse 路线图做准备,该公司将与 Magic Leap 和高通公司(Qualcomm)等集团合作,提供与现有技术堆栈一起运行的沉浸式工作场所解决方案。

此外,许多其他XR公司,如Xreal,正在利用安卓和iPhone硬件来推动单独的空间计算愿景,从而使广大硬件用户能够采用便宜得多的AR产品。值得注意的是,Xreal在今年早些时候推出了Spacetop,这是一款无屏幕空间计算笔记本电脑,可与Xreal AR眼镜配合使用。它允许用户以各种方式与虚拟屏幕进行交互,例如使用手势控制光标或语音命令–这与 Vision Pro 的承诺非常相似。

虽然观察家们当时没有意识到,Xreal/Sightful Spacetop 与苹果的 Vision Pro 和空间计算路线图极其相似。就在Sapetop发布几天后,苹果公司也发布了其Vision Pro产品。

两家公司都预计空间生产力解决方案将引领 XR 市场,Xreal 声称这一途径将提供世界上 “第一个 1 亿人的 AR 用例”,这意味着取代笔记本电脑的空间计算解决方案可能成为第一个获得 1 亿用户基础的 AR 用例。此外,苹果公司也很可能同意自己的空间计算愿景将改变消费者的采用率。

XR 互操作性和整合的好处

竞争显然非常激烈。从微软(Microsoft)等领先的数字生产力公司到 Xreal 等新生力量,苹果都必须在未来 12 个月内努力说服普通用户和 XR 的铁杆粉丝,让他们相信 iOS 的沉浸式基础架构是提高生产力和彻底改变世界与数字信息交互方式的下一步。

为了引领身临其境的空间竞赛,苹果正巧妙地逐步将空间计算功能整合到 iOS 生态系统中。

目前,苹果 iPhone 和 iPad 产品已经配备了许多 AR 功能。智能手机日益成为消费者和专业受众与 XR 互动的最常见方式。

从在 Instagram 上放置 AR 滤镜,到在建筑工地上放置高质量的数字双胞胎,智能手机摄像头都非常先进,使最终用户能够充分利用 XR。

然而,与头显相比,智能手机的沉浸式集成在开发和可用性方面面临着挑战。一个值得注意的问题是,手机自动休眠功能通常会对 AR 植入服务造成障碍。

另一方面,XR 头显可以克服智能手机的缺陷,这要归功于 XR 头显专门设计的沉浸式功能。将已有的 XR 就绪智能手机与沉浸式头显相结合,可以大大增强当前的 XR 用例。

XR 进入 iOS!

苹果公司深知设备交叉和互操作性的好处。最近,该公司首次为其最新的 iPhone 产品推出了一系列沉浸式功能,与更全面的 Vision Pro 路线图保持一致。

本月早些时候,苹果公司计划为 Vision Pro 推出一个新的应用商店,为即将推出的 MR 头戴式设备提供服务和游戏。新店面将提供 “数十万个 iPad 和 iPhone “应用程序,这些应用程序可在 Vision Pro 操作系统(visionOS)上运行。

此举允许已有的和新的 iPhone 和 iPad 应用程序在 Vision Pro 设备上运行。在 WWDC 展示会上,苹果公司已经强调了用户如何在 Vision Pro 设备上使用经典的第一方生产力应用程序。

现在,随着 Vision Pro 应用商店和面向开发者的设备 SDK 的全面推出,苹果正在为其即将于 2024 年上市的 MR 头戴式设备开放大量系统销售服务,涵盖从游戏、通信、生产力到娱乐等各种使用案例。

此外,苹果公司还指出,iOS 应用程序与 Vision Pro 的交叉融合允许 “大多数 iPad 和 iPhone “服务在 Vision Pro 上运行。因此,开发人员可以扩大应用程序的受众范围,”无需额外工作”。

默认情况下,苹果将自动在 Vison Pro 应用商店发布 iPhone 和 iPad 应用程序,从而即时大幅增加该产品的用例数量。

苹果在一份官方声明中表示:

iPadOS 和 iOS 中可用的大多数框架也包含在visionOS中,这意味着几乎所有iPad和iPhone应用程序都可以在visionOS上运行,无需修改。明年初,当 Apple Vision Pro 上市时,客户将能够在 VisionOS 上使用您的应用程序。

苹果表示,Vision Pro App Store 将于今年秋季推出。该公司还致力于即将推出的visionOS测试版,其中将包括App Store;这应该会很成功,因为开发人员已经看到可用的 SDK 框架取得了巨大成功。

尽管在将 iOS 服务移植到 VisionOS 方面取得了长足的进步,但苹果表示,将 2D 应用程序移植到 Vision Pro 空间计算 SDK 并不简单或容易。然而,Apple 正在支持可能面临问题的应用程序。

通过 App Store Connect,如果开发者的应用程序不兼容且无法在 Vision Pro 上使用,苹果将通知开发者。如果 iOS 应用程序需要 Apple Vision Pro 上不可用的功能,苹果将支持开发人员提供替代功能或更新服务的 UIRequireDeviceCapability,以适应 VisionOS。

空间录制技术登陆 iOS!

另外,苹果公司最近发布了有关其即将推出的 iPhone 15 Pro 的最新消息。在本周早些时候的展示会上,该公司首次推出了一系列新功能,向观众推销最新的智能手机。

在 XR 方面,苹果为最新款 iPhone 推出了空间视频录制功能。该功能可让设备用户创建三维瞬间捕捉,从而让 Vision Pro 操作员能够回放录像,并将其作为 RT3D MR 可视化效果观看–可从不同角度观看。

明年,空间媒体流将会出现在苹果智能手机设备上,这将大大提高产品组合的 XR 能力,使其从 AR-lite 起步,并为 Vision Pro 2024 的首次亮相准备好庞大的用户群–希望这能动摇智能手机用户购买苹果新产品的决心。

消息传出时,苹果似乎正计划将 XR 功能整合到其产品组合的其他领域。

今年 8 月,值得信赖的苹果分析师 Ming-Chi Kuo指出,即将推出的 AirTag 2 产品可能会配备沉浸式追踪功能。郭明錤表示,更新后的追踪设备将于 2024 年第四季度亮相,与 Vision Pro 的兼容性也将随之推出。

Ming-Chi Kuo还认为,空间计算是 “苹果想要构建的一个新生态系统,以Vision Pro为核心整合其他设备,包括AirTag 2″。

2023 年,有报道强调 iOS 第 13 版中的代码表明,用户很快就能通过 AR 可视化找到 AirTags。

具有 AR 定位功能的 AirTag 2 可以轻松集成到 Vision Pro MR 框架中。不过,AirTag 的 AR 功能可能会与苹果 iPhone 设备配合使用,因为现代 iPhone 都配备了支持 AR 视觉效果的摄像头,这或许意味着 iPhone 用户可以通过设备摄像头的 AR 视觉效果找到 AirTag 2 设备,而设备摄像头现在将增强空间记录功能。

此外,最近有报道称,苹果公司正在开发一款AR挡风玻璃产品,这是该公司在2015年首次开始研发的概念性产品!

根据专利申请,苹果将利用红外摄像头、激光雷达和传统摄像头等传感器来实现 AR 可视化,从而提高车辆的使用率和安全性能。

根据该专利,苹果的 AR 驾驶解决方案可以显示减速带等数据,还可以通过与车辆通信或显示学校区域等驾驶限制来提醒驾驶员注意限速,从而稳定驾驶性能。此外,额外的穿透选项还可以显示隐藏在物体后面的交通标志。

开发人员的第一手经验和将 iOS 应用程序移植到 XR

开发者已经在使用 visionOS SDK 方面取得了巨大成功。上个月,苹果公司发布了一系列精心策划的开发者体验,重点介绍了 SDK 的优势,以及在苹果开发者实验室中工作的情况,开发者实验室是一个利用苹果公司的硬件、软件和资源来创建整个苹果操作系统生态系统应用程序的空间。这些空间还可以让开发者测试和优化 visionOS 的沉浸式应用,同时鼓励 XR 开发者在苹果公司的指导下创建内容,这有助于开发者人才库的发展和创新。

例如,Flexibits 公司首席执行官 Michael Simmons 说,第一次在苹果实验室工作的经历 “非常奇妙。我感觉自己就是应用程序的一部分。

Simmons 在位于库比蒂诺的实验室工作,他们将该实验室描述为身临其境应用创新和发展的 “试验场”。此外,他还注意到实验室如何为 XR 开发人员提供了一个空间,以推动整个苹果操作系统生态系统超越其局限性。结合 Vision Pro 设备,在开发者实验室工作的 XR 创作者可以亲身体验苹果的空间计算品牌,扩展他们的 AR/MR/VR 知识。

另一位XR 开发者 David Smith指出,他访问的 Apple 实验室“检查了我清单上的所有内容”。开发人员解释了如何使用 Apple Vision Pro 和空间计算直接帮助 Smith 了解如何为 VisionOS 提供的“无限画布”进行开发,并指出学习空间如何使 Smith 能够“不再思考什么适合屏幕”从而帮助自己和他人“制作更好的应用程序”。

Smith 还详细介绍了 visonOS 的现场测试功能,并补充道:“我在模拟器中盯着这个东西好几个星期了,大致了解它是如何工作的,但那是在一个盒子里。当你第一次看到自己的应用程序真正运行时,你就会听到喘息声。” 这位经验丰富的开发人员表示,苹果实验室访客如何开始理解只有在开发人员使用 Vison Pro 设备时才能回答的问题。

Smith还指出:

我不一定解决了所有问题,但我解决的问题足以让我了解我可能需要的解决方案类型。现在,我在模拟器中进行开发、编写高质量代码和设计良好用户体验的能力有了阶跃变化。

Spool 首席体验官 Ben Guerrette 指出了他的团队如何利用 Apple XR 实验室为其智能手机应用程序探索新的空间交互,解释了该实验室如何帮助他的公司将基于屏幕的游戏引入 RT3D 环境,并补充了该设施如何提供盖雷特表示,这是一次“非常有价值”的学习经历,“让我们有机会说,‘好吧,现在我们了解我们正在做什么,互动是什么,以及我们如何建立更牢固的联系’。”

最后,Slack 首席设计技术专家 Chris Delbuck解释了实验室如何让开发者能够亲身体验 Apple Vision Pro 设备,从而让开发者了解 XR 和空间计算的潜力 – “这立即让我想到了3D 产品和视觉效果如何在我们的体验中脱颖而出,”Delbuck 补充道。

作者:Rory Greener
编译自xrtoday.

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/33800.html

(0)

相关推荐

发表回复

登录后才能评论