Meta发布实验性Haptics Studio和Haptics SDK,为Quest集成触觉体验

为你的VR游戏或应用添加触觉反馈可以实现真正自然的交互。但由于一直缺乏合适的工具,创建触觉体验一直十分具有挑战性。日前,Meta正式发布了实验性的Meta Haptics Studio和Haptics SDK for Unity。

据介绍,这两个新工具旨在帮助开发者快速设计、测试并将一流的触觉体验集成到VR游戏和应用中。Haptics SDK forUnity可以帮助你解决将高质量触觉反馈集成到体验中的常见挑战,而适用于Mac和Windows的桌面端应用Haptics Studio则允许你设计和试听触觉片段,然后片段可以通过Haptics SDK for Unity导出并在应用中播放。

Meta发布实验性Haptics Studio和Haptics SDK,为Quest集成触觉体验

快速、高质量的结果

Haptics Studio和Haptics SDK for Unity都是为快速获得结果而设计。要开始,请探索触觉库或通过内置的交互式教程学习触觉设计的基础知识。接下来,你可以将自己的触觉片段立即转换为触觉反馈。你同时可以批量导入文件,跨多个触觉片段工作,并使用创造性的分析参数快速迭代不同的变体。完成后,你可以使用批量导出保存所有触觉文件以进行集成。

通过即时测试减少迭代时间

Haptics Studio可以帮助你立即感受到你执行的所有编辑,从而帮助你减少迭代时间。你无需编写代码或构建应用来测试触觉。Haptics Studio对触觉片段的所有更新和更改都通过WiFi与配套VR应用同步。你无需每次改动都穿戴和摘下头显以测试触觉。

只需为当前和未来的MetaQuest设备编写一次

从Haptics Studio导出的触觉体验以跨硬件文件格式(.Haptic)保存。这意味着,触觉可以在任何当前(Meta Quest 2或Meta Quent Pro)或未来的Meta Quest控播放。这确保了触觉不需要重新设计或再次实现,并通过帮助确保用户使用Meta Quest设备获得最佳体验,在开发过程中节省你的时间。

Meta发布实验性Haptics Studio和Haptics SDK,为Quest集成触觉体验

Haptics SDK for Unity

Haptics SDK for Unity是专门为解决将触觉集成到Unity项目中的挑战而设计。它提供了一个High Level、灵活的API。你的Unity事件可以通过SDK API轻松触发触觉,如Play、Stop和Loop。触觉播放同时可以实时调制,例如使用幅度控制来动态改变触觉片段的强度。这允许你轻松地创建触觉变体,或根据不断变化的游戏环境(如玩家与物体的距离)来改变触觉的强度。

实验性的Meta Haptics StudioHaptics SDK for Unity都已经发布。

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论