整个视频行业,尤其是体育行业,正在走向多模态化。随着行业将分辨率、动态范围和音频保真度提升至难以进一步变现的高度,单纯的画面和音频已无法满足需求。因此,业界正将目光投向能增强赛事沉浸感的新技术。
“2D视频很好。每个人都知道这一点,但如果我们想提升体验的价值,我们可能需要添加额外的媒体,也希望带来互动性,”InterDigital 媒体系统高级总监 Gaelle Martin-Cocher 说道。“被动体验固然不错,但年轻一代的需求更高。”
总部位于美国的研究实验室 InterDigital 致力于开发支撑当今众多视频压缩和无线通信标准的技术。目前,该公司的重点是如何利用触觉、力度、运动和温度等感知来丰富沉浸式体验。
InterDigital 高级总监兼 MPEG 触觉数据表示标准化小组负责人 Philippe Guillotel 表示:“我们的目标是实现跨设备和平台的触觉互操作传输和渲染,补充视觉和听觉媒体。”

触觉信号的一个潜在用途是利用 2026 年 FIFA 世界杯期间使用的足球中压力传感器的数据,在每次有人踢球或进球时向移动设备发送振动。
另一个场景是一级方程式赛车。Guillotel 解释说:“赛车上已经安装了传感器来检测运动、加速和减速,你可以利用这些信息来增强弯道或超车时的驾驶体验。在篮球比赛中,当有人撞到你时,你就能收到这种反馈。”
“最简单的方法是准备好一个效果库,当直播过程中发生犯规或进球等事件时,有人按下按钮即可产生相应的效果。”
利用计算机视觉技术,这一过程也有望实现自动化。感官体验可能在体育场或球场的任何地方产生,例如在橄榄球争球区内,或在泳池上方10米处高空跳水运动员的旁边。
触觉标准
2021年10月,MPEG 正式将触觉技术认定为核心媒体类型,使其与音频和视频享有同等地位。新的MPEG-I 触觉编码标准最终于2025年1月以ISO/IEC 23090-31的形式发布,该标准统一了振动触觉和动觉数据的编码,从而实现了XR、游戏和广播领域中可互操作的高保真触觉反馈。
这为触觉在支持当今媒体体验(从移动设备到电影院和 XR 耳机)的同一生态系统中进行编码、传输和渲染铺平了道路。
我们已经开发了描述触觉信息的标准,并使用包括 Dash、MP4 文件格式和 CMAF 在内的传统广播或流媒体格式进行分发。建立一致的触觉传递方法对于该技术在沉浸式娱乐领域的应用至关重要。
任何实现标准接口的设备(手套、背心、游戏手柄或机器人执行器)都可以使用元数据驱动的映射层解码或调整触觉数据。
该架构支持极低比特率(约 8kbps)的合成效果,这意味着触觉轨迹对有效载荷而言是一个非常轻量的附加功能。MPEG 目前正在扩展该框架,以涵盖交互式触觉、虚拟形象和基于对象的触摸交互,从而构建面向高级 XR 应用的触觉标准的下一阶段。

一个关键问题是体育迷是否愿意这样做。
吉约特尔表示,测试反馈积极,但鉴于这项技术尚属新兴,很难下结论。“我相信它最终会被人们使用,但现在还言之过早。问题在于设备。我们专注于为智能手机、游戏控制器,尤其是头戴式耳机提供触觉反馈的原因之一是,大多数人都拥有这些设备,并且使用起来很舒服。我们需要价格低廉的设备才能被市场接受。”
InterDigital 上的其他演示包括实时传输立体视频并结合触觉技术。视频将从围绕运动员的多摄像头阵列采集,并在体育场等 CG 环境中呈现。该应用程序可在 2D 显示器或 VR 头戴式设备上观看,教练和运动员可以播放、暂停和与 3D 视频进行交互,这对于训练非常有用。
身临其境
触觉是媒体中新兴的更广泛概念的一部分,旨在让观众沉浸在身临其境的感觉中。
InterDigital 媒体服务高级总监 Valérie Allié 表示: “想象一下,2032 年,你正准备观看自己国家的运动员在布里斯班奥运会上的精彩比赛。你或许会个性化视角,重播制胜进球,或者使用 AR 叠加技术与你最喜欢的运动员一起冲过终点线。这种提供高质量沉浸式内容的潜力,无论是通过丰富场馆体验的虚拟人物互动,还是实时 3D 沉浸式内容,以及通过触觉反馈感知这种体验的能力,都取决于先进的压缩能力和新的媒体格式。”
在未来,不仅摄像头能够捕捉内容,集成传感与通信 (ISAC) 技术也将使任何设备都能充当“雷达”,收集周围环境的信息。这将使应用程序提供商能够构建详细而精确的数字孪生或环境的实时复制品。
“利用从球场、教练席或该场馆任何其他区域周围的设备收集的传感数据,我们可以创建充满球员、观众和其他活动的体育场的动态数字复制品,”Allié 说道。
ISAC 将实现对人和物体的运动检测和跟踪。我们将拥有所有这些传感数据,并将其与高质量视频和环绕声音频相结合,从而丰富空间计算,并提供更令人兴奋的 XR 体验。
人工智能将帮助优化网络资源,提供高度个性化的内容。这可能包括沉浸式玩家追踪,该追踪功能与实时比赛信息叠加,提供玩家的详细数据,例如速度、耐力和站位。
据移动行业标准机构ETSI称,商用6G网络预计将于2030年投入使用。这意味着布里斯班运动会或将成为首个享受下一代网络优势的大型赛事。理论上,该网络的速度将比5G快100倍,数据速率高达每秒1TB,延迟以微秒为单位。届时,将精细的数字孪生与其实体孪生融合将成为可能。
节能流媒体
然而,向更多设备传输更多流媒体内容会损害环境。InterDigital 的研究发现,巴黎奥运会的流媒体播放消耗了约 1.25 太瓦时的电力,大致相当于 40 万户欧洲家庭一年的用电量。
其解决方案是像素值降低 (PVR),这是一种部署在源头(例如 CDN)内容上的算法,用于管理像素亮度,从而在不影响视觉质量的情况下降低任何显示器的能耗。据称,它可以节省高达 15% 的显示器功耗,而观众却无法察觉到亮度的细微降低。事实上,如果将 PVR 技术应用于 全球所有转播 2024 年奥运会的电视,那么节省的能源足以为 12,000 个欧洲家庭提供一年的电力。
PVR 是绿色 MPEG 标准规范(InterDigital 是其共同制定者)的一部分,计划于 2025 年底推出。
“人工智能驱动的资源管理可以提高能源效率并减少奥运会等大型体育赛事的碳足迹,”Allié 说。
新的视频编解码器正在研发中
InterDigital 也在积极争取将其技术纳入新的视频编解码器中。该编解码器本月由 ISO/ITU 正式发布,作为 MPEG 标准通用视频编码 (VVC) 的继任者。新的编解码器 H.267 旨在比 VVC 更高效地利用带宽,同时不增加解码器端的复杂性。这是芯片供应商想要避免的。
目前,我们正在向业界征集提案。这些提案将于2027年1月进行评估,之后将进入标准化阶段,并于2029年底最终确定。
InterDigital 声称,在测试中,其性能比 VVC 平均提高了 25%,有些测试显示其性能提高了一倍。
H.267 的目标是提高压缩效率、降低编码复杂性并增强可扩展性和对数据包丢失的恢复能力等功能。
InterDigital 高级首席科学家 Fabrice Le Léannec 表示:“这既是一个巨大的挑战,也是开发新创意、专利和算法的绝佳机会。特别是,我们正在探索如何将人工智能与传统视频压缩方法协同使用。”
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/62569.html