超越语言障碍:实时翻译如何改变视频会议

想象一下:你正在与东京、圣保罗和柏林的团队进行视频通话。你说:“我们下周再来吧。” 但你的巴西同事听到的却是:“我们下周轮流开会吧。”

欢迎来到视频会议实时翻译的新世界,人工智能精通 100 多种语言,但仍然不知道你在讽刺什么。

虽然 Zoom、Teams 和 Google Meet 等平台已经成为视频会议的王者,但如何在这些会议中打破语言和人际互动障碍的竞争现在已经开始。

超越语言障碍:实时翻译如何改变视频会议

承诺……与现实

目前已有多种服务可提供数百种语言的实时字幕和标题、实时翻译的聊天信息以及人工智能驱动的语音翻译。

然而,尽管这些令人印象深刻的进步在 10 年前几乎是不可想象的,但目前的新一代翻译服务也存在着明显的缺陷:

  • 准确性差异很大。虽然语音到文本的技术已经非常成熟,尤其是在英语、西班牙语和普通话等高资源语言方面,但在其他语言方面,质量可能会下降。
  • 在嘈杂或低质量的音频环境中操作有困难。
  • 难以匹配带有重口音或重叠语音的对话。
  • 难以解释特定行业的行话、缩略语或复杂术语。

大多数实时翻译工具只提供字面意思,但缺乏感性智能,无法捕捉讽刺、幽默或文化微妙之处。德语中的一个笑话可能会被翻译成平淡笨拙的英语,而葡萄牙语中沮丧的语气可能会被翻译成中性的。

这可能会导致误解或削弱国际同事之间的信任。

虽然边缘计算和 5G 等低延迟网络正在取得进展,但一些平台在将语音转换成另一种语言时仍会产生延迟。这阻碍了自然对话,使讨论感觉机械。

玩家谁领先?

  • Zoom 通过 Kudo 和 Interprefy 等合作伙伴,利用人工智能和人工翻译功能集成了十几种语言的实时翻译。
  • Microsoft Teams 提供实时字幕和翻译,并由 Azure 认知服务提供支持。
  • Google Meet 提供英语、西班牙语、法语等语言的实时字幕,并通过 AI 更新推出扩展的语言支持。

初创企业和科技巨头也在尝试人工智能头像、情感感知语音引擎和自适应音调翻译——这是使多语言交流更加人性化的下一个前沿。

上周,Google Beam 终于正式推出,其目标是为视频会议体验带来人性化体验。

该项目前身为 Starline 项目,其专注于完善人机交互的细节(以及即将发布的实时翻译功能),可能会改变游戏规则。

Google Beam 总经理 Andrew Nartker 表示,其 AI 视频模型与光场显示器的结合创造了“一种深刻的维度感和深度感,让你能够进行眼神交流,解读微妙的暗示,并建立理解和信任,就像面对面一样。”

下一步:迈向情商翻译

虽然视频会议中的实时翻译已经取得了长足的进步,但它还不能完全取代人类流畅的理解。

视频会议实时翻译的未来不仅在于理解所说的内容,还在于理解所说的方式。

OpenAI 和 DeepL 等公司也在探索这种深度和“维度”,他们正在开发先进的大型语言模型,这种模型可以根据礼貌和文化规范调整语气,检测和反映情感细微差别,根据上下文翻译成语和幽默,并个性化语音翻译,使之更像说话者的真实声音。

市场上的翻译工具足够可靠,可用于日常业务使用、内部会议、项目签到和非正式电话,但对于关键对话、敏感话题或具有法律约束力的讨论,人工翻译仍然至关重要。

随着人工智能变得越来越智能,情感意识也越来越强,我们很快就能与地球另一端的人进行视频通话,并且感觉就像在各个方面都真正说着同一种语言。

在此之前,一点耐心(或许还有一位双语同事)仍然会大有帮助。

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/58482.html

(0)

相关推荐

发表回复

登录后才能评论