生成式和对话式人工智能:梦想和噩梦的部署

生成式和对话式人工智能:梦想和噩梦的部署

近年来,大型语言模型 (LLM) 的用例显着增长——从提供基本客户服务到编写代码和脚本,甚至创建博客和歌曲等内容。

事实上,Cyara的数字高级总监 Christoph Börner解释了当他的乐队努力为新歌寻找素材时,他如何利用LLM来获取灵感。

“几秒钟之内,它就有了前奏、合唱、主歌和独奏,”他指出。

Börner 描述了他对输出如此出色的惊讶,并指出,只需一点点打磨和调整,他们就能将其纳入他们的设置列表中。

GPT、PaLM 和 Falcon 等LLM的此类功能已导致对话式 AI 的部署在众多行业和客户旅程的各个阶段迅速发展。

例如,在客户旅程构建的分析阶段,组织利用LLM及时生成相关的客户联系原因和查询是一个令人兴奋的新用例。

同时,在设计阶段,LLM应用程序有能力进行整个对话管理,包括对话流、词典,甚至“角色”——这允许机器人以特定的风格和方式与客户交互。

作为最后一个例子,考虑训练阶段。在那里,负责确保面向客户的机器人能够理解客户并适当响应客户的技术人员能够使用 LLM 为机器人自动生成新的、更合适的培训数据。

Cyara 是一家专注于支持组织确保和优化包括对话式 AI 渠道在内的整个客户体验 (CX) 环境的公司,处于多个此类用例的前沿。Börner注意到后者时说:

“我们在Cyara Botium中发布了一个 AI 数据向导,它利用 LLM 来发现训练不足的意图(用户在与聊天机器人对话的背景下的目标),然后只需按一下按钮即可生成新的训练短语。”

此类解决方案使品牌能够更快地将机器人推向市场,并且在许多梦想部署的情况下都配备了新的、华丽的功能。

已经到位的梦想部署示例

首先,英国 NatWest 银行利用生成式人工智能 (GenAI) 升级了其虚拟代理 “Cora”,因此它无需事先培训即可回答特定的客户问题。

该机器人现在被称为 Cora+,可插入可信、安全、特定于业务的知识源,以“自然的对话风格”发送响应。

同时,Cora+ 还引用了其每个回复的源材料,因此客户可以根据需要更深入地研究它。

接下来,考虑一下时尚零售商 GAP,它利用特定领域和行业的语言模型实现了类似的解决方案。

GAP 声称,在此过程中,自动解决率达到了 84%,高于 GenAI 增强之前的 50%,远远超出了 70% 的目标。

最后一个优秀的例子是Pelago,这是新加坡航空集团建立的一个旅行体验平台,它将 GenAI 分层到其现有的对话流之上。

因此,根据 Pelago 的技术合作伙伴 Yellow.ai 的说法,它的机器人可以根据不断变化的对话环境调整自己的反应,从而带来更加“个性化、接近人类的规划体验”。

有趣的是,在这个例子中——可能还有许多其他例子——Pelago 实际上利用了多个LLM来达到预期的结果。

Börner 认为,这种创新表明企业正在更多地尝试将LLM用于对话式AI项目。他继续:

“我们的大多数客户都在使用混合模型。这结合了 GPT 等基础模型,例如根据互联网数据进行训练,并根据真实的关键业务案例对其进行微调。”

这种思维减少了出现不准确答案甚至“幻觉”的可能性——这个术语在本文中指的是人工智能算法产生的输出不是基于训练数据或不遵循任何可识别或逻辑模式的输出。

然而,随着这些企业开始通过使用 GenAI 实现更大的梦想,需要考虑的还有更多。

留意噩梦场景

尽管生成式人工智能和对话式人工智能有很多成功案例,但房间里有一头大象:LLM生成的数据带来了企业必须准备和应对的重大新风险和挑战。

随着新的 GenAI 用例的出现,数据隐私、滥用、偏见、版权和网络安全问题是需要考虑的关键安全和声誉风险。

Valoir 首席执行官兼首席分析师丽贝卡·韦特曼 (Rebecca Wetteman)在最近的 CX 预测文章中指出了这一点,并预测人工智能将出现“惊人”的失败。

“缺乏成熟的技术、适当的政策和程序、培训和保障措施正在为AI事故制造一场完美风暴,其戏剧性远比幻觉更严重。

“当事情出现问题时,预计会出现公众失败、诉讼以及技术供应商和AI采用者的有效重组。”

以网络安全为例,说明事情可能会“出错”。虽然基础 GenAI 模型的供应商声称训练他们的LLM抵御社会工程攻击,但他们通常不会为用户提供必要的工具来彻底审核所应用的安全控制和措施。

为此,团队专注于向 Cyara 提供最佳 CX 来弥补差距,而这正是 Cyara 擅长的地方。

捕梦人 Cyara

为了防止所有数据隐私、误用、偏见、版权、幻觉和网络安全问题,Cyara 为其 Botium 平台引入了具体且有针对性的测试和优化功能,该平台已经在机器人供应商的整个对话式 AI 生命周期的每个阶段提供了价值从选择、培训和测试到部署和监控——事实证明它们很受欢迎。

正如Börner 补充道:

“滥用测试是我们几乎所有客户的要求,这表明了滥用测试在当今商业环境中的重要性”。

事实上,Cyara 一直在努力跟上 LLM 增强型人工智能使用激增的步伐,现在已经远远领先——尤其是在最近收购了 QBox之后。

QBox 提供了无与伦比的可见性,可以了解对话式 AI 模型的更改或添加(包括 GenAI 增强)在训练及其他方面的影响。

此外,Cyara 不仅与企业合作,确保他们的对话式 AI 和更广泛的联络中心部署……它还充当他们的 CX 转型合作伙伴,在整个旅程的每一步提供指导和支持。

因此,Cyara 使客户能够负责任地、更有信心地将生成式人工智能引入他们的联络中心。

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论