多年来,企业一直专注于部署,如今却面临着在真实客户环境中运行 AI 系统的复杂性。可观测性、测试和治理正逐渐成为确保 AI 系统可靠运行、并符合业务及合规要求的关键能力。
将模型投入生产已不再是里程碑。确保其能可靠地推动客户取得成功成果并契合业务目标,才是真正的关键。
企业正加大对可观测性、实时监控和反馈循环的投入,以了解系统在不同场景下的运行表现。这一转变反映出业界已普遍认识到:AI 的价值并非在发布之时实现,而是通过持续的调优、控制和结果优化,随着时间的推移逐步体现。

Quantum Metric 的联络中心负责人 Michelle Brigman 表示,AI 领域的讨论已经发生了显著变化。
“一两年前,压力主要集中在部署上线,如让机器人上线,实现呼叫类型的自动化,并展示成本节约,”她说。“现在,更棘手的问题出现了:它真的有效吗?对哪些客户有效?在什么条件下有效?如果无效,我该如何判断?”
Brigman 解释说,这些问题不再关乎是否采用技术,而是关乎控制权。
“客户体验到的不是你的 AI 战略,而是单次交互。当这种交互产生一个自信满满却错误的答案,或是陷入无法逃脱的循环时,他们不会责怪技术,而是责怪品牌,”她说。
Brigman 指出,这正是可观测性和治理成为客户体验(CX)问题而非单纯 IT 问题的原因,并强调大多数组织尚未跟上这一趋势。
“AI 在实际客户环境中的表现责任,往往仍处于 IT、运营、数字化和联络中心之间的责任真空地带,”她说道。
在她看来,必须发生的转变是全员共同参与的:每个涉及客户旅程的职能部门都应参与定义“生产就绪”的含义,并要求具备可视性和控制力,以持续验证其有效性,而不仅仅是在上线时。
大规模部署 AI
思科工程与客户体验高级副总裁 Bhaskar Jayakrishnan 指出,当前的趋势已从单纯部署 AI 转向大规模运营。
“随着 AI 日益融入实时客户互动,可靠性和信任度与功能能力同样重要,”他表示,“在现实世界中动态变化的客户环境中运行人工智能,需要新的管理规范。”
这些方法包括可观测性、严格的测试以及清晰的治理机制,以便了解系统在生产环境中的运行状况。
Jayakrishnan 警告说,AI 应用程序如果没有一整套嵌入式的可观测性和安全性就无法运行,尤其是在它们作为关键任务基础设施运行时。
他表示:“企业需要将可见性、问责制和人工监督融入 AI 系统,以确保其能够继续实现业务目标和监管要求。”
如果运用得当,这些防护措施不会限制创新;它们能够使 AI 以负责任和自信的方式扩展规模。
利用嵌入式 AI 进行操作
Hexaware 执行副总裁兼全球业务流程服务主管 Suresh Kumar Bennet 表示,这种转变与其说是增加新的角色,不如说是重新定义运营方式,并将 AI 嵌入核心。
虽然 AI 运营主管和治理经理等角色正在涌现,但数据、技术和运营团队对 AI 在实际环境中的表现负有更大的共同责任。
“这包括对结果负责,确保系统不仅能正确响应,而且能真正解决客户需求,”他说。
他还补充说,这需要 AI 和人类代理人之间更紧密的协调,有明确的升级路径、人机交互控制和持续的反馈循环。
“总的来说,职责正在从部署 AI 转变为积极管理和优化 AI 和人类系统之间的工作方式,问责制与结果挂钩,而不是与部署挂钩,”Bennet 说。
选择绩效指标
Brigman 表示,在选择能够最好地表明 AI 系统在真实客户环境中可靠运行的指标时,她首先考虑的是失败需求:即客户联系量中因第一次尝试失败而放弃的百分比。
“如果随着 AI 处理的客户联系越来越多,这个数字持续上升,那么你虽然解决了表面问题,却加剧了更深层次的问题,”她说。
她补充说,针对同一问题的重复联系是另一个需要密切关注的关键方面。
“然后是旅程完成情况,客户是否完成了他们此行的目的,”Brigman 说。“即使互动非常顺利,客户仍然可能会放弃,而信任正是在这里逐渐丧失的。”
Bennet 表示,最有效的指标是将系统性能与客户结果直接联系起来,而不仅仅是与交互质量联系起来。
他表示,联络中心应优先考虑问题解决率,包括 AI 独立解决和 AI 辅助解决的结果,以及解决问题所需的时间,以衡量端到端的有效性。
“遏制和升级速度仍然很重要,但只有在客户需求是否真正得到解决以及向人工客服过渡处理得如何的情况下才重要,”他说。
还应专门针对 AI 驱动的交互来衡量客户满意度或努力程度等体验指标,以了解其真正的影响。
他表示:“这些指标共同反映了 AI 系统在多大程度上能够可靠地满足客户需求并提高整体性能。”
治理、合规和测试
Bennet 表示,公司治理正变得越来越融入日常运营,而不是作为一个单独的职能部门来处理。
他说:“企业需要清楚地了解 AI 系统如何做出决策,尤其是在面向客户的场景中,准确性、公平性和透明度至关重要。”
与此同时,他们必须确保这些系统始终满足监管要求和不断变化的客户对信任和体验的期望。
这促使监管采取更加系统化和积极主动的方式,使风险管理、合规框架和实时运营绩效更加紧密地结合起来,而不是依赖定期审查或静态政策。
Bennet 表示,测试必须成为一种持续的纪律,而不是部署前的检查点。
“企业应该将结构化验证与对实时交互的持续监控相结合,以发现差距并改进性能,”他说。
这包括使用真实世界的数据对系统进行压力测试,验证极端情况,并确保系统行为在一段时间内保持一致。
“采取这种方法可以让组织以可控的方式发展 AI 系统,同时保持与客户体验期望的一致性,并将意外风险降至最低,”Bennet 说。
作者:Nathan Eddy
原文:https://www.nojitter.com/contact-centers/the-next-phase-of-contact-center-ai-is-about-control-not-adoption
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/66066.html