在企业中部署大型语言模型的机会和限制

生成式人工智能风靡一时。在过去的几个月里,我们看到了现成的大型语言和开源模型的爆炸式增长,例如Meta的Llama 2、OpenAI的GPT-4、Anthropic的Claude 2以及ChatGPT代码解释器和GitHub Copilot等工具 。该生态系统正在爆炸式增长,并正在迅速改变各个行业。

客户服务和支持是取得巨大收益的领域之一。通过利用大语言模型,组织可以比以往更快、更个性化地响应客户的询问。达美航空的“Ask Delta”聊天机器人就是一个例子,它使用生成式人工智能来帮助客户查找航班、办理登机手续并跟踪他们的行李,这反过来又使呼叫中心的工作量减少了20%。

在营销和销售方面,许多组织正在使用ChatGPT和其他生成式人工智能解决方案来生成营销文案并获得潜在客户。在人力资源领域,许多首席人力资源官现在使用大型语言模型进行招聘、绩效管理和辅导。

我们不要忘记生成式人工智能在软件开发领域所取得的进步。GitHub Copilot和Amazon CodeWhisperer等解决方案使开发人员能够更快、更准确地生成代码,从而减少日常任务所需的时间和精力。

我可以继续说下去,但总结一下:每个企业都想利用生成式人工智能,但实际应用它比看起来更困难和费力。

但是,尽管现成的模型正在帮助许多公司开始使用生成式人工智能,但将其扩展到企业用途却很困难。它需要专业人才、管理和部署模型的新技术堆栈、应对不断上升的计算成本的充足预算以及确保安全性的护栏。

好处:企业不能袖手旁观

过去几个月我们所看到的进展令人印象深刻。虽然自然语言理解和处理并不是什么新鲜事,但现在更容易实现。更不用说模型在深度和能力上已经从0到60了。

但是,对于许多首席信息官来说,其价值可能不会立即显现出来。去年,许多组织都在削减预算,盲目投资并不在他们的议程中。但这不是袖手旁观的局。人工智能有能力以难以想象的方式塑造您的业务。以下是好处的快速列表:

  • 即时访问世界知识:这些模型根据所有公开可用的数据进行训练,使整个人类知识可以通过API或聊天提示轻松访问。
  • 人类水平的语言理解:这些模型具有理解和生成语言的能力,能够实现涉及语言理解和写作的各种企业工作流程的部分或全部自动化。
  • 代码解释和生成:GPT-4代码解释器等高级模型可以理解并生成代码,从而可以与企业中的传统软件系统无缝交互。
  • 国际支持:这些模型具有20多种开箱即用的语言支持,可以轻松实现全球覆盖和多语言应用程序。

目前的局限性

像GPT-4这样的大型语言模型(LLM)基于神经网络,本质上是概率性的。这意味着,给定相同的输入,由于模型架构或训练过程中的随机性,它们每次可能会产生略有不同的输出。这就是我们说大语言模型“不确定性”的意思。

由于以下几个原因,这种非确定性行为可能会成为构建企业级业务应用程序的限制:

  • 一致性:企业通常需要可靠且一致的结果,尤其是在处理金融、医疗保健或法律事务等敏感领域时。大语言模型的不确定性可能会导致不一致,这在这些情况下可能会出现问题。
  • 可审计性:在许多行业中,能够审计和追溯自动化系统做出的决策非常重要。如果大语言模型做出决定或建议,但后来无法重现相同的输出,那么审计和问责就会变得困难。
  • 可预测性:在许多业务场景中,能够根据某些输入预测系统的行为至关重要。对于非确定性模型,更难保证具体的输出,这可能使规划和战略制定更具挑战性。
  • 测试:测试是任何软件开发过程的重要组成部分,包括业务应用程序的开发。大语言模型的不确定性使得编写和运行产生可靠、可重复结果的测试变得困难。
  • 风险管理:鉴于大语言模型的概率性质,其产出总是存在一定程度的不确定性。这可能会增加业务应用程序的风险,特别是在敏感领域。

尽管存在这些挑战,仍有一些方法可以管理大语言模型的不确定性,例如使用集成方法、应用后处理规则或设置随机性种子以获得可重复的结果。然而,这些方法都有其自身的权衡,并不能完全消除问题。

作者:Alex Kvamme
译者:老马
来源:The new stack

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论