从提示工程到意图工程:人机交互通信的演变

过去几年间,提示工程已成为 AI 时代最重要的技能之一。围绕它开设了课程,为此创造了职位名称,甚至形成了专门的社群,人们在此分享如何构造完美句子以让语言模型精准执行指令的技巧。提示工程之所以风靡,关键原因在于:AI 虽强大却过于字面化。你必须先学会它的语言,它才能为你所用。这种逻辑在当时合乎情理,如今却开始失效。

随着 AI 模型能力提升,沟通的重心正在转移。问题不再仅仅是“如何正确表述”,而是“如何确保AI真正理解我的目标”。这是更深层次的命题,也预示着一个名为“意图工程”的新领域正在崛起。

从提示工程到意图工程:人机交互通信的演变

提示工程的本质

要理解我们未来的发展方向,先厘清提示工程的本质至关重要。早期的语言模型功能强大,但也很脆弱。它们对特定模式反应良好,但对模糊模式反应不佳。因此,用户只能学习这些模式。他们发现,要求模型“逐步思考”可以提高推理能力。他们发现,提供示例可以使输出更加一致。他们还发现,为模型分配角色,例如“扮演专家级软件工程师”,可以改变其回复的语气和质量。虽然这些见解确实提高了结果,但它们要求人类适应机器。人们学习的是一种符合模型架构的说话方式,而不是他们自身自然的思维方式。

智能体之间良好的沟通并非如此运作。当你向一位经验丰富的同事解释问题时,你不会首先考虑如何措辞才能最有效地激活他们的神经通路。你会解释情况。他们会理解上下文。如有需要,他们会提出澄清问题。然后,他们会朝着你真正想要的方向努力。尽管快速响应的工程技术很有价值,但它始终是在弥补一个差距,而更优秀的 AI 最终应该能够弥补这个差距。

促使提示工程成为必要的局限性

提示工程之所以变得如此重要,不仅在于模型本身存在缺陷,更在于这些模型缺乏对用户的真实认知。它们只是处理文本并输出文本,无法持续理解你的身份、你试图构建的目标,或是在你特定语境中“优质”的定义。

这导致了诡异现象:同一个问题,仅因措辞差异便可能得到天差地别的结果。有时耗费二十分钟打磨提示词,却能突然解锁远超以往的实用回复。提示不仅仅是一个输入框,它更是一把钥匙,找到正确的钥匙需要技巧、耐心,有时还需要一点运气。

这也意味着输出质量往往更取决于提示技巧而非专业知识储备。一位精通提示工程的医生,能从模型中提取出比知识渊博但不懂模式的同行更优质的医学推理。这种价值倒置现象令人费解,暗示系统正在优化错误的目标。

意图工程改变了什么

意图工程旨在处理另一套基础假设。它不再关注如何措辞才能让模型良好响应,而是探究如何在各个层面清晰传达真实需求,从而使模型能够自主推理得出正确结果。

这涉及到一些工程技术本身无法应对的问题。它包括为 AI 系统提供足够的背景信息,使其了解你的目标、限制和标准,从而在无需你详细说明每一步的情况下做出正确的决策。它包括建立共识,而不是发布精确的指令。它还包括构建这样的系统:AI 可以提出正确的问题,而不是等待被告知正确的答案。

我们已经在实践中看到了这一点。现代 AI 系统越来越支持持久记忆、用户画像和持续的上下文信息。当模型知道你是一位正在开发受特定监管限制的医疗保健应用程序的产品经理时,你的请求会自动承载更丰富的含义。你无需每次都从头开始重建上下文。模型已经理解了你正在处理的上下文。

这是一个根本性的转变。提示工程将每次交互视为孤立的事件,而意图工程则将沟通视为累积的过程。该模型不再仅仅处理单一的输入,而是跟踪关于你想要达成的目标及其原因的持续对话。

更丰富的背景和推理的作用

意图工程的另一个维度在于现代模型如何处理歧义。如今,训练有素的模型不仅会根据句型匹配最有可能的句子结尾,还会推断你可能想要表达的意思,标记出它所做的假设,并且在许多情况下,会在继续执行之前请求澄清。

这一点至关重要,因为人类沟通本身就具有歧义性。当有人问“你能帮我写点东西给我老板吗?”时,他们可能指的是绩效考核、道歉邮件、项目提案或辞职信。一个针对快速响应优化的系统会尝试从字里行间推断出意图。而一个针对意图优化的系统则会识别出这种歧义,并智能地处理它,要么直接询问,要么生成一个能够涵盖多种可能解读的内容。

测试时推理能力,即模型在回答问题前进行思考的能力,在这里也发挥着作用。能够先推理后回答的模型更擅长发现字面请求与潜在意图相冲突的情况。它们可以注意到你请求的是 X,但你真正需要的可能是 Y,并且它们会指出这一点,而不是默默地满足一个实际上无法实现你目标的请求。

一种新型技能

这种演变并非使人类沟通技巧变得无关紧要,而是改变了这些技巧的形式。在意图工程时代脱颖而出的人,并非那些熟记最佳提示模板的人,而是那些能够清晰阐述自身目标、沟通关键限制条件和背景信息,并能识别 AI 的输出何时服务于真正目标而非仅仅服务于既定目标的人。

从很多方面来看,这些都是由来已久的技能。它们是优秀管理者、优秀教师或优秀合作者必备的技能。能够清晰地传达意图,不仅解释你想要什么,还要解释你为什么想要,这始终是有效沟通的标志。而如今的新变化在于,AI 系统已经足够复杂,能够对这类沟通做出实际反应。

这其中蕴含着一个有趣的启示:随着 AI 的进步,人机交互将不再像编程,而更像是协作。你不再需要精心设计完美的输入,而需要成为一名清晰且目标明确的沟通者。

这对构建 AI 系统意味着什么

这种转变也对 AI 系统的设计方式产生了影响。提示工程范式鼓励构建对精确输入高度响应的系统。意图工程范式则鼓励构建擅长推理、提问、适应和坚持的系统。

这意味着要投资于能够让模型跨会话携带有意义上下文的内存架构。这意味着要构建能够识别何时信息不足并能及时发出信号的模型。这意味着要创建用户能够表达目标而非命令的界面,让AI像合作伙伴一样,共同探索实现这些目标的方法。

这也意味着需要重新思考评估方式。目前,我们通常衡量模型执行特定指令的准确程度。但在意图工程的背景下,更好的衡量标准是模型在多大程度上服务于这些指令背后的根本目的,即便指令本身不够精确。

结论

过去,指令式工程将 AI 视为功能强大但略显愚钝的工具,需要小心操控。而意图式工程则将 AI 视为更接近智能协作者的伙伴,它能够理解语境、推理目标并处理模糊情况。这种转变反映了我们对 AI 用途的认知变化。AI 不再是执行指令的机器,而是一个能够帮助我们实现真正目标的系统。这一转变预示着,未来人机交互的关键不再在于掌握巧妙的措辞,而在于清晰地阐明目标、限制和目的,从而使 AI 能够协作而非仅仅服从指令。

作者:Tehseen Zia博士,伊斯兰堡COMSATS大学的终身副教授,拥有奥地利维也纳科技大学人工智能博士学位。
原文:https://www.unite.ai/from-prompt-engineering-to-intent-engineering-the-evolution-of-human-ai-communication/

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/65065.html

(0)

相关推荐

发表回复

登录后才能评论