为什么小型语言模型(SLM)有望重新定义 Agentic AI:效率、成本和实际部署

LLM 因其类似人类的能力和对话技巧而广受推崇。然而,随着 Agentic AI 系统的快速发展,LLM 越来越多地被用于执行重复性、专业化的任务。这种转变势头强劲——超过一半的大型 IT 公司目前都在使用人工智能代理,并投入了大量资金,市场也预计会持续增长。这些代理依靠 LLM 进行决策、规划和任务执行,通常通过集中式云 API 进行。对 LLM 基础设施的大规模投资反映出人们对该模型将继续成为人工智能未来基石的信心。 

SLM:效率、适用性以及反对过度依赖 LLM 的理由

来自 NVIDIA 和佐治亚理工学院的研究人员认为,小型语言模型 (SLM) 不仅足以胜任许多代理任务,而且比大型模型更高效、更经济。他们认为,SLM 更适合大多数代理操作的重复性和简单性。虽然大型模型对于更通用的对话需求仍然至关重要,但他们建议根据任务复杂度使用混合模型。他们对当前代理系统对 LLM 的依赖提出了挑战,并提供了一个从 LLM 过渡到 SLM 的框架。他们邀请大家进行公开讨论,以鼓励更具资源意识的 AI 部署。 

为什么 SLM 足以满足代理操作的需求

研究人员认为,SLM 不仅能够处理 AI 代理中的大多数任务,而且比 LLM 更实用、更经济。他们将 SLM 定义为能够在消费设备上高效运行的模型,并强调其优势——更低的延迟、更低的能耗以及更易于定制。由于许多代理任务具有重复性和针对性,SLM 通常足以胜任,甚至更受欢迎。本文建议转向模块化代理系统,默认使用 SLM,仅在必要时使用 LLM,从而促进一种更可持续、更灵活、更具包容性的智能系统构建方法。 

支持 LLM 主导地位的论据

一些人认为,由于LLM拥有更出色的扩展能力和语义能力,它在通用语言任务中的表现将始终优于小型模型(SLM)。另一些人则认为,由于规模经济,集中式LLM推理更具成本效益。还有人认为,LLM占据主导地位仅仅是因为它们起步较早,吸引了业界的大多数关注。然而,这项研究反驳道,SLM适应性强、运行成本更低,并且能够有效地处理代理系统中定义明确的子任务。然而,SLM的更广泛应用仍面临诸多障碍,包括现有的基础设施投资、对LLM基准的评估偏见以及公众认知度较低。 

从 LLM 过渡到 SLM 的框架

为了在基于代理的系统中顺利地从LLM迁移到规模更小、更专业的SLM,首先要安全地收集使用数据,同时确保隐私。接下来,对数据进行清理和过滤,以删除敏感细节。使用聚类技术,将常见任务分组,以确定SLM可以接管哪些任务。根据任务需求,选择合适的SLM,并使用定制的数据集进行微调,通常会使用LoRA等高效技术。在某些情况下,LLM的输出会指导SLM的训练。这并非一次性过程——模型应该定期更新和完善,以适应不断变化的用户交互和任务。 

为什么小型语言模型(SLM)有望重新定义 Agentic AI:效率、成本和实际部署

结论:迈向可持续、资源高效的 Agentic AI

总而言之,研究人员认为,从大型模型转向 SLM 可以显著提高 Agentic AI 系统的效率和可持续性,尤其是在处理重复性强且目标明确的任务时。他们认为,与通用的LLM相比,SLM通常功能强大、更具成本效益,也更适合这类任务。在需要更广泛对话能力的情况下,建议混合使用多种模型。为了鼓励进步和开放的对话,他们欢迎大家对其立场提出反馈和贡献,并承诺公开分享他们的意见。目标是激励未来更周全、更高效地使用AI技术。

论文:https://arxiv.org/abs/2506.02153

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/58991.html

(0)

相关推荐

发表回复

登录后才能评论