ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

ollama 0.14-rc2 版本今日发布,它引入了一项新功能:使用 ollama run --experimental 命令,即可在实验模式下运行代理循环,从而使 LLM 能够使用系统上的 bash 和网络搜索等工具。用户可以选择启用此功能,让 ollama/LLM 使用本地系统上的 bash,并且至少有一些安全措施。

ollama 0.14 的全新实验性代理循环允许 LLM 利用 Bash 等工具,这无疑会引起部分用户的不满。LLM 可以驱动 Bash 命令的执行,但为了确保 LLM 不会过度使用,它提供了一个交互式审批用户界面。此外,它还包含一个用于“安全”命令的自动允许列表,以及一个用于阻止潜在危险命令(例如sudorm -rf)的拒绝列表。不过,安全命令包括npm runpwdgit status等。实验性代理循环还会针对在项目目录之外的路径上运行的命令显示警告框。 

本周合并到 v0.14-rc2 的请求对此有更详细的说明:

添加 --experimental 标志以启用代理循环,允许 LLM 使用工具(bash、web_search),并需经用户交互式批准。

功能包括:

  • 内置工具:bash 命令执行、通过 Ollama API 进行网络搜索
  • 交互式批准界面,支持方向键导航
  • 安全命令自动允许列表(pwd、git status、npm run 等)
  • 危险模式禁止列表(rm -rf、sudo、凭据访问)
  • 基于前缀的已批准目录允许列表(cat src/ 允许 cat src/*)
  • 针对项目目录之外路径的命令发出警告框

除了支持 Bash 的实验性代理循环之外,ollama 0.14-rc2 还带来了改进的 Anthropic API 兼容性、更精确的集成 AMD 图形显存测量、支持高亮显示 Swift 源代码、对 ollama Linux 安装包使用 Zstd 压缩,以及通过 MLX 生成图像的实验性支持。

ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

根据此次合并,Ollama 中的图像生成支持仍处于早期阶段:

“此 PR 添加了对使用 Z-Image 模型生成图像的实验性支持,该模型由基于 MLX 的运行器驱动。目前尚未优化。未来版本中,显存使用率和生成速度都将得到显著提升。这只是一个迭代的开始。”

感兴趣的朋友可以通过 GitHub 下载 Ollama 0.14-rc2 。

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/64204.html

(0)

相关推荐

发表回复

登录后才能评论