2025年3月18日,ollama 开源软件的最新版本发布,它可以轻松运行 Llama 3、DeepSeek-R1、Gemma 3 和其他大型语言模型。ollama 软件可以轻松利用 llama.cpp 后端来运行各种 LLM,并方便地与其他桌面软件集成。
随着本次发布的 ollama 0.6.2,现在支持 AMD Strix Halo GPU,也就是Ryzen AI Max+笔记本电脑/SFF 台式机 SoC。Ryzen AI Max+ 看起来相当令人印象深刻,但不幸的是,我们还没有机会看到它在 Linux 下运行得如何。无论如何,很高兴看到 ollama 0.6.2 及时为 Ryzen AI Max+“Strix Halo”硬件提供支持。

ollama 0.6.2 的另一个重点是提供围绕其 Gemma 3 LLM 支持的一系列修复,包括现在使用 Gemma 3 支持多个图像。
有关 ollama 0.6.2 版本的更多详细信息和下载可通过GitHub获得。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/56742.html