英特尔用于优化和部署其全系列硬件平台上的 AI 推理的 OpenVINO 工具包发布了最新的季度功能更新。此次更新正式支持英特尔最新的硬件,并为这款优秀的英特尔开源软件项目启用了更多大语言模型和其他新的 AI 创新功能。
OpenVINO 2026.1 继续添加更多 GenAI 功能。OpenVINO 2026.1 现在支持 CPU 和 GPU 执行的 Qwen3 VL 模型。CPU 端还新增了对 GPT-OSS 120B 的支持。

OpenVINO 2026.1 的预览功能之一是为 Llama.cpp 添加 OpenVINO 后端。上游的 Llama.cpp 已经拥有支持 Intel GPU 等的 SYCL 后端,而 OpenVINO 后端也正在开发中。这个适用于 Llama.cpp 的 OpenVINO 后端将实现跨 Intel CPU、GPU 和 NPU 的优化推理。这是一个令人兴奋的新增功能,一旦该后端成熟,Llama.cpp 将能够支持 Intel Core Ultra NPU 等更多平台。
“预览:隆重推出 llama.cpp 的 OpenVINO 后端,它可在 Intel CPU、GPU 和 NPU 上实现优化推理。已在 Llama-3.2-1B-Instruct-GGUF、Phi-3-mini-4k-instruct-gguf、Qwen2.5-1.5B-Instruct-GGUF 和 Mistral-7B-Instruct-v0.3 等 GGUF 模型上验证。”
OpenVINO 2026.1 正式支持 Wildcat Lake SoC 以及最近发布的Intel Arc Pro B70 32GB 显卡。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/66021.html