英特尔开源人工智能工具包 OpenVINO 发布了 2026 年的首个主要版本。此次发布的 OpenVINO 2026.0 扩展了对大型语言模型 (LLM) 的支持,改进了对英特尔酷睿 Ultra 系统 NPU 的支持,并针对英特尔的 CPU/NPU/GPU 系列 AI 产品进行了多项其他增强。
OpenVINO 2026.0 新增了对 GPT-OSS-20B、MiniCPM-V-4_5-8B 和 MiniCPM-o-2.6 模型的 CPU 和 GPU 执行支持。令人略感意外的是,OpenVINO 直到现在才正式支持 OpenAI 的 GPT-OSS-20B 模型,但无论如何,它现在已包含在 OpenVINO 2026.0 中。

对于模型较小的 NPU,现在也支持 MiniCPM-o-2.6、Qwen2.5-1B-Instruct、Qwen3-Embedding-0.6B 和 Qwen-2.5-coder-0.5B。
同时,OpenVINO GenAI 新增了对词级时间戳的支持,以增强其转录和字幕功能的准确性,从而更好地与 OpenAI 和 FasterWhisper 的实现竞争。OpenVINO 2026.0 还支持针对 3D MatMuls 的 int4 数据感知权重压缩,以降低 MoE LLM 的内存/带宽需求并提高精度。此外,现在还支持 VLM 流水线,以增强 Agentic AI 框架与 OpenVINO GenAI 的集成;OpenVINO GenAI 代码现在还支持在 NPU 上进行推测性解码,以提高性能;以及其他各种改进。
OpenVINO 2026.0 版本还增强了对 Intel Core Ultra NPU 的支持,通过提供与 NPU 插件的编译器集成,支持提前编译和设备端编译,无需依赖 OEM 驱动程序更新。Intel 的目标是提供“一个单一的、可立即交付的软件包,以减少集成摩擦并加快价值实现速度”。您可以通过 GitHub 下载 OpenVINO 2026.0 版本并了解更多详细信息。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/64870.html