摩尔线程率先完成YOLO26深度适配,以全栈能力加速端到端视觉AI部署

近日,全球领先的视觉AI框架Ultralytics正式开源新一代YOLO26模型。摩尔线程凭借敏捷的生态响应能力与深厚的技术积累,率先完成对YOLO26的原生支持与深度优化,成为国内首批全面适配该模型的计算平台之一。基于对YOLO26的全栈支持与系统优化,摩尔线程可为边缘计算、智能制造、农业遥感、机器人等多元场景提供更高效的视觉AI解决方案。

YOLO26 引入原生端到端推理模式,模型可直接输出最终预测结果,无需依赖NMS(非极大值抑制)作为后处理步骤,降低了推理延迟、简化了部署流程,还减少了集成错误的风险,使 YOLO26 特别适合实时部署和边缘部署场景。该模型采用统一的模型家族设计,支持图像分类、目标检测、实例分割、姿态估计、旋转框(OBB)检测以及目标跟踪等多种计算机视觉任务,所有任务在同一框架下支持训练、验证、推理与模型导出。

为充分发挥YOLO26的技术特性与优势,摩尔线程实现了从硬件到软件的全栈支持:

  • 训推一体全功能智算卡MTT S5000/S4000:支持多精度推理,单卡可实现多路高清视频实时推理分析;
  • AI 计算模组MTT E300:支持多路YOLO26实时推理,适用于端侧机器视觉推理场景;
  • MUSA推理引擎:原生支持YOLO26,在检测、分割、姿态、旋转框等场景实现无NMS端到端推理,推理延迟降低30%以上;
  • 模型转换工具链:兼容ONNX等主流格式,并依托MUSA SDK全栈软件能力,通过torch.musa实现与PyTorch框架的无缝对接,大幅降低开发者迁移成本。

上述软硬件适配与优化已完成集成,开发者基于摩尔线程全栈AI平台可快速完成YOLO26模型的适配与部署。YOLO26的多任务能力与边缘优化设计,结合摩尔线程高性能全功能GPU,共同构建了无需复杂后处理、“开箱即用”的 AI 应用新范式,为计算机视觉类AI应用的规模化落地提供了有力支持。

【快速上手指南】

请参考以下操作指引在摩尔线程全功能GPU上部署YOLO26

1、在MTT S5000上部署YOLO26

摩尔线程率先完成YOLO26深度适配,以全栈能力加速端到端视觉AI部署

环境配置

  • 在MUSA环境上安装 torch_musa:https://github.com/MooreThreads/torch_musa 
  • 安装 torchada:https://github.com/MooreThreads/torchada 
  • 安装官方ultralytics:https://github.com/ultralytics/ultralytics 

运行示例

  • 参考 ultralytics 官方文档配置环境
  • 执行以下基础示例代码开始使用
摩尔线程率先完成YOLO26深度适配,以全栈能力加速端到端视觉AI部署

2、云端快速体验

为方便暂无本地摩尔线程GPU环境的开发者,我们已在AutoDL平台发布预配置的YOLO26 MUSA镜像。开发者可一键启动,快速进行训练、验证与推理。

获取镜像和操作指南请访问:https://www.autodl.art/i/ultralytics/ultralytics/yolo26-musa

通过上述工具与资源,开发者可快速在摩尔线程平台上体验YOLO26的端到端无NMS推理能力,加速视觉AI应用落地。

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论