Ray AI 引擎被纳入 PyTorch 基金会,用于统一开放 AI 计算堆栈

PyTorch 大会上宣布 Ray AI 计算引擎即将成为 PyTorch 基金会托管的项目。

Ray AI 计算引擎由 Anyscale 发起,旨在将 AI 工作负载从笔记本电脑扩展到云端数百个节点或 GPU。Ray 专注于并行化 Python 并处理任何 AI 或机器学习工作负载,同时不仅与 PyTorch 兼容,还能与其他流行软件(如 TensorFlow、HuggingFace、Sci-Kit、XGBoost 以及其他库/集成)兼容。

Ray AI 引擎被纳入 PyTorch 基金会,用于统一开放 AI 计算堆栈

Ray 将与 PyTorch 和 vLLM 一起加入 PyTorch 基金会,旨在提供统一的开源 AI 计算堆栈。

Ray 通过提供一个执行分布式工作负载的计算框架,满足了现代人工智能独特的计算需求,这些工作负载包括:

  • 多模态数据处理:高效并行处理海量多样化数据集(文本、图像、音频、视频)。
  • 预训练和后调优:将 PyTorch 和其他机器学习框架扩展到数千个 GPU,以执行预训练和后训练任务。
  • 分布式推理:以高吞吐量和低延迟为生产环境中的模型提供服务,协调跨集群的动态异构工作负载。

通过将 Ray 贡献给 PyTorch 基金会,Anyscale 强化了其对 Ray 和开源人工智能的开放治理和长期可持续发展的承诺。

有关 Ray 成为 PyTorch 基金会托管项目的更多详情,请参阅Linux 基金会新闻稿

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/62400.html

(0)

相关推荐

发表回复

登录后才能评论