2025-02-06 14:49:43 +08:00
< p align = "center" >
< picture >
2025-02-13 18:44:17 +08:00
< source media = "(prefers-color-scheme: dark)" srcset = "https://raw.githubusercontent.com/vllm-project/vllm-ascend/main/docs/source/logos/vllm-ascend-logo-text-dark.png" >
< img alt = "vllm-ascend" src = "https://raw.githubusercontent.com/vllm-project/vllm-ascend/main/docs/source/logos/vllm-ascend-logo-text-light.png" width = 55% >
2025-02-06 14:49:43 +08:00
< / picture >
< / p >
< h3 align = "center" >
vLLM Ascend Plugin
< / h3 >
< p align = "center" >
2026-01-12 11:21:31 +08:00
| < a href = "https://www.hiascend.com/en/" >< b > 关于昇腾</ b ></ a > | < a href = "https://docs.vllm.ai/projects/ascend/en/latest/" >< b > 官方文档</ b ></ a > | < a href = "https://slack.vllm.ai" >< b > #sig -ascend</ b ></ a > | < a href = "https://discuss.vllm.ai/c/hardware-support/vllm-ascend-support" >< b > 用户论坛</ b ></ a > | < a href = "https://tinyurl.com/vllm-ascend-meeting" >< b > 社区例会</ b ></ a > |
2025-02-06 14:49:43 +08:00
< / p >
< p align = "center" >
< a href = "README.md" > < b > English< / b > < / a > | < a > < b > 中文< / b > < / a >
< / p >
---
*最新消息* 🔥
2026-02-06 10:29:15 +08:00
- [2026/02] 我们发布了新的正式版本 [v0.13.0 ](https://github.com/vllm-project/vllm-ascend/releases/tag/v0.13.0 )! 请按照[官方指南 ](https://docs.vllm.ai/projects/ascend/en/v0.13.0/ )开始在Ascend上部署vLLM Ascend Plugin。
2026-01-12 11:21:31 +08:00
- [2025/12] 我们发布了新的正式版本 [v0.11.0 ](https://github.com/vllm-project/vllm-ascend/releases/tag/v0.11.0 )! 请按照[官方指南 ](https://docs.vllm.ai/projects/ascend/en/v0.11.0/ )开始在Ascend上部署vLLM Ascend Plugin。
- [2025/09] 我们发布了新的正式版本 [v0.9.1 ](https://github.com/vllm-project/vllm-ascend/releases/tag/v0.9.1 )! 请按照[官方指南 ](https://docs.vllm.ai/projects/ascend/en/v0.9.1/tutorials/large_scale_ep.html )开始在Ascend上部署大型专家并行 (EP)。
2025-09-04 10:10:24 +08:00
- [2025/08] 我们与vLLM和腾讯合作举办了[vLLM北京Meetup ](https://mp.weixin.qq.com/s/7n8OYNrCC_I9SJaybHA_-Q ),!请在[这里 ](https://drive.google.com/drive/folders/1Pid6NSFLU43DZRi0EaTcPgXsAzDvbBqF )找到演讲材料。
2026-01-12 11:21:31 +08:00
- [2025/06] [用户案例 ](https://docs.vllm.ai/projects/ascend/en/latest/community/user_stories/index.html )现已上线! 展示了LLaMA-Factory/verl/TRL/GPUStack等用户案例, 展示了vLLM Ascend如何帮助昇腾用户在模型微调、评估、强化学习 (RL) 以及部署等场景中提升体验。
- [2025/06] [贡献者 ](https://docs.vllm.ai/projects/ascend/en/latest/community/contributors.html )页面现已上线!所有的贡献都值得被记录,感谢所有的贡献者。
2025-07-12 12:35:40 +08:00
- [2025/05] 我们发布了首个正式版本 [v0.7.3 ](https://github.com/vllm-project/vllm-ascend/releases/tag/v0.7.3 )!我们与 vLLM 社区合作发布了一篇博客文章,分享了我们的实践:[Introducing vLLM Hardware Plugin, Best Practice from Ascend NPU ](https://blog.vllm.ai/2025/05/12/hardware-plugin.html )。
2025-03-21 09:32:42 +08:00
- [2025/03] 我们和vLLM团队举办了[vLLM Beijing Meetup ](https://mp.weixin.qq.com/s/CGDuMoB301Uytnrkc2oyjg )! 你可以在[这里 ](https://drive.google.com/drive/folders/1Pid6NSFLU43DZRi0EaTcPgXsAzDvbBqF )找到演讲材料.
- [2025/02] vLLM社区正式创建了[vllm-project/vllm-ascend ](https://github.com/vllm-project/vllm-ascend )仓库, 让vLLM可以无缝运行在Ascend NPU。
2025-02-06 14:49:43 +08:00
- [2024/12] 我们正在与 vLLM 社区合作,以支持 [[RFC]: Hardware pluggable](https://github.com/vllm-project/vllm/issues/11162).
2026-01-15 09:06:01 +08:00
2025-02-06 14:49:43 +08:00
---
2026-01-15 09:06:01 +08:00
2025-02-06 14:49:43 +08:00
## 总览
2025-03-21 09:32:42 +08:00
vLLM 昇腾插件 (`vllm-ascend` ) 是一个由社区维护的让vLLM在Ascend NPU无缝运行的后端插件。
2025-02-06 14:49:43 +08:00
此插件是 vLLM 社区中支持昇腾后端的推荐方式。它遵循[[RFC]: Hardware pluggable](https://github.com/vllm-project/vllm/issues/11162)所述原则: 通过解耦的方式提供了vLLM对Ascend NPU的支持。
使用 vLLM 昇腾插件, 可以让类Transformer、混合专家(MOE)、嵌入、多模态等流行的大语言模型在 Ascend NPU 上无缝运行。
2025-02-11 12:00:27 +08:00
## 准备
2025-08-07 14:46:49 +08:00
- 硬件: Atlas 800I A2 Inference系列、Atlas A2 Training系列、Atlas 800I A3 Inference系列、Atlas A3 Training系列、Atlas 300I Duo( 实验性支持)
2025-03-21 15:43:43 +08:00
- 操作系统: Linux
2025-02-11 14:28:26 +08:00
- 软件:
2026-01-15 09:06:01 +08:00
- Python >= 3.10, < 3.12
2026-01-22 17:59:06 +08:00
- CANN == 8.5.0 (Ascend HDK 版本参考[这里 ](https://www.hiascend.com/document/detail/zh/canncommercial/83RC2/releasenote/releasenote_0000.html ))
- PyTorch == 2.9.0, torch-npu == 2.9.0
2026-01-15 09:06:01 +08:00
- vLLM (与vllm-ascend版本一致)
2025-02-11 12:00:27 +08:00
2025-02-06 14:49:43 +08:00
## 开始使用
2025-07-12 12:35:40 +08:00
推荐您使用以下版本快速开始使用:
| Version | Release type | Doc |
|------------|--------------|--------------------------------------|
2026-03-15 22:47:47 +08:00
|v0.17.0rc1| 最新RC版本 |请查看[快速开始 ](https://docs.vllm.ai/projects/ascend/en/latest/quick_start.html )和[安装指南 ](https://docs.vllm.ai/projects/ascend/en/latest/installation.html )了解更多|
2026-02-06 10:29:15 +08:00
|v0.13.0| 最新正式/稳定版本 |[快速开始 ](https://docs.vllm.ai/projects/ascend/en/v0.13.0/quick_start.html ) and [安装指南 ](https://docs.vllm.ai/projects/ascend/en/v0.13.0/installation.html )了解更多|
2025-02-06 14:49:43 +08:00
2025-03-21 15:43:43 +08:00
## 贡献
2026-01-15 09:06:01 +08:00
2026-01-12 11:21:31 +08:00
请参考 [CONTRIBUTING ]((https://docs.vllm.ai/projects/ascend/en/latest/developer_guide/contribution/index.html )) 文档了解更多关于开发环境搭建、功能测试以及 PR 提交规范的信息。
2025-03-21 15:43:43 +08:00
我们欢迎并重视任何形式的贡献与合作:
2026-01-15 09:06:01 +08:00
2025-03-21 15:43:43 +08:00
- 请通过[Issue ](https://github.com/vllm-project/vllm-ascend/issues )来告知我们您遇到的任何Bug。
- 请通过[用户论坛 ](https://discuss.vllm.ai/c/hardware-support/vllm-ascend-support )来交流使用问题和寻求帮助。
2025-02-17 14:13:28 +08:00
2025-03-21 15:43:43 +08:00
## 分支策略
2026-01-15 09:06:01 +08:00
2025-02-17 14:13:28 +08:00
vllm-ascend有主干分支和开发分支。
- **main**: 主干分支, 与vLLM的主干分支对应, 并通过昇腾CI持续进行质量看护。
2026-01-13 08:47:11 +08:00
- **releases/vX.Y.Z**: 开发分支, 随vLLM部分新版本发布而创建, 比如`releases/v0.13.0` 是vllm-asend针对vLLM `v0.13.0` 版本的开发分支。
2025-02-17 14:13:28 +08:00
2025-02-21 22:41:44 +08:00
下面是维护中的分支:
| 分支 | 状态 | 备注 |
|------------|------------|---------------------|
2026-03-15 22:47:47 +08:00
| main | Maintained | 基于vLLM main分支和vLLM最新版本( v0.17.0) CI看护 |
2025-02-25 11:00:58 +08:00
| v0.7.1-dev | Unmaintained | 只允许文档修复 |
2025-07-11 17:36:05 +08:00
| v0.7.3-dev | Maintained | 基于vLLM v0.7.3版本CI看护, 只允许Bug修复, 不会再发布新版本 |
| v0.9.1-dev | Maintained | 基于vLLM v0.9.1版本CI看护 |
2025-10-25 09:37:56 +08:00
| v0.11.0-dev | Maintained | 基于vLLM v0.11.0版本CI看护 |
2026-01-12 14:06:56 +08:00
| releases/v0.13.0 | Maintained | 基于vLLM v0.13.0版本CI看护 |
2026-01-12 11:21:31 +08:00
|rfc/feature-name| Maintained | 为协作创建的[特性分支 ](https://docs.vllm.ai/projects/ascend/en/latest/community/versioning_policy.html#feature-branches ) |
2025-02-21 22:41:44 +08:00
2026-01-12 11:21:31 +08:00
请参阅[版本策略 ](https://docs.vllm.ai/projects/ascend/en/latest/community/versioning_policy.html )了解更多详细信息。
2025-02-08 15:01:03 +08:00
2025-03-27 09:00:21 +08:00
## 社区例会
2026-01-15 09:06:01 +08:00
- vLLM Ascend 每周社区例会: < https: // tinyurl . com / vllm-ascend-meeting >
2025-03-27 09:00:21 +08:00
- 每周三下午, 15:00 - 16:00 (UTC+8, [查看您的时区 ](https://dateful.com/convert/gmt8?t=15 ))
2025-02-06 14:49:43 +08:00
## 许可证
2026-01-15 09:06:01 +08:00
2025-03-03 09:08:41 +08:00
Apache 许可证 2.0,如 [LICENSE ](./LICENSE ) 文件中所示。