Files
enginex-hygon-vllm/README.md

24 lines
726 B
Markdown
Raw Normal View History

2025-11-04 16:55:56 +08:00
# enginex-hygon-vllm
2025-11-19 12:39:34 +08:00
运行于【海光 DCU】系列算力卡的【文本生成】引擎基于 vLLM 引擎进行架构特别适配优化,支持 Qwen、DeepSeek、Llama 等最新开源模型。
因具体模型之间的启动方式和具体镜像会有略微差别,请详细查看 `/enginex` 目录下各个支持模型的启动测试方式。
2025-11-05 15:28:20 +08:00
## 可支持模型列表
可在项目文件夹 `/enginex` 下查看具体可支持模型文件的运行方式。
支持模型列表:
2025-11-07 11:46:29 +08:00
- jina-embeddings-v3
2025-11-19 12:12:11 +08:00
- DeepSeek-R1_ollama
- DeepSeek-R1_pytorch
- DeepSeek-R1-Distill
2025-11-07 18:26:17 +08:00
- ChatGLM3-6B
2025-11-10 10:04:15 +08:00
- QwQ-32B
2025-11-19 12:12:11 +08:00
- DeepSeek-V3
- LLaMA_Fastchat_pytorch
- Qwen3
2025-11-19 15:47:57 +08:00
- Qwen3-30B-A3B_vllm
- Qwen-7B_fastllm
- ChatGLM-6B_fastllm
- ChatGLM-6B_pytorch