2025-11-04 16:55:56 +08:00
|
|
|
|
# enginex-hygon-vllm
|
|
|
|
|
|
|
2025-11-05 15:28:20 +08:00
|
|
|
|
运行于【海光 DCU】系列算力卡的【文本生成】引擎,基于 vLLM 引擎进行架构特别适配优化,支持 Qwen、DeepSeek、Llama 等最新开源模型
|
|
|
|
|
|
|
|
|
|
|
|
## 可支持模型列表
|
|
|
|
|
|
可在项目文件夹 `/enginex` 下查看具体可支持模型文件的运行方式。
|
|
|
|
|
|
|
|
|
|
|
|
支持模型列表:
|
2025-11-07 11:46:29 +08:00
|
|
|
|
- jina-embeddings-v3
|
2025-11-19 12:12:11 +08:00
|
|
|
|
- DeepSeek-R1_ollama
|
|
|
|
|
|
- DeepSeek-R1_pytorch
|
|
|
|
|
|
- DeepSeek-R1-Distill
|
2025-11-07 18:26:17 +08:00
|
|
|
|
- ChatGLM3-6B
|
2025-11-10 10:04:15 +08:00
|
|
|
|
- QwQ-32B
|
2025-11-19 12:12:11 +08:00
|
|
|
|
- DeepSeek-V3
|
|
|
|
|
|
- LLaMA_Fastchat_pytorch
|
|
|
|
|
|
- Qwen3
|