zhousha 9879a96905 update
2025-12-04 20:11:45 +08:00
2025-12-04 20:11:45 +08:00
2025-11-05 16:18:37 +08:00
2025-12-04 20:11:45 +08:00
2025-12-04 20:11:45 +08:00

enginex-hygon-vllm

运行于【海光 DCU】系列算力卡的【文本生成】引擎基于 vLLM 引擎进行架构特别适配优化,支持 Qwen、DeepSeek、Llama 等最新开源模型。

因具体模型之间的启动方式和具体镜像会有略微差别,请详细查看 /enginex 目录下各个支持模型的启动测试方式。

可支持模型列表

可在项目文件夹 /enginex 下查看具体可支持模型文件的运行方式。

支持模型列表:

  • jinaai/jina-embeddings-v3
  • deepseek-ai/DeepSeek-R1
  • Qwen/QwQ-32B
  • deepseek-ai/DeepSeek-V3
  • deepseek-ai/DeepSeek-V3.1
  • LLaMA_Fastchat_pytorch
  • Qwen/Qwen3-30B-A3B
  • Qwen-7B_fastllm
  • ChatGLM-6B_fastllm
  • ZhipuAI/ChatGLM-6B
  • Shanghai_AI_Laboratory/internlm-chat-7b
  • ZhipuAI/glm-4v-9b
  • ZhipuAI/GLM-4-9B-0414
  • deepseek-ai/DeepSeek-Coder-V2-Base
  • openai-community/gpt2
  • ZhipuAI/chatglm2-6b
  • Qwen/Qwen-7B-Chat
  • baichuan-inc/Baichuan2-13B-Chat
  • ZhipuAI/chatglm3-6b
  • deepseek-ai/DeepSeek-V2
  • Qwen/Qwen2.5-Omni-7B
  • deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
  • deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
  • deepseek-ai/DeepSeek-R1-Distill-Llama-8B
  • deepseek-ai/DeepSeek-R1-Distill-Qwen-14B
  • deepseek-ai/DeepSeek-R1-Distill-Qwen-32B
  • deepseek-ai/DeepSeek-R1-Distill-Llama-70B
  • LLM-Research/Meta-Llama-3-8B-Instruct
  • Qwen/Qwen1.5-14B-Chat
  • Qwen/Qwen2-7B
  • Qwen/Qwen3-Embedding-0.6B
  • baichuan-inc/baichuan-7B
  • openai-community/gpt2
  • gaodema/GME-Qwen2-VL
  • OpenBMB/MiniCPM3-4B
  • ZhipuAI/glm-10b-chinese
  • 01ai/Yi-6B-Chat
  • 01ai/Yi-34B-Chat
  • ZhipuAI/glm-4-9b-chat
  • deepseek-ai/DeepSeek-OCR
  • Qwen/Qwen2.5-Coder-0.5B-Instruct
  • Qwen/Qwen2.5-Coder-1.5B-Instruct
  • Qwen/Qwen2.5-Coder-3B-Instruct
  • Qwen/Qwen2.5-Coder-7B-Instruct
  • Qwen/Qwen2.5-Coder-14B-Instruct
  • Qwen/Qwen2.5-Coder-0.5B
  • Qwen/Qwen2.5-Coder-1.5B
  • Qwen/Qwen2.5-Coder-3B
  • Qwen/Qwen2.5-Coder-7B
  • Qwen/Qwen2.5-Coder-14B
  • Qwen/Qwen2.5-Coder-32B
  • deepseek-ai/DeepSeek-V3.2-Exp
  • ZhipuAI/GLM-4.1V-9B-Thinking
  • ZhipuAI/GLM-4.1V-9B-Base
  • Shanghai_AI_Laboratory/internlm2_5-7b
  • Shanghai_AI_Laboratory/internlm2-chat-20b
  • Shanghai_AI_Laboratory/internlm2-7b
  • Shanghai_AI_Laboratory/internlm2_5-20b
  • TeleAI/telechat-7B
  • TeleAI/TeleChat-12B-v2
  • OpenBMB/MiniCPM-2B-dpo-bf16
  • LLM-Research/Phi-4-multimodal-instruct
  • LLM-Research/Mistral-7B-Instruct-v0.3
  • Shanghai_AI_Laboratory/internlm2_5-7b-chat
  • shakechen/Llama-2-7b-hf
  • Qwen/Qwen2-Audio-7B-Instruct
  • AI-ModelScope/gemma-2-2b
  • AI-ModelScope/falcon-7b-instruct
  • Duxiaoman-DI/XuanYuan-13B-Chat
  • ZhipuAI/GLM-4.6
  • LLM-Research/Codestral-22B-v0.1
  • facebook/llm-compiler-7b
  • 01ai/Yi-1.5-6B-Chat
  • FreedomIntelligence/HuatuoGPT-o1-8B
  • ZhipuAI/GLM-Z1-32B-0414
  • Salesforce/Llama-xLAM-2-8b-fc-r
  • Qwen/Qwen3-235B-A22B
  • Qwen/Qwen3-Coder-480B-A35B-Instruct
Description
运行于【海光 DCU】系列算力卡的【文本生成】引擎,基于 vLLM 引擎进行架构特别适配优化,支持 Qwen、DeepSeek、Llama 等最新开源模型
Readme 56 MiB
Languages
Python 100%