Files
enginex-hygon-vllm/README.md
2025-11-28 16:32:49 +08:00

849 B
Raw Blame History

enginex-hygon-vllm

运行于【海光 DCU】系列算力卡的【文本生成】引擎基于 vLLM 引擎进行架构特别适配优化,支持 Qwen、DeepSeek、Llama 等最新开源模型。

因具体模型之间的启动方式和具体镜像会有略微差别,请详细查看 /enginex 目录下各个支持模型的启动测试方式。

可支持模型列表

可在项目文件夹 /enginex 下查看具体可支持模型文件的运行方式。

支持模型列表:

  • jina-embeddings-v3
  • DeepSeek-R1_ollama
  • DeepSeek-R1_pytorch
  • DeepSeek-R1-Distill
  • ChatGLM3-6B
  • QwQ-32B
  • DeepSeek-V3
  • LLaMA_Fastchat_pytorch
  • Qwen3
  • Qwen3-30B-A3B_vllm
  • Qwen-7B_fastllm
  • ChatGLM-6B_fastllm
  • ChatGLM-6B_pytorch
  • Shanghai_AI_Laboratory/internlm-chat-7b
  • ZhipuAI/glm-4v-9b
  • ZhipuAI/GLM-4-9B-0414
  • deepseek-ai/DeepSeek-Coder-V2-Base