更新 README.md

This commit is contained in:
2025-08-28 15:32:19 +08:00
parent 91cb29fdbf
commit 55f3585d16

View File

@@ -1,5 +1,14 @@
# enginex-c_series-llama.cpp
## 镜像
本仓库 [软件包](https://git.modelhub.org.cn:9443/EngineX-MetaX/enginex-c_series-llama.cpp/packages) 提供已安装好 `llama.cpp`(基于 [tag b6294](https://github.com/ggml-org/llama.cpp/tree/bcbddcd54f0d5c22eab180831fdea6484107112f))的镜像,可以通过如下命令直接拉取镜像
`docker pull git.modelhub.org.cn:9443/enginex-metax/maca-c500-llama.cpp:20250827`
## 运行说明
参照运行 DeepSeek-V3.1 unsloth 量化版https://docs.unsloth.ai/basics/deepseek-v3.1#run-in-llama.cpp
## 编译说明
0. 建议在沐曦镜像中编译安装。为沐曦设备编译CUDA应用需要使用工具 `cu-bridge`,沐曦的镜像中已附带了该工具,可跳过该工具安装。具体安装步骤可参考沐曦开发者文档:*曦云系列_通用计算GPU_开源社区CUDA应用迁移指南*。
@@ -27,10 +36,4 @@
cp llama.cpp/build/bin/llama-* llama.cpp
```
## 运行说明
DeepSeek-V3.1 unsloth 量化版https://docs.unsloth.ai/basics/deepseek-v3.1#run-in-llama.cpp
## 镜像
本仓库 [软件包](https://git.modelhub.org.cn:9443/EngineX-MetaX/enginex-c_series-llama.cpp/packages) 提供已安装好 `llama.cpp`(基于 [tag b6294](https://github.com/ggml-org/llama.cpp/tree/bcbddcd54f0d5c22eab180831fdea6484107112f))的镜像:`git.modelhub.org.cn:9443/enginex-metax/maca-c500-llama.cpp:20250827`