update Dockerfile and Readme
This commit is contained in:
@@ -10,6 +10,7 @@
|
||||
为了让我们的测试框架更通用一些,我们基于Transfomer框架对于不同类型的模型系列adpat了一层,方便对外提供http服务。
|
||||
|
||||
目前,测试框架要求用户首先测试时指定需要测试的模型的地址mount到本地文件系统中,如`/model`,之后通过unvicorn拉起服务。
|
||||
其中,基础镜像 corex:4.3.0 通过联系天数智芯智铠100厂商技术支持可获取
|
||||
|
||||
测试过程中,外围测试环境,会首先调用“加载模型接口”:
|
||||
|
||||
@@ -19,7 +20,6 @@ curl -X POST http://localhost:10086/load_model \
|
||||
-d '{"model_path":"/model","dtype":"auto"}'
|
||||
```
|
||||
|
||||
|
||||
## 模型测试服务请求示例
|
||||
准备好用于测试的图片和问题,通过infer接口获取推理结果:
|
||||
|
||||
|
||||
@@ -1,5 +1,5 @@
|
||||
# generate harbor.4pd.io/hardcore-tech/mr100-3.2.1-x86-ubuntu20.04-py3.10-poc-vlm-infer:0.0.1
|
||||
FROM git.modelhub.org.cn:9443/enginex-iluvatar/mr100-sherpa-onnx-offline-asr:1.12.5-mr100-corex-4.3.0-zh-en
|
||||
FROM corex:4.3.0
|
||||
ENV HF_ENDPOINT=https://hf-mirror.com
|
||||
|
||||
# Try common distros; the first that exists will succeed
|
||||
|
||||
Reference in New Issue
Block a user