Files
enginex-r200-vl/README.md

42 lines
1.8 KiB
Markdown
Raw Permalink Normal View History

2025-09-22 15:13:55 +08:00
i# enginex-kunlun-r200-translation
# translation-transformers
## Quickstart
```shell
#构建docker镜像
docker build . -t kunlun_r200_vl
#运行docker容器
docker run -it -p 10055:8000 --device=/dev/xpu2:/dev/xpu0 --device=/dev/xpuctrl:/dev/xpuctrl -v /home/aiyueqi/mnt/models/vlm/MiniCPM-V-4:/model:ro --name kunlun_r200_vl_test kunlun_r200_vl
```
等待模型Load完成出现以下日志时代表服务启动成功, 且模型加载完成
```shell
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:8000 (Press CTRL+C to quit)
```
执行测试程序
```shell
python3 test.py
```
测试程序执行结果
```
Succeed!
Response: {'output_text': '图片中的物体是一只狗,具体来说是一只金毛寻回犬。这只狗穿着带有图案的项圈,表明它可能被驯养并经常在户外活动。它正与一个坐着的人互动,看起来像是在玩或进行某种形式的身体接触。地面上有一个物体,可能是狗玩具或零食,这表明狗和人在海滩上进行休闲活动。背景中的海和日落暗示着一个宁静而放松的环境,通常与宠物的陪伴相关联。'}
```
停止docker容器
```
docker stop kunlun_r200_translation_test
```
## 模型支持
在Quickstart中运行容器时通过磁盘目录挂载的方式指定模型的类型和具体的模型名称
```
-v /home/aiyueqi/mnt/models/vlm/MiniCPM-V-4:/model:ro
```
目前支持MiniCPM模型, 参考https://modelscope.cn/models/OpenBMB/MiniCPM-V-4
2025-09-22 15:22:52 +08:00
## 其他说明
因镜像中的pytorch版本较老PyTorch在低版本里对inference tensor限制过严有些模型运行时可能出现以下报错
```
RuntimeError: Cannot set version_counter for inference tensor
```
找到报错对应的行对只读的tensor执行clone操作即可运行成功