i# enginex-kunlun-r200-translation
translation-transformers
Quickstart
#构建docker镜像
docker build . -t kunlun_r200_vl
#运行docker容器
docker run -it -p 10055:8000 --device=/dev/xpu2:/dev/xpu0 --device=/dev/xpuctrl:/dev/xpuctrl -v /home/aiyueqi/mnt/models/vlm/MiniCPM-V-4:/model:ro --name kunlun_r200_vl_test kunlun_r200_vl
等待模型Load完成,出现以下日志时,代表服务启动成功, 且模型加载完成
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:8000 (Press CTRL+C to quit)
执行测试程序
python3 test.py
测试程序执行结果
Succeed!
Response: {'output_text': '图片中的物体是一只狗,具体来说是一只金毛寻回犬。这只狗穿着带有图案的项圈,表明它可能被驯养并经常在户外活动。它正与一个坐着的人互动,看起来像是在玩或进行某种形式的身体接触。地面上有一个物体,可能是狗玩具或零食,这表明狗和人在海滩上进行休闲活动。背景中的海和日落暗示着一个宁静而放松的环境,通常与宠物的陪伴相关联。'}
停止docker容器
docker stop kunlun_r200_translation_test
模型支持
在Quickstart中运行容器时,通过磁盘目录挂载的方式,指定模型的类型和具体的模型名称,即:
-v /home/aiyueqi/mnt/models/vlm/MiniCPM-V-4:/model:ro
目前支持MiniCPM模型, 参考https://modelscope.cn/models/OpenBMB/MiniCPM-V-4
其他说明
因镜像中的pytorch版本较老,PyTorch在低版本里对inference tensor限制过严,有些模型运行时可能出现以下报错:
RuntimeError: Cannot set version_counter for inference tensor
找到报错对应的行,对只读的tensor执行clone操作,即可运行成功
Description
Languages
Python
84.3%
Dockerfile
15.7%