Files
enginex-mlu370-vllm/vllm-v0.6.2/examples/cambricon_custom_func/context_parallel/README.md

28 lines
860 B
Markdown
Raw Normal View History

2026-02-04 17:22:39 +08:00
### 简介
该example是vLLM中进行Context Parallel和Ring Attention的实验mlu_hijack是对仓库代码的劫持避免修改主仓库代码
### 支持模型
目前仅对LLaMA2系列模型进行了精度验证
### 支持板卡
暂不支持300系列设备
### 运行demo
```python
python examples/cambricon_custom_func/context_parallel/offline_inference.py
```
### 使用Context Parallel特性
设置环境变量export CONTEXT_PARALLEL_EN=1|True|true|TRUE LLM主接口传入context_parallel_size参数
### 实现细节
- 为了使Ring Attention实现负载均衡数据使用了zigzag的拆分方式
- 需要的MLU卡数为world_size = context_parallel_size * tensor_parallel_size先拆cp 然后拆tp
- 目前只是用作实验验证context阶段采用cpdecoder阶段只在一个cp group上进行
- 支持kv cache int8量化