add qwen3

This commit is contained in:
Chranos
2026-02-04 17:22:39 +08:00
parent d1c0f68ab4
commit 8511fe8530
1932 changed files with 300426 additions and 0 deletions

View File

@@ -0,0 +1,27 @@
### 简介
该example是vLLM中进行Context Parallel和Ring Attention的实验mlu_hijack是对仓库代码的劫持避免修改主仓库代码
### 支持模型
目前仅对LLaMA2系列模型进行了精度验证
### 支持板卡
暂不支持300系列设备
### 运行demo
```python
python examples/cambricon_custom_func/context_parallel/offline_inference.py
```
### 使用Context Parallel特性
设置环境变量export CONTEXT_PARALLEL_EN=1|True|true|TRUE LLM主接口传入context_parallel_size参数
### 实现细节
- 为了使Ring Attention实现负载均衡数据使用了zigzag的拆分方式
- 需要的MLU卡数为world_size = context_parallel_size * tensor_parallel_size先拆cp 然后拆tp
- 目前只是用作实验验证context阶段采用cpdecoder阶段只在一个cp group上进行
- 支持kv cache int8量化