113 lines
6.1 KiB
Markdown
113 lines
6.1 KiB
Markdown
|
|
---
|
|||
|
|
library_name: transformers
|
|||
|
|
language:
|
|||
|
|
- ru
|
|||
|
|
- en
|
|||
|
|
pipeline_tag: text-generation
|
|||
|
|
license: other
|
|||
|
|
license_name: apache-2.0
|
|||
|
|
license_link: https://huggingface.co/MTSAIR/Cotype-Nano-4bit/blob/main/Apache%20License%20MTS%20AI.docx
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
# Cotype-Nano-4bit🤖
|
|||
|
|
|
|||
|
|
Cotype-Nano-4bit – это LLM, которая весит меньше и работает быстрее чем Cotype-Nano, при этом сохраняя свои языковые способности
|
|||
|
|
|
|||
|
|
Cotype-Nano-4bit is an LLM that is lighter and runs faster than Cotype-Nano, while maintaining its language capabilities.
|
|||
|
|
|
|||
|
|
### Inference with vLLM
|
|||
|
|
```
|
|||
|
|
python3 -m vllm.entrypoints.openai.api_server --model MTSAIR/Cotype-Nano-4bit --port 8000
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### Recommended generation parameters and system prompt
|
|||
|
|
```python
|
|||
|
|
import openai
|
|||
|
|
import pandas as pd
|
|||
|
|
from tqdm import tqdm
|
|||
|
|
|
|||
|
|
openai.api_key = 'xxx'
|
|||
|
|
|
|||
|
|
endpoint = 'http://localhost:8000/v1'
|
|||
|
|
model = 'MTSAIR/Cotype-Nano-4bit'
|
|||
|
|
openai.api_base = endpoint
|
|||
|
|
|
|||
|
|
response = openai.ChatCompletion.create(
|
|||
|
|
model=model,
|
|||
|
|
temperature=0.0, # также допускается 0.2
|
|||
|
|
frequency_penalty=0.0,
|
|||
|
|
max_tokens=2048,
|
|||
|
|
top_p=0.1, # также допускается 0.9
|
|||
|
|
messages=[
|
|||
|
|
{"role": "system", "content": "Ты — ИИ-помощник. Тебе дано задание: необходимо сгенерировать подробный и развернутый ответ."},
|
|||
|
|
{"role": "user", "content": "Расскажи мне про ИИ, коротко"}
|
|||
|
|
]
|
|||
|
|
)
|
|||
|
|
|
|||
|
|
answer = response["choices"][0]["message"]["content"]
|
|||
|
|
print(answer)
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### Inference with Huggingface
|
|||
|
|
```python
|
|||
|
|
from transformers import pipeline
|
|||
|
|
|
|||
|
|
pipe = pipeline("text-generation", model="MTSAIR/Cotype-Nano-4bit", device="cuda")
|
|||
|
|
|
|||
|
|
messages = [
|
|||
|
|
{"role": "system", "content": "Ты — ИИ-помощник. Тебе дано задание: необходимо сгенерировать подробный и развернутый ответ."},
|
|||
|
|
{"role": "user", "content": "Расскажи мне про ИИ"},
|
|||
|
|
]
|
|||
|
|
|
|||
|
|
res = pipe(messages, max_length=1024)
|
|||
|
|
print(res[0]['generated_text'][1])
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
|
|||
|
|
## Example request
|
|||
|
|
|
|||
|
|
**Request:**
|
|||
|
|
|
|||
|
|
|
|||
|
|
#### Cotype-Nano-4bit response:
|
|||
|
|
|
|||
|
|
> **Рекламный текст для магазина экологичной одежды:**
|
|||
|
|
>
|
|||
|
|
> ---
|
|||
|
|
>
|
|||
|
|
> **Заботьтесь о Земле, одевайтесь с умом!**
|
|||
|
|
>
|
|||
|
|
> Приглашаем вас в мир экологичной моды! Мы предлагаем вам не только стильные и качественные вещи, но и возможность сделать свой выбор в пользу устойчивого развития и сохранения природы.
|
|||
|
|
>
|
|||
|
|
> **Экологичная одежда – ваш выбор!**
|
|||
|
|
>
|
|||
|
|
> 1. **Создание гармонии с природой.** Мы используем только экологически чистые материалы, которые не наносят вреда окружающей среде.
|
|||
|
|
> 2. **Минимализм в стиле.** Наша одежда – это не просто предметы гардероба, это стиль, который подчеркивает вашу индивидуальность.
|
|||
|
|
> 3. **Продолжительный срок службы.** Мы создаем вещи, которые прослужат вам долго, что позволяет избежать ненужного потребления и отходов.
|
|||
|
|
> 4. **Поддержка местных производителей.** Мы выбираем местных мастеров и производителей, что способствует созданию рабочих мест и поддерживает местную экономику.
|
|||
|
|
> 5. **Возвращаем вещи в круговорот.** Мы предлагаем программы по возврату и переработке одежды, чтобы вы могли внести свой вклад в сохранение экологии.
|
|||
|
|
>
|
|||
|
|
> **Ваш выбор – ваша ответственность.**
|
|||
|
|
>
|
|||
|
|
> Выбирайте экологичную одежду, и помните, что ваш выбор влияет на будущее нашей планеты. Давайте вместе создадим гармонию между человеком, его потребностями и природой.
|
|||
|
|
>
|
|||
|
|
> **Приходите в наш магазин, чтобы стать частью экологической моды!**
|
|||
|
|
>
|
|||
|
|
> ---
|
|||
|
|
>
|
|||
|
|
>Мы уверены, что вы найдете в нашем ассортименте не только стильные вещи, но и уверенность в том, что ваш выбор в пользу устойчивости и экологии не будет лишним. Приходите и посмотрите, как можно сочетать моду с ответственностью!
|
|||
|
|
|
|||
|
|
### Results on ru-llm-arena: 22.5 (local measurement)
|
|||
|
|
|
|||
|
|
| Model | Score | 95% CI | Avg. #Tokens |
|
|||
|
|
|---------------------------------------------|-------|-------------------------|---------------|
|
|||
|
|
| **Cotype-Nano-4bit** | **22.5** | **+2.1 / -1.4** | **582** |
|
|||
|
|
| storm-7b | 20.62 | +1.4 / -1.6 | 419.32 |
|
|||
|
|
| neural-chat-7b-v3-3 | 19.04 | +1.8 / -1.5 | 927.21 |
|
|||
|
|
| Vikhrmodels-Vikhr-Llama-3.2-1B-instruct | 19.04 | +1.2 / -1.5 | 958.63 |
|
|||
|
|
| gigachat_lite | 17.2 | +1.5 / -1.5 | 276.81 |
|
|||
|
|
| Vikhrmodels-Vikhr-Qwen-2.5-0.5b-Instruct | 16.5 | +1.5 / -1.7 | 583.5 |
|
|||
|
|
| Qwen-Qwen2.5-1.5B-Instruct | 16.46 | +1.3 / -1.3 | 483.67 |
|
|||
|
|
| Vikhrmodels-vikhr-qwen-1.5b-it | 13.19 | +1.3 / -1.1 | 2495.38 |
|
|||
|
|
| meta-llama-Llama-3.2-1B-Instruct | 4.04 | +0.6 / -0.8 | 1240.53 |
|
|||
|
|
| Qwen-Qwen2.5-0.5B-Instruct | 4.02 | +0.7 / -0.8 | 829.87 |
|