初始化项目,由ModelHub XC社区提供模型
Model: name54/Ru-Gemma3-1B Source: Original Platform
This commit is contained in:
69
README.md
Normal file
69
README.md
Normal file
@@ -0,0 +1,69 @@
|
||||
---
|
||||
license: gemma
|
||||
language:
|
||||
- ru
|
||||
- en
|
||||
base_model: unsloth/gemma-3-1b-it
|
||||
tags:
|
||||
- gemma
|
||||
- gemma-3
|
||||
- saiga
|
||||
- conversation
|
||||
- text-generation
|
||||
- unsloth
|
||||
datasets:
|
||||
- IlyaGusev/saiga_scored
|
||||
---
|
||||
|
||||
# Ru-Gemma3-1B
|
||||
|
||||
## Описание
|
||||
Это экспериментальная версия модели **Gemma 3 1B**, дообученная на русскоязычном датасете [Saiga-scored](https://huggingface.co/datasets/IlyaGusev/saiga_scored).
|
||||
Цель дообучения — подтянуть качество общения на русском языке и адаптировать модель под формат "Assistant/User".
|
||||
|
||||
**Внимание:**
|
||||
- Модель обучена всего **1 эпоху** (экспериментальный ран).
|
||||
- Это **1B** параметров (очень маленькая модель), поэтому не ждите от нее чудес уровня GPT-5.
|
||||
- В ответах возможна "каша" (смешивание языков, галлюцинации, потеря контекста).
|
||||
- Используйте на свой страх и риск. Автор не несет ответственности за сгенерированный контент.
|
||||
|
||||
## Детали обучения
|
||||
- **Base Model:** Gemma 3 1B Instruct
|
||||
- **Dataset:** Saiga Scored (~40k диалогов)
|
||||
- **Hardware:** NVIDIA RTX 4070
|
||||
- **Library:** Unsloth (QLoRA)
|
||||
- **Epochs:** 1
|
||||
|
||||
## Как запустить
|
||||
|
||||
```python
|
||||
from transformers import AutoModelForCausalLM, AutoTokenizer
|
||||
import torch
|
||||
|
||||
model_id = "wexyyyyyy/Ru-Gemma3-1B"
|
||||
|
||||
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
||||
model = AutoModelForCausalLM.from_pretrained(
|
||||
model_id,
|
||||
torch_dtype=torch.bfloat16,
|
||||
device_map="auto"
|
||||
)
|
||||
|
||||
messages = [
|
||||
{"role": "user", "content": "Привет! Расскажи, почему небо голубое?"}
|
||||
]
|
||||
|
||||
input_ids = tokenizer.apply_chat_template(
|
||||
messages,
|
||||
add_generation_prompt=True,
|
||||
return_tensors="pt"
|
||||
).to(model.device)
|
||||
|
||||
outputs = model.generate(
|
||||
input_ids,
|
||||
max_new_tokens=512,
|
||||
temperature=0.6,
|
||||
top_p=0.9
|
||||
)
|
||||
|
||||
print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
|
||||
Reference in New Issue
Block a user