初始化项目,由ModelHub XC社区提供模型

Model: name54/Ru-Gemma3-1B
Source: Original Platform
This commit is contained in:
ModelHub XC
2026-05-05 03:22:54 +08:00
commit 236d537842
10 changed files with 51610 additions and 0 deletions

69
README.md Normal file
View File

@@ -0,0 +1,69 @@
---
license: gemma
language:
- ru
- en
base_model: unsloth/gemma-3-1b-it
tags:
- gemma
- gemma-3
- saiga
- conversation
- text-generation
- unsloth
datasets:
- IlyaGusev/saiga_scored
---
# Ru-Gemma3-1B
## Описание
Это экспериментальная версия модели **Gemma 3 1B**, дообученная на русскоязычном датасете [Saiga-scored](https://huggingface.co/datasets/IlyaGusev/saiga_scored).
Цель дообучения — подтянуть качество общения на русском языке и адаптировать модель под формат "Assistant/User".
**Внимание:**
- Модель обучена всего **1 эпоху** (экспериментальный ран).
- Это **1B** параметров (очень маленькая модель), поэтому не ждите от нее чудес уровня GPT-5.
- В ответах возможна "каша" (смешивание языков, галлюцинации, потеря контекста).
- Используйте на свой страх и риск. Автор не несет ответственности за сгенерированный контент.
## Детали обучения
- **Base Model:** Gemma 3 1B Instruct
- **Dataset:** Saiga Scored (~40k диалогов)
- **Hardware:** NVIDIA RTX 4070
- **Library:** Unsloth (QLoRA)
- **Epochs:** 1
## Как запустить
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_id = "wexyyyyyy/Ru-Gemma3-1B"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
messages = [
{"role": "user", "content": "Привет! Расскажи, почему небо голубое?"}
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
outputs = model.generate(
input_ids,
max_new_tokens=512,
temperature=0.6,
top_p=0.9
)
print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))