license, language, base_model, tags, datasets
license language base_model tags datasets
gemma
ru
en
unsloth/gemma-3-1b-it
gemma
gemma-3
saiga
conversation
text-generation
unsloth
IlyaGusev/saiga_scored

Ru-Gemma3-1B

Описание

Это экспериментальная версия модели Gemma 3 1B, дообученная на русскоязычном датасете Saiga-scored. Цель дообучения — подтянуть качество общения на русском языке и адаптировать модель под формат "Assistant/User".

Внимание:

  • Модель обучена всего 1 эпоху (экспериментальный ран).
  • Это 1B параметров (очень маленькая модель), поэтому не ждите от нее чудес уровня GPT-5.
  • В ответах возможна "каша" (смешивание языков, галлюцинации, потеря контекста).
  • Используйте на свой страх и риск. Автор не несет ответственности за сгенерированный контент.

Детали обучения

  • Base Model: Gemma 3 1B Instruct
  • Dataset: Saiga Scored (~40k диалогов)
  • Hardware: NVIDIA RTX 4070
  • Library: Unsloth (QLoRA)
  • Epochs: 1

Как запустить

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "wexyyyyyy/Ru-Gemma3-1B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

messages = [
    {"role": "user", "content": "Привет! Расскажи, почему небо голубое?"}
]

input_ids = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt"
).to(model.device)

outputs = model.generate(
    input_ids,
    max_new_tokens=512,
    temperature=0.6,
    top_p=0.9
)

print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
Description
Model synced from source: name54/Ru-Gemma3-1B
Readme 68 KiB
Languages
Jinja 100%