Это экспериментальная версия модели Gemma 3 1B, дообученная на русскоязычном датасете Saiga-scored.
Цель дообучения — подтянуть качество общения на русском языке и адаптировать модель под формат "Assistant/User".
Внимание:
Модель обучена всего 1 эпоху (экспериментальный ран).
Это 1B параметров (очень маленькая модель), поэтому не ждите от нее чудес уровня GPT-5.
В ответах возможна "каша" (смешивание языков, галлюцинации, потеря контекста).
Используйте на свой страх и риск. Автор не несет ответственности за сгенерированный контент.
Детали обучения
Base Model: Gemma 3 1B Instruct
Dataset: Saiga Scored (~40k диалогов)
Hardware: NVIDIA RTX 4070
Library: Unsloth (QLoRA)
Epochs: 1
Как запустить
fromtransformersimportAutoModelForCausalLM,AutoTokenizerimporttorchmodel_id="wexyyyyyy/Ru-Gemma3-1B"tokenizer=AutoTokenizer.from_pretrained(model_id)model=AutoModelForCausalLM.from_pretrained(model_id,torch_dtype=torch.bfloat16,device_map="auto")messages=[{"role":"user","content":"Привет! Расскажи, почему небо голубое?"}]input_ids=tokenizer.apply_chat_template(messages,add_generation_prompt=True,return_tensors="pt").to(model.device)outputs=model.generate(input_ids,max_new_tokens=512,temperature=0.6,top_p=0.9)print(tokenizer.decode(outputs[0][input_ids.shape[-1]:],skip_special_tokens=True))