language, license, library_name, tags, datasets, pipeline_tag
language license library_name tags datasets pipeline_tag
tr
apache-2.0 transformers
turkish
cpt
wikipedia
qwen
wikimedia/wikipedia
text-generation

Qwen3-8B-Wikipedia-TR-CPT

Türkçe akıl yürütme ve teknik ifade kalitesini artırmak için hazırlanmış model sürümüdür.

Eğitim Kurgusu

Bu modelde Türkçe düşünme adaptasyonu amacıyla wikimedia/wikipedia verisi ana kaynak olarak kullanılmıştır. Bu modelde Türkçe düşünme adaptasyonu için Continued PreTraining (CPT) uygulanmıştır. Adaptasyon kurgusunda veri bileşiminin yaklaşık %99'u wikimedia/wikipedia tabanlıdır.

Not: Yüzde oranı, modelin tüm tarihsel ön eğitimi değil; CPT aşamasındaki adaptasyon veri karışımını ifade eder.

Veri Kaynağı

  • wikimedia/wikipedia (Türkçe içerik odaklı)

Model Amacı

  • Türkçe bağlamda daha tutarlı akıl yürütme
  • Bilgi yoğun sorularda daha düzenli açıklama
  • Türkçe teknik/analitik cevaplarda daha iyi akış

Önemli Not

  • Model, eğitim verisindeki dağılıma bağlı önyargılar taşıyabilir.
  • Kritik alanlarda (hukuk, sağlık, finans vb.) insan uzman kontrolü önerilir.

Lisans

Bu model Apache-2.0 lisansı ile sunulmuştur.

Copyright (c) Zero9 Tech

Description
Model synced from source: zero9tech/Qwen3-8B-Wikipedia-TR-CPT
Readme 30 KiB
Languages
Jinja 100%