Model: zero9tech/Qwen3-8B-Wikipedia-TR-CPT Source: Original Platform
language, license, library_name, tags, datasets, pipeline_tag
| language | license | library_name | tags | datasets | pipeline_tag | ||||||
|---|---|---|---|---|---|---|---|---|---|---|---|
|
apache-2.0 | transformers |
|
|
text-generation |
Qwen3-8B-Wikipedia-TR-CPT
Türkçe akıl yürütme ve teknik ifade kalitesini artırmak için hazırlanmış model sürümüdür.
Eğitim Kurgusu
Bu modelde Türkçe düşünme adaptasyonu amacıyla wikimedia/wikipedia verisi ana kaynak olarak kullanılmıştır. Bu modelde Türkçe düşünme adaptasyonu için Continued PreTraining (CPT) uygulanmıştır. Adaptasyon kurgusunda veri bileşiminin yaklaşık %99'u wikimedia/wikipedia tabanlıdır.
Not: Yüzde oranı, modelin tüm tarihsel ön eğitimi değil; CPT aşamasındaki adaptasyon veri karışımını ifade eder.
Veri Kaynağı
wikimedia/wikipedia(Türkçe içerik odaklı)
Model Amacı
- Türkçe bağlamda daha tutarlı akıl yürütme
- Bilgi yoğun sorularda daha düzenli açıklama
- Türkçe teknik/analitik cevaplarda daha iyi akış
Önemli Not
- Model, eğitim verisindeki dağılıma bağlı önyargılar taşıyabilir.
- Kritik alanlarda (hukuk, sağlık, finans vb.) insan uzman kontrolü önerilir.
Lisans
Bu model Apache-2.0 lisansı ile sunulmuştur.
Copyright
Copyright (c) Zero9 Tech
Description
Languages
Jinja
100%