Files

49 lines
1.3 KiB
Markdown
Raw Permalink Normal View History

---
language:
- tr
license: apache-2.0
library_name: transformers
tags:
- turkish
- cpt
- wikipedia
- qwen
datasets:
- wikimedia/wikipedia
pipeline_tag: text-generation
---
# Qwen3-8B-Wikipedia-TR-CPT
Türkçe akıl yürütme ve teknik ifade kalitesini artırmak için hazırlanmış model sürümüdür.
## Eğitim Kurgusu
Bu modelde **Türkçe düşünme adaptasyonu** amacıyla **wikimedia/wikipedia** verisi ana kaynak olarak kullanılmıştır.
Bu modelde Türkçe düşünme adaptasyonu için **Continued PreTraining (CPT)** uygulanmıştır. Adaptasyon kurgusunda veri bileşiminin yaklaşık **%99'u wikimedia/wikipedia** tabanlıdır.
> Not: Yüzde oranı, modelin tüm tarihsel ön eğitimi değil; CPT aşamasındaki adaptasyon veri karışımını ifade eder.
## Veri Kaynağı
- `wikimedia/wikipedia` (Türkçe içerik odaklı)
## Model Amacı
- Türkçe bağlamda daha tutarlı akıl yürütme
- Bilgi yoğun sorularda daha düzenli açıklama
- Türkçe teknik/analitik cevaplarda daha iyi akış
## Önemli Not
- Model, eğitim verisindeki dağılıma bağlı önyargılar taşıyabilir.
- Kritik alanlarda (hukuk, sağlık, finans vb.) insan uzman kontrolü önerilir.
## Lisans
Bu model **Apache-2.0** lisansı ile sunulmuştur.
## Copyright
Copyright (c) **Zero9 Tech**