--- language: - tr license: apache-2.0 library_name: transformers tags: - turkish - cpt - wikipedia - qwen datasets: - wikimedia/wikipedia pipeline_tag: text-generation --- # Qwen3-8B-Wikipedia-TR-CPT Türkçe akıl yürütme ve teknik ifade kalitesini artırmak için hazırlanmış model sürümüdür. ## Eğitim Kurgusu Bu modelde **Türkçe düşünme adaptasyonu** amacıyla **wikimedia/wikipedia** verisi ana kaynak olarak kullanılmıştır. Bu modelde Türkçe düşünme adaptasyonu için **Continued PreTraining (CPT)** uygulanmıştır. Adaptasyon kurgusunda veri bileşiminin yaklaşık **%99'u wikimedia/wikipedia** tabanlıdır. > Not: Yüzde oranı, modelin tüm tarihsel ön eğitimi değil; CPT aşamasındaki adaptasyon veri karışımını ifade eder. ## Veri Kaynağı - `wikimedia/wikipedia` (Türkçe içerik odaklı) ## Model Amacı - Türkçe bağlamda daha tutarlı akıl yürütme - Bilgi yoğun sorularda daha düzenli açıklama - Türkçe teknik/analitik cevaplarda daha iyi akış ## Önemli Not - Model, eğitim verisindeki dağılıma bağlı önyargılar taşıyabilir. - Kritik alanlarda (hukuk, sağlık, finans vb.) insan uzman kontrolü önerilir. ## Lisans Bu model **Apache-2.0** lisansı ile sunulmuştur. ## Copyright Copyright (c) **Zero9 Tech**