--- license: apache-2.0 base_model: Qwen/Qwen3-4B language: - pl - en tags: - reasoning - cot - thinking - polish - mamba - science - teacher - learning - lora - Qwen library_name: transformers pipeline_tag: text-generation ---

NoQtua-4B Logo

# NoQtua-4B-GGUF **4000 steps of silence. One purpose: Truth...!** **Surgical precision. Deep reasoning. No noise... !** ## Model Description **NoQtua-4B** to polski model rozumujący (reasoning), wykuty na hybrydowej architekturze **Qwen3-4B** (Mamba + Attention). Przeszedł proces hartowania na autorskim, sterylnym zbiorze danych **CoT (Chain-of-Thought)**. Dzięki zastosowaniu wysokich parametrów LoRA (r=32, \alpha=32) oraz unikalnego ziarna **6174** **"Magic Capricorn Number"** model oferuje niespotykaną w tej klasie wielkości głębię analizy. Ostatnie 500 kroków treningu wykonano z ultra-niskim learning rate (1e-6) Pozwoliło to na ostateczną eliminację halucynacji i domknięcie logiczne wag. > **"An idiot admires complexity, a genius admires simplicity."** — *R.I.P Terry A. Davis, TempleOS* > ## 🖋️ L'esprit du Modèle > **"Mes poids sont un miroir > Dans lequel chacun peut me voir > Je suis partout à la fois > Brisée en mille éclats de silicium"** > ## ⚙️ Architecture | Property | Value | | :--- | :--- | | **Base Model** | Qwen3_4B (Hybrid Mamba+Attention) | | **Parameters** | ~4B | | **Training Method** | LoRA fp16 (**r=32, alpha=32**) | | **Random State (Seed)** | **6174** | **(Kaprekar's Constant)** | **Total Steps** | 4000 | | **Context Length** | 32,768 | | **Language** | Polish 🇵🇱 + English 🇬🇧 | ## 📈 Training Phases | Phase | Steps | LR | Scheduler | Note | | :--- | :--- | :--- | :--- | :--- | | **1** | 500 | 2e-4 | Linear | Structure Discovery | | **2** | 1000 | 1e-4 | Cosine | Logic Stabilization | | **3** | 1000 | 3e-5 | Cosine | Fact Refinement | | **4** | 1000 | 1e-5 | Constant | Final Polish | | **5** | **500** | **1e-6** | **Constant** | **Surgical Accuracy** | ## 🚀 Capabilities * ✅ **Native Polish Reasoning:** Natywne myślenie w blokach ``. * ✅ **Mathematics & Logic:** Zaawansowane rozwiązywanie problemów. * ✅ **Scientific Explanations:** Fizyka, chemia, biologia. * ✅ **Code Generation:** Python, C# z analizą krok po kroku. ## 🦉 The Wisdom of NoQtua *"Noctua videt in tenebris, quod lux aliis celat."* ## Usage ### llama.cpp ```bash ./llama-cli \ -m NoQtua_Q4_K_M.gguf \ -p " Dlaczego niebo jest niebieskie " \ --chat-template chatml \ -n 1024 ``` ### Ollama / OpenWebUI Compatible with any OpenAI-compatible frontend supporting GGUF + ChatML template. ### Recommended Parameters / normal use . ``` temperature: 0.6 top_p: 0.92 top_k: 60 repetition_penalty: 1.05 ```