From 0b0f17e4eff8c30bb4797ce9f40b2145e638e42b Mon Sep 17 00:00:00 2001 From: ModelHub XC Date: Sun, 3 May 2026 03:03:51 +0800 Subject: [PATCH] =?UTF-8?q?=E5=88=9D=E5=A7=8B=E5=8C=96=E9=A1=B9=E7=9B=AE?= =?UTF-8?q?=EF=BC=8C=E7=94=B1ModelHub=20XC=E7=A4=BE=E5=8C=BA=E6=8F=90?= =?UTF-8?q?=E4=BE=9B=E6=A8=A1=E5=9E=8B?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Model: Clem27AI/KLA-Gamia-coding Source: Original Platform --- .gitattributes | 36 +++++++++++++++++++++++++++++++++++ README.md | 43 ++++++++++++++++++++++++++++++++++++++++++ config.json | 32 +++++++++++++++++++++++++++++++ generation_config.json | 7 +++++++ model.safetensors | 3 +++ tokenizer.json | 3 +++ tokenizer_config.json | 16 ++++++++++++++++ training_args.bin | 3 +++ 8 files changed, 143 insertions(+) create mode 100644 .gitattributes create mode 100644 README.md create mode 100644 config.json create mode 100644 generation_config.json create mode 100644 model.safetensors create mode 100644 tokenizer.json create mode 100644 tokenizer_config.json create mode 100644 training_args.bin diff --git a/.gitattributes b/.gitattributes new file mode 100644 index 0000000..52373fe --- /dev/null +++ b/.gitattributes @@ -0,0 +1,36 @@ +*.7z filter=lfs diff=lfs merge=lfs -text +*.arrow filter=lfs diff=lfs merge=lfs -text +*.bin filter=lfs diff=lfs merge=lfs -text +*.bz2 filter=lfs diff=lfs merge=lfs -text +*.ckpt filter=lfs diff=lfs merge=lfs -text +*.ftz filter=lfs diff=lfs merge=lfs -text +*.gz filter=lfs diff=lfs merge=lfs -text +*.h5 filter=lfs diff=lfs merge=lfs -text +*.joblib filter=lfs diff=lfs merge=lfs -text +*.lfs.* filter=lfs diff=lfs merge=lfs -text +*.mlmodel filter=lfs diff=lfs merge=lfs -text +*.model filter=lfs diff=lfs merge=lfs -text +*.msgpack filter=lfs diff=lfs merge=lfs -text +*.npy filter=lfs diff=lfs merge=lfs -text +*.npz filter=lfs diff=lfs merge=lfs -text +*.onnx filter=lfs diff=lfs merge=lfs -text +*.ot filter=lfs diff=lfs merge=lfs -text +*.parquet filter=lfs diff=lfs merge=lfs -text +*.pb filter=lfs diff=lfs merge=lfs -text +*.pickle filter=lfs diff=lfs merge=lfs -text +*.pkl filter=lfs diff=lfs merge=lfs -text +*.pt filter=lfs diff=lfs merge=lfs -text +*.pth filter=lfs diff=lfs merge=lfs -text +*.rar filter=lfs diff=lfs merge=lfs -text +*.safetensors filter=lfs diff=lfs merge=lfs -text +saved_model/**/* filter=lfs diff=lfs merge=lfs -text +*.tar.* filter=lfs diff=lfs merge=lfs -text +*.tar filter=lfs diff=lfs merge=lfs -text +*.tflite filter=lfs diff=lfs merge=lfs -text +*.tgz filter=lfs diff=lfs merge=lfs -text +*.wasm filter=lfs diff=lfs merge=lfs -text +*.xz filter=lfs diff=lfs merge=lfs -text +*.zip filter=lfs diff=lfs merge=lfs -text +*.zst filter=lfs diff=lfs merge=lfs -text +*tfevents* filter=lfs diff=lfs merge=lfs -text +tokenizer.json filter=lfs diff=lfs merge=lfs -text diff --git a/README.md b/README.md new file mode 100644 index 0000000..fa6578d --- /dev/null +++ b/README.md @@ -0,0 +1,43 @@ +--- +library_name: transformers +license: other +base_model: Finisha-F-scratch/KLA-SLM-CODING +tags: +- coding +- Game +- pygame +- python +model-index: +- name: KLA-Gamia-coding + results: [] +--- +# 🛠️ Fiche Technique : KLA-Gamia-coding 🎮 + +![KLA](http://www.image-heberg.fr/files/17746064842690593151.jpg) + +KLA-Gamia-coding est un modèle de langage à petite échelle (SLM) de la lignée KLA, optimisé pour la génération de briques de code logiques et l'assistance au développement avec la bibliothèque Pygame. + +# 🧬 Architecture & Fondations + * Modèle de base : KLA-SLM-CODING (0.2B paramètres). + * Méthode : Fine-tuning supervisé (SFT) sur 3 époques. + * Philosophie : "La Rigueur avant la Taille". Un modèle compact mais extrêmement dense en connaissances structurelles. + * Origine : Pré-entraîné from scratch par Clemylia sur un dataset massif de code source (Hugging Face). + +# 🚀 Spécifications Techniques +| Caractéristique | Valeur | Avantage | +|---|---|---| +| Paramètres | 0.2B (200M) | Ultra-rapide, faible consommation VRAM. | +| Vocabulaire | 110 417 Tokens | Pas de fragmentation du code (haute fidélité). | +| Domaine | Python / Pygame | Expert en logique de jeu et boucles événementielles. | +| Style | Modulaire | Fournit des briques de code et des explications. | + +# ✨ Capacités Clés + * 🧩 Modularité Chirurgicale : Au lieu de produire des blocs de code monolithiques, il décompose les solutions en étapes logiques et en brique (Initialisation, Gestion des Sprites, Boucle d'événements). + * 📖 Auto-Documentation : Génère spontanément des commentaires explicatifs pour clarifier la logique de jeu, même sur des concepts non présents dans le dataset de fine-tuning. + +# ⚠️ Limitations & Usage Prévu +Ce modèle est un assistant de structure. Il excelle dans la création de composants et l'explication de concepts. Pour des systèmes multi-fichiers complexes, il est recommandé de l'utiliser brique par brique en corrigeant les potentielles erreurs de syntaxe en production et usage réel pour garantir une précision maximale. + +# 👩‍💻 Crédits +Développé et entraîné par Clemylia. +Lignée KLA : L'excellence du code en format compact. \ No newline at end of file diff --git a/config.json b/config.json new file mode 100644 index 0000000..e20997c --- /dev/null +++ b/config.json @@ -0,0 +1,32 @@ +{ + "architectures": [ + "GemmaForCausalLM" + ], + "attention_bias": false, + "attention_dropout": 0.0, + "bos_token_id": 2, + "dtype": "bfloat16", + "eos_token_id": 1, + "head_dim": 64, + "hidden_act": "gelu_pytorch_tanh", + "hidden_activation": null, + "hidden_size": 768, + "initializer_range": 0.02, + "intermediate_size": 3072, + "max_position_embeddings": 512, + "model_type": "gemma", + "num_attention_heads": 12, + "num_hidden_layers": 12, + "num_key_value_heads": 1, + "pad_token_id": 0, + "rms_norm_eps": 1e-06, + "rope_parameters": { + "rope_theta": 10000.0, + "rope_type": "default" + }, + "tie_word_embeddings": true, + "transformers_version": "5.0.0", + "use_bidirectional_attention": null, + "use_cache": false, + "vocab_size": 110417 +} diff --git a/generation_config.json b/generation_config.json new file mode 100644 index 0000000..4b22d42 --- /dev/null +++ b/generation_config.json @@ -0,0 +1,7 @@ +{ + "_from_model_config": true, + "bos_token_id": 2, + "eos_token_id": 1, + "pad_token_id": 0, + "transformers_version": "5.0.0" +} diff --git a/model.safetensors b/model.safetensors new file mode 100644 index 0000000..e760325 --- /dev/null +++ b/model.safetensors @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:f8dffdd502d81a88dc7e709ccacf1c26fb9d981b8c0cb68f44d3d93dd2cda92b +size 370191392 diff --git a/tokenizer.json b/tokenizer.json new file mode 100644 index 0000000..3ccb8a6 --- /dev/null +++ b/tokenizer.json @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:6a364ea6d283953aa0800a3b417933afe30f047310ba53fac31318274dbfc9c4 +size 18207011 diff --git a/tokenizer_config.json b/tokenizer_config.json new file mode 100644 index 0000000..098b288 --- /dev/null +++ b/tokenizer_config.json @@ -0,0 +1,16 @@ +{ + "backend": "tokenizers", + "bos_token": "", + "clean_up_tokenization_spaces": false, + "eos_token": "", + "is_local": false, + "mask_token": "", + "model_max_length": 1000000000000000019884624838656, + "model_specific_special_tokens": {}, + "pad_token": "", + "sp_model_kwargs": null, + "spaces_between_special_tokens": false, + "tokenizer_class": "GemmaTokenizer", + "unk_token": "", + "use_default_system_prompt": false +} diff --git a/training_args.bin b/training_args.bin new file mode 100644 index 0000000..83cfc58 --- /dev/null +++ b/training_args.bin @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:bbff86adf751dad45b3136ad28f70060f54b1973e6b819722b402825387a90a0 +size 5201