Files
Learnia-gemini-test/README.md
ModelHub XC 9c4734aeec 初始化项目,由ModelHub XC社区提供模型
Model: Finisha-F-scratch/Learnia-gemini-test
Source: Original Platform
2026-05-03 22:43:52 +08:00

73 lines
2.6 KiB
Markdown

---
tags:
- text-generation-inference
- text-generation
library_name: transformers
base_model: Finisha-LLM/Learnia
widget:
- messages:
- role: user
content: What is your favorite condiment?
license: other
datasets:
- TeichAI/gemini-3-pro-preview-high-reasoning-1000x
pipeline_tag: text-generation
---
# 📜 Documentation : Learnia-Gemini-Test 🧬
![Learnia](http://www.image-heberg.fr/files/17687569872845582717.jpg)
### 🏗️ Genèse du Projet
**Learnia-Gemini-Test** n'est pas une simple itération. C'est un "stress-test" syntaxique. Le modèle de base, **Learnia (52M)**, conçu intégralement *from scratch*, a été injecté d'une couche comportementale spécifique via un fine-tuning ciblé.
> **L'objectif :** Observer comment une architecture légère et originale absorbe, digère et recrache les patterns de réponse d'un modèle massif comme Gemini.
---
### 📊 Spécifications Techniques
| Paramètre | Détail |
| --- | --- |
| **Base Model** | Learnia (Original Architecture) |
| **Taille** | 52 Million Parameters |
| **Nature** | Decoder-only Transformer |
| **Fine-tuning** | Hugging Face Public Dataset (Gemini Outputs) |
| **Vocation** | Recherche, simulation de logs, exploration de syntaxe hybride |
---
### 🧠 Comportement & Texture
Contrairement aux modèles lisses, **Learnia-Gemini-Test** conserve la "nervosité" de l'architecture Learnia.
* **Hybridation :** Le modèle mélange la structure brute de Learnia avec les tics de langage formels de Gemini.
* **Output :** Génère des paragraphes entiers structurés comme des réponses d'assistant, mais avec la signature thermique unique d'un modèle de 52M.
* **Usage :** Idéal pour des projets créatifs où l'on cherche une "IA qui imite une IA", créant un effet de mise en abyme.
---
### 🛠️ Installation & Inférence
Pour charger le modèle via la bibliothèque `transformers` :
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
# Chargement de la signature Learnia
tokenizer = AutoTokenizer.from_pretrained("ton-path/learnia-gemini-test")
model = AutoModelForCausalLM.from_pretrained("ton-path/learnia-gemini-test")
# Test de génération
prompt = "System Log: Analysis of..."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)
```
---
### ⚠️ Note sur l'ADN "From Scratch"
Ce modèle n'est pas une copie. C'est une **interprétation**. Les erreurs de syntaxe potentielles ou les cassures de rythme ne sont pas des bugs, mais la preuve de l'existence d'un moteur de langage indépendant qui refuse de se lisser totalement derrière le dataset d'affinage.