ModelHub XC 9c4734aeec 初始化项目,由ModelHub XC社区提供模型
Model: Finisha-F-scratch/Learnia-gemini-test
Source: Original Platform
2026-05-03 22:43:52 +08:00

tags, library_name, base_model, widget, license, datasets, pipeline_tag
tags library_name base_model widget license datasets pipeline_tag
text-generation-inference
text-generation
transformers Finisha-LLM/Learnia
messages
role content
user What is your favorite condiment?
other
TeichAI/gemini-3-pro-preview-high-reasoning-1000x
text-generation

📜 Documentation : Learnia-Gemini-Test 🧬

Learnia

🏗️ Genèse du Projet

Learnia-Gemini-Test n'est pas une simple itération. C'est un "stress-test" syntaxique. Le modèle de base, Learnia (52M), conçu intégralement from scratch, a été injecté d'une couche comportementale spécifique via un fine-tuning ciblé.

L'objectif : Observer comment une architecture légère et originale absorbe, digère et recrache les patterns de réponse d'un modèle massif comme Gemini.


📊 Spécifications Techniques

Paramètre Détail
Base Model Learnia (Original Architecture)
Taille 52 Million Parameters
Nature Decoder-only Transformer
Fine-tuning Hugging Face Public Dataset (Gemini Outputs)
Vocation Recherche, simulation de logs, exploration de syntaxe hybride

🧠 Comportement & Texture

Contrairement aux modèles lisses, Learnia-Gemini-Test conserve la "nervosité" de l'architecture Learnia.

  • Hybridation : Le modèle mélange la structure brute de Learnia avec les tics de langage formels de Gemini.
  • Output : Génère des paragraphes entiers structurés comme des réponses d'assistant, mais avec la signature thermique unique d'un modèle de 52M.
  • Usage : Idéal pour des projets créatifs où l'on cherche une "IA qui imite une IA", créant un effet de mise en abyme.

🛠️ Installation & Inférence

Pour charger le modèle via la bibliothèque transformers :

from transformers import AutoModelForCausalLM, AutoTokenizer

# Chargement de la signature Learnia
tokenizer = AutoTokenizer.from_pretrained("ton-path/learnia-gemini-test")
model = AutoModelForCausalLM.from_pretrained("ton-path/learnia-gemini-test")

# Test de génération
prompt = "System Log: Analysis of..."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)


⚠️ Note sur l'ADN "From Scratch"

Ce modèle n'est pas une copie. C'est une interprétation. Les erreurs de syntaxe potentielles ou les cassures de rythme ne sont pas des bugs, mais la preuve de l'existence d'un moteur de langage indépendant qui refuse de se lisser totalement derrière le dataset d'affinage.

Description
Model synced from source: Finisha-F-scratch/Learnia-gemini-test
Readme 1.3 MiB
Languages
Jinja 100%