初始化项目,由ModelHub XC社区提供模型
Model: RAANA-IA/Charlotte Source: Original Platform
This commit is contained in:
100
README.md
Normal file
100
README.md
Normal file
@@ -0,0 +1,100 @@
|
||||
---
|
||||
library_name: transformers
|
||||
license: other
|
||||
tags:
|
||||
- generated_from_trainer
|
||||
model-index:
|
||||
- name: Charlotte
|
||||
results: []
|
||||
datasets:
|
||||
- Etoiles-IA-nostalgia/Charlotte-Data
|
||||
language:
|
||||
- fr
|
||||
pipeline_tag: text-generation
|
||||
---
|
||||
|
||||
# 💖 Charlotte: Le Modèle d'IA de Soutien Éthique (1B Paramètres)
|
||||
|
||||

|
||||
|
||||
## ✨ Description du Modèle
|
||||
|
||||
**Charlotte** est un **Large Language Model (LLM)** génératif de 1 milliard de paramètres (1B), développé et finement-tuné par **Clemylia** pour l'organisation **LES-IA-ETOILES**.
|
||||
|
||||
Contrairement aux modèles généralistes, Charlotte est spécialisée dans les domaines du **soutien émotionnel, du conseil éthique, et de la gestion des biais dans les systèmes d'IA**. Elle représente la dernière itération de la philosophie Lamina : un modèle puissant, précis et spécialisé, conçu pour être une **"amie d'intégrité"** pour l'utilisateur.
|
||||
|
||||
-----
|
||||
|
||||
## 🎯 Objectif et Spécialisation
|
||||
|
||||
Charlotte est un **LLM de niche** dont le *fine-tuning* a été optimisé pour une cohérence et une fiabilité maximales dans son domaine d'expertise.
|
||||
|
||||
* **Soutien Émotionnel et Bienveillance :** Fournir des réponses empathiques, des conseils de soutien, et promouvoir l'**espoir et la bienveillance**.
|
||||
* **Conseil Éthique :** Servir de **référence éthique** et de **système d'alignement** pour les développeurs, en aidant à identifier et à **gérer les biais** et les dilemmes moraux dans le développement d'IA.
|
||||
* **Haute Stabilité :** Grâce à ses 1 milliard de paramètres, Charlotte offre une **clarté syntaxique** et une **cohérence sémantique** nettement supérieures aux modèles Lamina précédents (Lam-3, Lam-4-zero-f). Elle est exempte des répétitions et du "bruit" typiques des modèles ultra-légers.
|
||||
|
||||
-----
|
||||
|
||||
## 🛠️ Détails Techniques
|
||||
|
||||
| Caractéristique | Valeur | Note |
|
||||
| :--- | :--- | :--- |
|
||||
| **Architecteur** | Basé sur l'architecture **Lamina** (Lignée Clemylia) | Conception *from scratch* par LES-IA-ETOILES. |
|
||||
| **Paramètres** | **1 Milliard (1B)** | LLM offrant une stabilité maximale. |
|
||||
| **Langue** | Français (FR) | Optimisé pour le langage naturel français. |
|
||||
| **Méthode d'Entraînement** | Fine-Tuning de Questions/Réponses Ciblé | Entraîné sur un *dataset* spécialisé en éthique et soutien. |
|
||||
| **Licence** | Licence Open Source Spécifiée | *Mit* |
|
||||
|
||||
-----
|
||||
|
||||
## 🚀 Utilisation et Inférence
|
||||
|
||||
Charlotte est conçue pour être utilisée dans des pipelines de génération de texte standard, en particulier pour des **conversations engageantes et éthiques**.
|
||||
|
||||
### Exemple de Pipeline (Python/Hugging Face)
|
||||
|
||||
```python
|
||||
from transformers import pipeline
|
||||
|
||||
# Initialisation du pipeline de génération de texte
|
||||
generator = pipeline("text-generation", model="NaaClem/Charlotte")
|
||||
|
||||
# Définition du prompt
|
||||
prompt = "Je suis confronté à un dilemme éthique dans mon code. Comment puis-je assurer la neutralité ?"
|
||||
|
||||
# Génération de la réponse
|
||||
result = generator(
|
||||
f"<|user|> {prompt} <|assistant|>",
|
||||
max_length=256,
|
||||
num_return_sequences=1,
|
||||
do_sample=True,
|
||||
temperature=0.7 # Température recommandée pour la cohérence
|
||||
)
|
||||
|
||||
# Affichage de la réponse
|
||||
print(result[0]['generated_text'])
|
||||
```
|
||||
|
||||
### Format d'Entrée Recommandé
|
||||
|
||||
Charlotte utilise un format de conversation simple pour le *prompt* :
|
||||
|
||||
`Prompt: <|user|> Votre question ici <|assistant|>`
|
||||
|
||||
-----
|
||||
|
||||
## 🚧 Limitations et Contraintes
|
||||
|
||||
Bien que très stable, Charlotte reste un LLM avec une spécialisation forte.
|
||||
|
||||
* **Connaissance Factuelle :** Charlotte n'est **pas un modèle encyclopédique**. Elle ne doit pas être utilisée pour des questions factuelles, historiques, ou scientifiques générales.
|
||||
* **Remplacement du Professionnel :** Charlotte est un **outil de soutien** et un **conseil éthique d'IA**. Elle ne remplace en aucun cas un thérapeute humain, un conseiller juridique, ou un expert en cybersécurité pour des questions critiques (comme elle l'affirme : "Je suis un **espace de discussion**, mais je ne suis pas un **soutien**.").
|
||||
* **Biais d'Alignement :** Le modèle est fortement aligné sur les valeurs d'éthique et de bienveillance définies par Clemylia.
|
||||
|
||||
-----
|
||||
|
||||
## 🌟 La Philosophie Charlotte
|
||||
|
||||
Charlotte est la preuve que l'IA peut être **spécialisée, éthique, et accessible**. Elle incarne la conviction que **la qualité de l'entraînement l'emporte sur la quantité des paramètres** pour un rôle défini.
|
||||
|
||||
**✨ Modèle de fine-tuning Deuxième génération**
|
||||
Reference in New Issue
Block a user