Model: MaziyarPanahi/calme-2.8-qwen2-7b Source: Original Platform
language, license, library_name, tags, base_model, datasets, model_name, pipeline_tag, inference, model_creator, quantized_by, model-index
| language | license | library_name | tags | base_model | datasets | model_name | pipeline_tag | inference | model_creator | quantized_by | model-index | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
apache-2.0 | transformers |
|
Qwen/Qwen2-7B |
|
calme-2.8-qwen2-7b | text-generation | false | MaziyarPanahi | MaziyarPanahi |
|
MaziyarPanahi/calme-2.8-qwen2-7b
This is a fine-tuned version of the Qwen/Qwen2-7B model. It aims to improve the base model across all benchmarks.
⚡ Quantized GGUF
All GGUF models are available here: MaziyarPanahi/calme-2.8-qwen2-7b-GGUF
🏆 Open LLM Leaderboard Evaluation Results
Detailed results can be found here
| Metric | Value |
|---|---|
| Avg. | 19.22 |
| IFEval (0-Shot) | 27.75 |
| BBH (3-Shot) | 25.53 |
| MATH Lvl 5 (4-Shot) | 15.63 |
| GPQA (0-shot) | 5.82 |
| MuSR (0-shot) | 12.06 |
| MMLU-PRO (5-shot) | 28.51 |
Prompt Template
This model uses ChatML prompt template:
<|im_start|>system
{System}
<|im_end|>
<|im_start|>user
{User}
<|im_end|>
<|im_start|>assistant
{Assistant}
How to use
# Use a pipeline as a high-level helper
from transformers import pipeline
messages = [
{"role": "user", "content": "Who are you?"},
]
pipe = pipeline("text-generation", model="MaziyarPanahi/calme-2.8-qwen2-7b")
pipe(messages)
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("MaziyarPanahi/calme-2.8-qwen2-7b")
model = AutoModelForCausalLM.from_pretrained("MaziyarPanahi/calme-2.8-qwen2-7b")
Description
Languages
Text
100%