0817ef94b6d286a934061745af6f4586bc9c8349
Model: acrastt/RedPajama-INCITE-Chat-Instruct-3B-V1 Source: Original Platform
language, license, library_name, datasets, pipeline_tag, model-index
| language | license | library_name | datasets | pipeline_tag | model-index | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
apache-2.0 | transformers |
|
text-generation |
|
This is an experimental merge of models RedPajama-INCITE-Chat-3B-V1 and RedPajama-INCITE-Instruct-3B-V1.
This model is adaptive to prompt templates, but this template is recommended:
HUMAN: {prompt}
ASSISTANT:
Feel free to change HUMAN or ASSISTANT. It will not change much.
GGML versions here (Note that this is only compatible with koboldcpp).
Open LLM Leaderboard Evaluation Results
Detailed results can be found here
| Metric | Value |
|---|---|
| Avg. | 39.23 |
| ARC (25-shot) | 42.58 |
| HellaSwag (10-shot) | 67.48 |
| MMLU (5-shot) | 25.99 |
| TruthfulQA (0-shot) | 33.62 |
| Winogrande (5-shot) | 64.8 |
| GSM8K (5-shot) | 0.91 |
Open LLM Leaderboard Evaluation Results
Detailed results can be found here
| Metric | Value |
|---|---|
| Avg. | 39.23 |
| AI2 Reasoning Challenge (25-Shot) | 42.58 |
| HellaSwag (10-Shot) | 67.48 |
| MMLU (5-Shot) | 25.99 |
| TruthfulQA (0-shot) | 33.62 |
| Winogrande (5-shot) | 64.80 |
| GSM8k (5-shot) | 0.91 |
Description
