Model: TeeZee/BigMaid-20B-v1.0 Source: Original Platform
language, license, library_name, tags, model-index
| language | license | library_name | tags | model-index | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
apache-2.0 | transformers |
|
|
BigMaid-20B-v1.0
Model Details
- A result of interleaving layers of KatyTheCutie/EstopianMaid-13B with itself.
- The resulting model has approximately 20 billion parameters.
- See mergekit-config.yml for details on the merge method used.
Warning: This model can produce NSFW content!
Results
- Bigger version of original, uncensored like oryginal.
- Retains all good qualities of original with additional affinity for abstract and lighthearted humor
All comments are greatly appreciated, download, test and if you appreciate my work, consider buying me my fuel:

Open LLM Leaderboard Evaluation Results
Detailed results can be found here
| Metric | Value |
|---|---|
| Avg. | 56.07 |
| AI2 Reasoning Challenge (25-Shot) | 61.35 |
| HellaSwag (10-Shot) | 85.26 |
| MMLU (5-Shot) | 57.15 |
| TruthfulQA (0-shot) | 55.29 |
| Winogrande (5-shot) | 75.30 |
| GSM8k (5-shot) | 2.05 |
Description
