初始化项目,由ModelHub XC社区提供模型
Model: Changgil/K2S3-Mistral-7b-v1.47 Source: Original Platform
This commit is contained in:
28
README.md
Normal file
28
README.md
Normal file
@@ -0,0 +1,28 @@
|
||||
---
|
||||
license: cc-by-nc-4.0
|
||||
language:
|
||||
- en
|
||||
---
|
||||
|
||||
---
|
||||
## Developed by :
|
||||
* K2S3
|
||||
|
||||
## Model Number:
|
||||
* K2S3-Mistral-7b-v1.47
|
||||
|
||||
## Base Model :
|
||||
* mistralai/Mistral-7B-v0.1
|
||||
|
||||
### Training Data
|
||||
* The training data for this model includes alpaca-gpt4-data, and samples from The OpenOrca Dataset.
|
||||
* 이 모델의 훈련 데이터에는 alpaca-gpt4-data, 그리고 OpenOrca Dataset에서 제공한 샘플들이 포함됩니다.
|
||||
|
||||
### Training Method
|
||||
* This model was fine-tuned on the "mistralai/Mistral-7B-v0.1" base model using a full parameter tuning method with SFT (Supervised Fine-Tuning).
|
||||
* 이 모델은 "mistralai/Mistral-7B-v0.1" 기반 모델을 SFT를 사용하여 전체 파라미터 조정 방법으로 미세조정되었습니다.
|
||||
|
||||
### Hardware
|
||||
* Hardware: Utilized two A100 (80G*2EA) GPUs for training.
|
||||
* Training Factors: This model was fine-tuned with SFT, using the HuggingFace SFTtrainer and applied fsdp.
|
||||
* 이 모델은 SFT를 사용하여 HuggingFace SFTtrainer와 fsdp를 적용하여 미세조정되었습니다.
|
||||
Reference in New Issue
Block a user