Compare commits

...

10 Commits

Author SHA1 Message Date
UnicomAI
16722978f0 READ 2024-04-28 02:52:08 +00:00
UnicomAI
3a234b137a 'upload model' 2024-04-28 02:38:34 +00:00
UnicomAI
c499c90e26 Update config.json 2024-04-27 01:38:00 +00:00
UnicomAI
9baa80e966 readme 2024-04-26 16:13:52 +00:00
UnicomAI
3a483deb2e 'upload model' 2024-04-26 15:59:53 +00:00
UnicomAI
5e5cbccf88 Update README.md 2024-04-26 15:38:22 +00:00
UnicomAI
359f86cff6 Update README.md 2024-04-26 13:59:36 +00:00
UnicomAI
58df9f9ac6 Update README.md 2024-04-26 12:58:23 +00:00
UnicomAI
3762ffb983 Update config.json 2024-04-26 12:49:32 +00:00
UnicomAI
b46a71bc53 Update config.json 2024-04-26 12:49:24 +00:00
5 changed files with 10 additions and 10 deletions

View File

@@ -12,7 +12,7 @@ pipeline_tag: text-generation
## 介绍 ## 介绍
* 中国联通AI创新中心发布业界第一个llama3中文指令微调模型长文本版本全参数微调(非lora/longlora)2024年4月26日19点 * 中国联通AI创新中心发布业界第一个llama3中文指令微调模型长文本版本全参数微调(非lora/longlora)2024年4月26日19点
* 本模型以[**Meta Llama 3**](https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6)为基础,增加中文数据进行训练,实现llama3模型高质量中文问答 * 本模型以[**Meta Llama 3**](https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6)为基础,增加中文数据进行训练,实现llama3模型高质量中文问答
* 此模型上下文原生长度28K比原始版本上下文长度8k提高了20k * 此模型上下文原生长度28K
* 基础模型 [**Meta-Llama-3-8B**](https://huggingface.co/meta-llama/Meta-Llama-3-8B) * 基础模型 [**Meta-Llama-3-8B**](https://huggingface.co/meta-llama/Meta-Llama-3-8B)
@@ -73,10 +73,10 @@ outputs = pipeline(
prompt, prompt,
max_new_tokens=2048, max_new_tokens=2048,
eos_token_id=terminators, eos_token_id=terminators,
do_sample=False, do_sample=True,
temperature=0.6, temperature=0.6,
top_p=1, top_p=1,
repetition_penalty=1.1 repetition_penalty=1.15
) )
print(outputs[0]["generated_text"][len(prompt):]) print(outputs[0]["generated_text"][len(prompt):])
``` ```

View File

@@ -12,7 +12,7 @@ pipeline_tag: text-generation
## 介绍 ## 介绍
* 中国联通AI创新中心发布业界第一个llama3中文指令微调模型长文本版本全参数微调(非lora/longlora)2024年4月26日19点 * 中国联通AI创新中心发布业界第一个llama3中文指令微调模型长文本版本全参数微调(非lora/longlora)2024年4月26日19点
* 本模型以[**Meta Llama 3**](https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6)为基础,增加中文数据进行训练,实现llama3模型高质量中文问答 * 本模型以[**Meta Llama 3**](https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6)为基础,增加中文数据进行训练,实现llama3模型高质量中文问答
* 此模型上下文原生长度28K比原始版本上下文长度8k提高了20k * 此模型上下文原生长度28K
* 基础模型 [**Meta-Llama-3-8B**](https://huggingface.co/meta-llama/Meta-Llama-3-8B) * 基础模型 [**Meta-Llama-3-8B**](https://huggingface.co/meta-llama/Meta-Llama-3-8B)
@@ -73,10 +73,10 @@ outputs = pipeline(
prompt, prompt,
max_new_tokens=2048, max_new_tokens=2048,
eos_token_id=terminators, eos_token_id=terminators,
do_sample=False, do_sample=True,
temperature=0.6, temperature=0.6,
top_p=1, top_p=1,
repetition_penalty=1.1 repetition_penalty=1.15
) )
print(outputs[0]["generated_text"][len(prompt):]) print(outputs[0]["generated_text"][len(prompt):])
``` ```

View File

@@ -1,5 +1,5 @@
{ {
"_name_or_path": "/data/Chinese-Llama-2-7b/checkpoints2_llama3-8b-0419/checkpoint-1600", "_name_or_path": "/data/checkpoints2_llama3-8b",
"architectures": [ "architectures": [
"LlamaForCausalLM" "LlamaForCausalLM"
], ],

View File

@@ -1,3 +1,3 @@
version https://git-lfs.github.com/spec/v1 version https://git-lfs.github.com/spec/v1
oid sha256:349d753e16ad717660dff329309ce9697e98adee9eec9224a568cdd2fef73141 oid sha256:c4e3ba94f139d695e4038934ccedf09ab282bf9ed7d437fe5f6b2fb959413a24
size 9976543957 size 9976543957

View File

@@ -1,3 +1,3 @@
version https://git-lfs.github.com/spec/v1 version https://git-lfs.github.com/spec/v1
oid sha256:2a90a5cddb56f56b12ae17c152f915e7720dc95d1ab70374e186e408a8c524a5 oid sha256:12489248efa09dd68ab65c801bd5d3bc579d9bc3ae3af7ef338e21efad3ddef1
size 6084078398 size 6084078398