diff --git a/README.md b/README.md index ccf4779..2aee34e 100644 --- a/README.md +++ b/README.md @@ -90,7 +90,7 @@ outputs = model.generate(**inputs, max_new_tokens=300) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` -如下是使用Chinese-Mistral-7B-instruct进行推理的代码示例。 +如下是使用Chinese-Mistral-7B-Instruct进行推理的代码示例。 ```python import torch from transformers import AutoTokenizer, AutoModelForCausalLM @@ -109,6 +109,12 @@ outputs_id = model.generate(inputs, max_new_tokens=300, do_sample=True) outputs = tokenizer.batch_decode(outputs_id, skip_special_tokens=True)[0] print(outputs) ``` +Chinese-Mistral-7B 与Chinese-Mistral-7B-Instruct-v0.1生成效果示例如下: + +| 模型名称 | Chinese-Mistral-7B | Chinese-Mistral-7B-Instruct-v0.1 | +|--- |--- |--- | +| 用户输入 |