readme
This commit is contained in:
@@ -90,7 +90,7 @@ outputs = model.generate(**inputs, max_new_tokens=300)
|
|||||||
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
||||||
```
|
```
|
||||||
|
|
||||||
如下是使用Chinese-Mistral-7B-instruct进行推理的代码示例。
|
如下是使用Chinese-Mistral-7B-Instruct进行推理的代码示例。
|
||||||
```python
|
```python
|
||||||
import torch
|
import torch
|
||||||
from transformers import AutoTokenizer, AutoModelForCausalLM
|
from transformers import AutoTokenizer, AutoModelForCausalLM
|
||||||
@@ -109,6 +109,12 @@ outputs_id = model.generate(inputs, max_new_tokens=300, do_sample=True)
|
|||||||
outputs = tokenizer.batch_decode(outputs_id, skip_special_tokens=True)[0]
|
outputs = tokenizer.batch_decode(outputs_id, skip_special_tokens=True)[0]
|
||||||
print(outputs)
|
print(outputs)
|
||||||
```
|
```
|
||||||
|
Chinese-Mistral-7B 与Chinese-Mistral-7B-Instruct-v0.1生成效果示例如下:
|
||||||
|
|
||||||
|
| 模型名称 | Chinese-Mistral-7B | Chinese-Mistral-7B-Instruct-v0.1 |
|
||||||
|
|--- |--- |--- |
|
||||||
|
| 用户输入 | <div style="width: 200pt">你是一个人工智能助手,写一段自我介绍: | <div style="width: 310pt">请为我推荐中国三座比较著名的山 |
|
||||||
|
| 模型输出 | <div style="width: 200pt">好的,作为一个AI助手,我必须很智能、很专业、很友好。所以,自我介绍如下:我是一个拥有海量知识的人工智能助手,能够提供高效的信息和服务。我拥有强大的自然语言处理能力,可以理解人类的语言,并提供准确的信息反馈。我专注于帮助用户解决问题,提高他们的工作和生活效率。我热爱学习,能够不断自我升级,以适应时代的发展。总之,我是一个值得信赖的助手,期待与您合作。谢谢! | <div style="width: 310pt">中国有很多著名的山,其中三座比较著名的山是:<br><br>1. 泰山:泰山位于山东省泰安市,是中国五岳之首,海拔1545米,是中华民族的象征之一。泰山是儒家文化、道教文化和民俗文化的发源地,被誉为“天下第一山”。<br><br>2. 黄山:黄山位于安徽省黄山市,是世界文化与自然遗产,也是世界地质公园。黄山以奇松、怪石、云海、温泉四绝而闻名于世,是旅游胜地。<br><br>3. 庐山:庐山位于江西省九江市,是道教圣地之一。庐山以雄奇险峻、风景秀丽而闻名于世,有“匡庐奇秀甲天下”的美誉。庐山风景名胜区是国家级风景名胜区,也是世界自然与文化遗产。 |
|
||||||
|
|
||||||
## 📝 训练数据
|
## 📝 训练数据
|
||||||
|
|
||||||
|
|||||||
Reference in New Issue
Block a user