- 从零开始大模型开发与微调:基于PyTorch与ChatGLM
- 王晓华
- 218字
- 2024-12-31 17:37:14
2.3 生成式模型实战:古诗词的生成
为了验证安装情况,本节准备了一段实战代码供读者学习,首先读者需要打开CMD窗口安装一个本实战所需要的类库transformers,安装命令如下:
pip install transformers
之后在PyCharm中直接打开作者提供的Peom代码文件:
from transformers import BertTokenizer, GPT2LMHeadModel,TextGenerationPipeline tokenizer = BertTokenizer.from_pretrained("uer/gpt2-chinese-poem") model = GPT2LMHeadModel.from_pretrained("uer/gpt2-chinese-poem") text_generator = TextGenerationPipeline(model, tokenizer) result = text_generator("[CLS] 万 叠 春 山 积 雨 晴 ,", max_length=50, do_sample=True) print(result)
这里需要提示一下,在上述代码段中,“[CLS]万叠春山积雨晴”是起始内容,然后根据所输入的起始内容输出后续的诗句,当然读者也可以自定义起始句子,如图2-23所示。
图2-23 根据输入的起始内容输出后续的诗句