2.3 生成式模型实战:古诗词的生成

为了验证安装情况,本节准备了一段实战代码供读者学习,首先读者需要打开CMD窗口安装一个本实战所需要的类库transformers,安装命令如下:

     pip install transformers

之后在PyCharm中直接打开作者提供的Peom代码文件:

     from transformers import BertTokenizer, GPT2LMHeadModel,TextGenerationPipeline
     tokenizer = BertTokenizer.from_pretrained("uer/gpt2-chinese-poem")
     model = GPT2LMHeadModel.from_pretrained("uer/gpt2-chinese-poem")
     text_generator = TextGenerationPipeline(model, tokenizer)
     result = text_generator("[CLS] 万 叠 春 山 积 雨 晴 ,", max_length=50, do_sample=True)
     print(result)

这里需要提示一下,在上述代码段中,“[CLS]万叠春山积雨晴”是起始内容,然后根据所输入的起始内容输出后续的诗句,当然读者也可以自定义起始句子,如图2-23所示。

图2-23 根据输入的起始内容输出后续的诗句