CN113312448B - 一种诗歌生成方法、系统及可读存储介质 - Google Patents
一种诗歌生成方法、系统及可读存储介质 Download PDFInfo
- Publication number
- CN113312448B CN113312448B CN202110363291.0A CN202110363291A CN113312448B CN 113312448 B CN113312448 B CN 113312448B CN 202110363291 A CN202110363291 A CN 202110363291A CN 113312448 B CN113312448 B CN 113312448B
- Authority
- CN
- China
- Prior art keywords
- poetry
- candidate
- target
- word
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种诗歌生成方法、系统及可读存储介质,涉及AI自然语言处理领域。本发明提供了一种诗歌生成方法,所述方法包括:获取待生成的目标诗歌的主题信息;获取待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;将所述主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌。用户输入用于生成诗歌的主题信息以及诗歌的类型信息,本方案能够根据输入的信息,自动生成符合要求的诗歌;并且,诗歌生成过程中,采用全局最优算法来对解码结果进行优化,防止出现局部最优解,从而实现改善诗歌质量的作用。
Description
技术领域
本发明涉及AI自然语言处理领域,特别涉及一种诗歌生成方法、系统及可读存储介质。
背景技术
AI(人工智能)作为一门新兴科学技术,可以利用深度学习网络,通过海量的数据进行训练以达到自动学习的目的。当前,人工智能写诗便是在教育领域用于辅助教学的一种实际应用,AI+学科融合,既可让学生在实际案例中学习到人工智能的知识,同时可以学习到作诗的乐趣,提高文学水平,这种寓教于乐的方式必定会大受欢迎。因此,如何根据用户提供的诗歌主题等信息,自动生成高质量的诗歌,是本领域技术人员关注的焦点。
发明内容
本发明提供一种根据诗歌主题、类型,自动生成高质量的诗歌的方法、系统及可读存储介质,本发明的方案如下:
第一方面,本发明提供了一种诗歌生成方法,所述方法包括:
获取待生成的目标诗歌的主题信息;
获取待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;
将所述主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌。
其中,所述将所述主题信息以及所述类型信息输入AI写诗模型,生成目标诗歌,包括:
将所述主题信息和所述类型信息按预定的规则预处理成输入序列,而后输入AI写诗模型进行预测,生成候选诗歌;
计算每个候选诗歌的输出概率,选取最大输出概率的候选诗歌作为目标诗歌。
其中,所述将输入序列输入到AI写诗模型进行预测,生成候选诗歌的具体方法包括:
将所述输入序列按字进行切分,构建出多个不同长度的子输入序列;
分别将每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,将所述输出的字加入到对应的子输入序列中作为新的输入预测下一个输出的字,直至预测出目标诗歌最后一个字,生成候选诗歌。
其中,将每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,具体包括:
将子输入序列输入编码网络以及解码网络,输出当前时刻输出概率topN的字构成概率候选集,而后,将当前时刻的概率候选集作为输入,输出下一时刻输出概率topN的字构成概率候选集,重复以上步骤,直至输出候选诗歌最后一个字对应的概率候选集。
其中,所述计算每个候选诗歌的输出概率,选取最大输出概率的候选诗歌作为目标诗歌,包括:
将候选诗歌中预测每个字的输出概率进行累加,累加结果作为该候选诗歌的输出概率。
其中,所述AI写诗模型包括:
词嵌入网络,用于将输入序列处理成词向量;
编码网络,用于将所述词向量处理成表征向量;
解码网络,用于将所述表征向量进行解码,所述解码过程采用全局最优算法寻找出最优解,作为输出的目标诗歌。
第二方面,本发明提供一种诗歌生成系统,包括:
第一输入模块,用于获取待生成的目标诗歌的主题信息;
第二输入模块,用于获取待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;
诗歌生成模块,用于将所述主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌。
第三方面,本发明还提供一种可读存储介质,包括处理器,所述处理器用于加载并执行存储介质中的指令以实现上述的诗歌生成方法。
本发明的有益效果如下:
用户输入用于生成诗歌的主题信息以及诗歌的类型信息,本方案能够根据输入的信息,自动生成符合要求的诗歌;并且,诗歌生成过程中,采用全局最优算法来对解码结果进行优化,防止出现局部最优解,从而实现改善诗歌质量的作用。
附图说明
图1为本发明实施例提供的诗歌生成方法的流程图;
图2为本发明实施例诗歌生成方法技术路径示意图;
图3为本发明实施例中AI写诗模型解码网络结构示意图;
图4为本发明实施例中输入序列引入解码优化器后输入输出过程示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本发明,但并不构成对本发明的限定。此外,下面所描述的本发明各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。
参见图1及图2,对本发明一种实施例提供一种诗歌生成方法,所述方法包括:
S1:获取待生成的目标诗歌的主题信息,本实施例中,用户键入的目标诗歌的主题为“夏竹”。
S2:获取上述步骤中的待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;本实施例中,用户所要创作的的诗歌类型为“七言绝句”,由此,便限定了诗歌的格律以及词牌。
S3:将前文确定下的主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌。
其中,上文中所述的将所述主题信息以及所述类型信息输入AI写诗模型,生成目标诗歌,具体实现步骤包括:
S31:将所述主题信息和所述类型信息按预定的规则预处理成输入序列,本实施例中,首先将主题信息以及类型信息进行拼接,生成一个句子“夏荷七言绝句”,而后输入AI写诗模型进行预测,生成候选诗歌;
其中,以上步骤中将输入序列输入到AI写诗模型进行预测,生成候选诗歌的具体方法包括:
S32:将所述输入序列按字进行切分,构建出多个不同长度的子输入序列;切分后的子输入序列分别为:“夏”、“夏荷”、“夏荷七”、“夏荷七言”、“夏荷七言绝”、“夏荷七言绝句”这几组。
S33:分别将上述列出的每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,将所述输出的字加入到对应的子输入序列中作为新的输入预测下一个输出的字,直至预测出目标诗歌最后一个字,生成候选诗歌。
其中,以上步骤中,将每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,具体包括:
将子输入序列输入编码网络以及解码网络,输出当前时刻输出概率topN的字构成概率候选集,而后,将当前时刻的概率候选集作为输入,输出下一时刻输出概率topN的字构成概率候选集,重复以上步骤,直至输出候选诗歌最后一个字对应的概率候选集。本实施例中,输出概率为:将候选诗歌中预测每个字的输出概率进行累加,累加结果作为该候选诗歌的输出概率。其中,该步骤中N取值为20。
S34:计算每个候选诗歌的输出概率,选取最大输出概率的候选诗歌作为目标诗歌。
本发明实施例中,预训练AI写诗模型包括:
词嵌入网络,用于将输入序列处理成词向量;本实施例中采用bert的tokenizer进行向量化处理;
编码网络,用于将所述词向量处理成表征向量;这里使用的是Roberta-WWM预训练模型,经过编码器处理后的句子会生成一个表征向量;
解码网络参见图3,用于将所述表征向量进行解码,所述解码过程采用全局最优算法寻找出最优解,作为输出的目标诗歌。
其中,解码网络可以选用transformer,上一时刻的结果Si-1以及中间时态作为输入,经过解码网络后输出下一时刻预测的结果Si,即Si-1紧跟其后的词。上述解码过程引入解码优化器进行优化,可以选用搜索算法beam search来实现,具体为,在第一个时间步长,即第一字的预测,选取当前条件概率最大的N个词,即输出概率topN的字,当做候选输出序列的第一个词。之后的每个时间步长,基于上个步长的输出序列,挑选出所有组合中条件概率最大的N个,作为该时间步长下的候选输出序列。始终保持N个候选。最后从N个候选中挑出最优的。
上述步骤参见图4,输入序列o经过预测后,第一个时间步长输出“A、B、C、D、E”,选取top2的输出概率的2个词“A、C”,构成概率候选集,将当前时刻的概率候选集“A、C”作为输入,加入中间时态向量,输出下一时间步长的结果,选取top2的输出概率的2个词“B、E”,加入中间时态向量,此时的候选输出序列为“AB、CE”,构成概率候选集,重复上述步骤,直至最后一个时间步长的输出。
在另一个实施例中,本发明提供一种诗歌生成系统,包括:
第一输入模块,用于获取待生成的目标诗歌的主题信息;
第二输入模块,用于获取待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;
诗歌生成模块,用于将所述主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌。
在另一个实施例中,本发明还提供一种可读存储介质,包括处理器,所述处理器用于加载并执行存储介质中的指令以实现上述的诗歌生成方法。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。
Claims (6)
1.一种诗歌生成方法,其特征在于:所述方法包括:
获取待生成的目标诗歌的主题信息;
获取待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;
将所述主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌;
其中,
所述将所述主题信息以及所述类型信息输入AI写诗模型,生成目标诗歌,包括:
将所述主题信息和所述类型信息按预定的规则预处理成输入序列,而后输入AI写诗模型进行预测,生成候选诗歌;
计算每个候选诗歌的输出概率,选取最大输出概率的候选诗歌作为目标诗歌;
所述将输入序列输入到AI写诗模型进行预测,生成候选诗歌的具体方法包括:
将所述输入序列按字进行切分,构建出多个不同长度的子输入序列;
分别将每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,将所述输出的字加入到对应的子输入序列中作为新的输入预测下一个输出的字,直至预测出目标诗歌最后一个字,生成候选诗歌。
2.如权利要求1所述的一种诗歌生成方法,其特征在于:将每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,具体包括:
将子输入序列输入编码网络以及解码网络,输出当前时刻输出概率topN的字构成概率候选集,而后,将当前时刻的概率候选集作为输入,输出下一时刻输出概率topN的字构成概率候选集,重复以上步骤,直至输出候选诗歌最后一个字对应的概率候选集。
3.如权利要求1所述的一种诗歌生成方法,其特征在于:所述计算每个候选诗歌的输出概率,选取最大输出概率的候选诗歌作为目标诗歌,包括:
将候选诗歌中预测每个字的输出概率进行累加,累加结果作为该候选诗歌的输出概率。
4.如权利要求1所述的一种诗歌生成方法,其特征在于:所述AI写诗模型包括:
词嵌入网络,用于将输入序列处理成词向量;
编码网络,用于将所述词向量处理成表征向量;
解码网络,用于将所述表征向量进行解码,所述解码过程采用全局最优算法寻找出最优解,作为输出的目标诗歌。
5.一种诗歌生成系统,其特征在于,包括:
第一输入模块,用于获取待生成的目标诗歌的主题信息;
第二输入模块,用于获取待生成的目标诗歌的类型信息,所述类型信息包括诗歌的格律或词牌信息;
诗歌生成模块,用于将所述主题信息以及所述类型信息输入预训练AI写诗模型,生成目标诗歌;
所述诗歌生成模块包括:
第一子模块,用于将所述主题信息和所述类型信息按预定的规则预处理成输入序列,而后输入AI写诗模型进行预测,生成候选诗歌;
第二子模块,用于计算每个候选诗歌的输出概率,选取最大输出概率的候选诗歌作为目标诗歌;
所述第一子模块包括:
第一层,用于将所述输入序列按字进行切分,构建出多个不同长度的子输入序列;
第二层,用于分别将每个子输入序列依次输入编码网络以及解码网络进行预测下一个输出的字,将所述输出的字加入到对应的子输入序列中作为新的输入预测下一个输出的字,直至预测出目标诗歌最后一个字,生成候选诗歌。
6.一种可读存储介质,其特征在于,包括处理器,所述处理器用于加载并执行存储介质中的指令以实现权利要求1至4中任一权利要求所述的诗歌生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110363291.0A CN113312448B (zh) | 2021-04-02 | 2021-04-02 | 一种诗歌生成方法、系统及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110363291.0A CN113312448B (zh) | 2021-04-02 | 2021-04-02 | 一种诗歌生成方法、系统及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113312448A CN113312448A (zh) | 2021-08-27 |
CN113312448B true CN113312448B (zh) | 2022-11-08 |
Family
ID=77372098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110363291.0A Active CN113312448B (zh) | 2021-04-02 | 2021-04-02 | 一种诗歌生成方法、系统及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113312448B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114021545A (zh) * | 2022-01-05 | 2022-02-08 | 北京智源悟道科技有限公司 | 自动作诗语言模型训练方法、装置、自动作诗方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108415893A (zh) * | 2018-03-15 | 2018-08-17 | 平安科技(深圳)有限公司 | 诗歌自动生成方法、装置、计算机设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273487A (zh) * | 2017-06-13 | 2017-10-20 | 北京百度网讯科技有限公司 | 基于人工智能的聊天数据的生成方法、装置及计算机设备 |
CN110362696A (zh) * | 2019-06-11 | 2019-10-22 | 平安科技(深圳)有限公司 | 歌词生成方法、系统、计算机设备及计算机可读存储介质 |
CN110705284B (zh) * | 2019-09-19 | 2023-04-07 | 思必驰科技股份有限公司 | 基于神经网络生成模型的诗词生成质量的优化方法及系统 |
-
2021
- 2021-04-02 CN CN202110363291.0A patent/CN113312448B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108415893A (zh) * | 2018-03-15 | 2018-08-17 | 平安科技(深圳)有限公司 | 诗歌自动生成方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113312448A (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110337B (zh) | 翻译模型训练方法、介质、装置和计算设备 | |
CN113158665B (zh) | 一种基于文本摘要生成与双向语料改善对话文本生成的方法 | |
CN110134968B (zh) | 基于深度学习的诗歌生成方法、装置、设备及存储介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN112699216A (zh) | 端到端的语言模型预训练方法、系统、设备及存储介质 | |
CN111460800A (zh) | 一种事件生成方法、装置、终端设备及存储介质 | |
CN112395842B (zh) | 一种提高内容一致性的长文本故事生成方法及系统 | |
CN115687638A (zh) | 基于三元组森林的实体关系联合抽取方法及系统 | |
CN113312448B (zh) | 一种诗歌生成方法、系统及可读存储介质 | |
CN115906815A (zh) | 一种用于修改一种或多种类型错误句子的纠错方法及装置 | |
Alkhaldi et al. | Flexibly focusing on supporting facts, using bridge links, and jointly training specialized modules for multi-hop question answering | |
CN112530401B (zh) | 一种语音合成方法、系统及装置 | |
CN117194619A (zh) | 基于历史位置编码的多轮对话问答方法及系统 | |
CN114997143B (zh) | 文本生成模型训练方法和系统、文本生成方法及存储介质 | |
CN114707523B (zh) | 基于交互式Transformer的图像-多语言字幕转换方法 | |
CN112464673B (zh) | 融合义原信息的语言含义理解方法 | |
CN114626529A (zh) | 一种自然语言推理微调方法、系统、装置及存储介质 | |
CN113160801B (zh) | 语音识别方法、装置以及计算机可读存储介质 | |
Han et al. | Improving low-latency predictions in multi-exit neural networks via block-dependent losses | |
CN115114930A (zh) | 一种基于序列到森林的非连续实体识别方法 | |
CN114372140A (zh) | 分层会议摘要生成模型训练方法、生成方法及装置 | |
Lee et al. | Machine reading comprehension framework based on self-training for domain adaptation | |
CN115270795A (zh) | 一种基于小样本学习的环评领域命名实体识别技术 | |
CN111126047B (zh) | 一种同义文本生成的方法及装置 | |
CN114238549A (zh) | 文本生成模型的训练方法、装置、存储介质及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |