CN105955964A - 一种自动生成诗歌的方法和装置 - Google Patents

一种自动生成诗歌的方法和装置 Download PDF

Info

Publication number
CN105955964A
CN105955964A CN201610421291.0A CN201610421291A CN105955964A CN 105955964 A CN105955964 A CN 105955964A CN 201610421291 A CN201610421291 A CN 201610421291A CN 105955964 A CN105955964 A CN 105955964A
Authority
CN
China
Prior art keywords
poem
verse
generated
descriptor
existing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610421291.0A
Other languages
English (en)
Other versions
CN105955964B (zh
Inventor
王哲
和为
伍海洋
李伟
何中军
胡晓光
吴华
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201610421291.0A priority Critical patent/CN105955964B/zh
Publication of CN105955964A publication Critical patent/CN105955964A/zh
Application granted granted Critical
Publication of CN105955964B publication Critical patent/CN105955964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing

Abstract

本发明的目的是提供一种自动生成诗歌的方法和装置;获取待生成诗歌对应的诗歌体裁及分别针对待生成诗歌中的每一句待生成诗句选择的主题词;根据诗歌体裁,确定基于注意力机制的诗歌模型;根据待生成诗句对应的主题词,及在生成待生成诗句之前已生成的所有历史参考诗句,利用诗歌模型,生成待生成诗句;将上述生成的待生成诗句作为历史参考诗句;重复执行该生成待生成诗句和将其作为历史参考诗句的操作,直至生成待生成诗歌。与现有技术相比,本发明为每句待生成诗句分配主题词,使主题词参与整个待生成诗歌的生成过程中,生成每句待生成诗歌的时候,利用该待生成诗歌中已生成的所有诗句,从而提高了诗句之间的逻辑关联性,提升了用户的使用体验。

Description

一种自动生成诗歌的方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种自动生成诗歌的技术。
背景技术
汉语古典诗词作为中国悠久灿烂的古典文学的组成部分,兼有中文的美感和艺术的灵感。根据给定的主题词,生成和主题词相关、符合诗词格律要求、流畅自然的诗歌是一个非常有挑战的技术问题。
现有的生成诗歌的技术主要基于统计翻译模型。具体地,为了生成首句诗,首先获取和输入主题词相关的词,得到一个词的候选列表,然后对这些词进行排列组合,筛选出符合平仄的候选诗句,接着用语言模型进行打分,选择得分最高的句子,作为首句诗;将首句诗作为源语言,待生成的诗作为目标语言,利用统计翻译模型并结合语言模型得分等特征,得到下一句诗;重复这个翻译过程,直到生成最后一句诗。
然而,这种基于统计翻译模型的诗歌生成技术,有如下缺陷:
1)主题词只用于生成第一句诗,因此整首诗和主题词的相关性难以保证;
2)主题词必须在指定的主题词词表中,无法处理人名地名等可能不在词表中的主题词;
3)每句诗生成的时候,只能利用上一句诗的信息,而无法利用之前已经生成的所有诗句的信息,因此导致诗句之间的逻辑关联性不强;
4)需要人工规则约束押韵等格律要求,而不同体裁的诗歌有不同的格律要求,因此需要大量的领域知识和人工参与。
因此,如何有效根据诗歌体裁和主题词自动生成诗歌,加强主题词与诗歌之间的相关性,加强诗句之间的逻辑关联性,成为本领域技术人员亟需解决的问题之一。
发明内容
本发明的目的是提供一种自动生成诗歌的方法和装置。
根据本发明的一个方面,提供了一种自动生成诗歌的方法,其中,该方法包括以下步骤:
a获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;
b根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;
c根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;
d将步骤c中所生成的待生成诗句作为所述历史参考诗句;
e重复所述步骤c和d,直至生成所述待生成诗歌。
优选地,所述步骤c还包括:
若所述待生成诗句为所述待生成诗歌的首句诗句,则根据所述待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与所述待生成诗歌相关的参考诗歌;
自所述参考诗歌中选择一句作为所述首句诗句所对应的历史参考诗句。
优选地,所述步骤c中利用所述诗歌模型生成所述待生成诗句的操作包括:
j将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至向量空间;
k对所述向量空间进行动态解码,以生成所述待生成诗句。
更优选地,所述步骤j包括:
利用双向长短期记忆,将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至所述向量空间;
其中,所述步骤k包括:
利用另一长短期记忆,对所述向量空间进行动态解码,以生成所述待生成诗句。
优选地,该方法还包括:
x利用已知体裁的现有诗歌构造训练样本;
y利用所述训练样本来训练对应所述已知体裁的基于注意力机制的诗歌模型。
更优选地,所述步骤x包括:
为所述现有诗歌的每一句现有诗句确定主题词;
若所述现有诗句为首句诗句,则将所述首句诗句所对应的主题词及自所述现有诗歌中任选一句作为用于训练所述诗歌模型的输入样本,将所述现有诗句作为输出样本;
若所述现有诗句非首句诗句,则将所述现有诗句所对应的主题词及所述现有诗歌中在所述现有诗句之前的所有诗句作为所述输入样本,将所述现有诗句作为输出样本。
优选地,所述基于注意力机制的诗歌模型为字符级别。
根据本发明的另一个方面,还提供了一种自动生成诗歌的生成装置,其中,该生成装置包括:
获取装置,用于获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;
确定装置,用于根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;
诗句生成装置,用于根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;
参考装置,用于将所述诗句生成装置所生成的待生成诗句作为所述历史参考诗句;
诗歌生成装置,用于指示所述诗句生成装置和所述参考装置重复执行其操作,直至生成所述待生成诗歌。
优选地,所述诗句生成装置还用于:
若所述待生成诗句为所述待生成诗歌的首句诗句,则根据所述待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与所述待生成诗歌相关的参考诗歌;
自所述参考诗歌中选择一句作为所述首句诗句所对应的历史参考诗句。
优选地,所述诗句生成装置包括:
映射单元,用于将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至向量空间;
解码单元,用于对所述向量空间进行动态解码,以生成所述待生成诗句。
更优选地,所述映射单元用于:
利用双向长短期记忆,将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至所述向量空间;
其中,所述解码单元用于:
利用另一长短期记忆,对所述向量空间进行动态解码,以生成所述待生成诗句。
优选地,该生成装置还包括:
样本构造装置,用于利用已知体裁的现有诗歌构造训练样本;
模型训练装置,用于利用所述训练样本来训练对应所述已知体裁的基于注意力机制的诗歌模型。
更优选地,所述样本构造装置用于:
为所述现有诗歌的每一句现有诗句确定主题词;
若所述现有诗句为首句诗句,则将所述首句诗句所对应的主题词及自所述现有诗歌中任选一句作为用于训练所述诗歌模型的输入样本,将所述现有诗句作为输出样本;
若所述现有诗句非首句诗句,则将所述现有诗句所对应的主题词及所述现有诗歌中在所述现有诗句之前的所有诗句作为所述输入样本,将所述现有诗句作为输出样本。
优选地,所述基于注意力机制的诗歌模型为字符级别。
与现有技术相比,本发明通过为每句待生成诗句分配主题词,使主题词不仅影响第一句待生成诗句的生成,也参与到后续整个待生成诗歌的生成过程中,从而使生成诗歌与主题词的相关性更强,并且,生成每句待生成诗歌的时候,利用该待生成诗歌中已生成的所有诗句,从而提高了诗句之间的逻辑关联性,提升了用户的使用体验。
进一步地,本发明还采用了首句诗的检索辅助策略,对于首句诗句,根据待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与该待生成诗歌相关的参考诗歌,自该参考诗歌中选择一句作为该首句诗句所对应的历史参考诗句,参与到生成该首句诗句的过程中,使得首句诗句的生成更合理,进一步提升了用户的使用体验。
进一步地,本发明利用基于RNN(Recurrent Neural Network,递归神经网络)的编解码深度学习网络,通过将主题词和之前生成的历史参考诗句按照语序循环映射的方式,映射到一个向量空间中,然后通过对这个向量空间进行动态解码,来完成后续的诗歌的生成。
进一步地,本发明中基于注意力机制的诗歌模型为字符级别,解决了现有技术中无法根据人名地名等可能不在词表的主题词生成诗句的问题,进一步提升了用户的使用体验。
进一步地,本发明中的基于注意力机制的诗歌模型,根据现有诗歌,自动学习格律要求,而不需要相关的领域知识和人工参与,只需要提供指定诗歌体裁的诗歌语料,就可以直接学习生成该诗歌体裁的诗歌。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本发明一个方面的用于自动生成诗歌的生成装置的结构示意图;
图2示出根据本发明一个实施例的用于自动生成诗歌的示意图;
图3示出根据本发明另一个方面的用于自动生成诗歌的方法的流程示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
在上下文中所称“计算机设备”,也称为“电脑”,是指可以通过运行预定程序或指令来执行数值计算和/或逻辑计算等预定处理过程的智能电子设备,其可以包括处理器与存储器,由处理器执行在存储器中预存的存续指令来执行预定处理过程,或是由ASIC、FPGA、DSP等硬件执行预定处理过程,或是由上述二者组合来实现。计算机设备包括但不限于服务器、个人电脑、笔记本电脑、平板电脑、智能手机等。
所述计算机设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能手机、PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Computing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。其中,所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备和网络等仅为举例,其他现有的或今后可能出现的计算机设备或网络如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
后面所讨论的方法(其中一些通过流程图示出)可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本发明的示例性实施例的目的。但是本发明可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。与此相对,当一个单元被称为“直接连接”或“直接耦合”到另一单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
还应当提到的是,在一些替换实现方式中,所提到的功能/动作可以按照不同于附图中标示的顺序发生。举例来说,取决于所涉及的功能/动作,相继示出的两幅图实际上可以基本上同时执行或者有时可以按照相反的顺序来执行。
下面结合附图对本发明作进一步详细描述。需要说明的是在不冲突的情况下,本申请中的实施例及实施例特征可以相互组合。
图1示出根据本发明一个方面的用于自动生成诗歌的生成装置的结构示意图。
该生成装置1包括获取装置101、确定装置102、诗句生成装置103、参考装置104和诗歌生成装置105。
以下以该生成装置1位于网络设备中为例进行详细描述,该生成装置1与用户设备通过网络相连接,获取该用户设备所发送的待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;将上述操作中所生成的待生成诗句作为所述历史参考诗句;重复执行该生成待生成诗句和将生成的待生成诗句作为历史参考诗句的操作,直至生成所述待生成诗歌。
在此,所述用户设备包括但不限于个人电脑、笔记本电脑、平板电脑、智能手机、PDA等,用户通过该用户设备,输入待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词,以便生成装置1通过该用户设备获取所述诗歌体裁及主题词,从而为该用户生成待生成诗歌。所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算的由大量计算机或网络服务器构成的云。
其中,获取装置101获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词。
具体地,为生成一首待生成诗歌,可以为该待生成诗歌确定一种诗歌体裁,例如,五言绝句、七言绝句、五言律诗、七言律诗、或词牌名“浣溪沙”、“一剪梅”、“蝶恋花”等,获取装置101获取该待生成诗歌所对应的诗歌体裁。例如,用户通过与用户设备的交互,在输入框内输入了一种或多种待生成诗歌所对应的诗歌体裁,或者,在提供的选项中选择了一种或多种诗歌体裁,获取装置1例如通过一次或多次调用该用户设备所提供的应用程序接口(API)或其他约定的通信方式,获取该待生成诗歌所对应的诗歌体裁。同样地,为生成该待生成诗歌,还需为该待生成诗歌中的每一句待生成诗句确定一个或多个主题词,以绝句为例,假设每一句仅对应一个主题词,则需要为该绝句确定四个主题词。例如,用户通过与用户设备的交互,首先在输入框内为待生成诗歌选择了一种诗歌体裁为七言绝句,随后,该用户还为该绝句中的每一句待生成诗句选择了一个主题词。该主题词可以是用户通过输入框手动输入的,也可以是在提供的多个主题词中所选择的。
又如,用户通过与用户设备的交互,首先在输入框内为待生成诗歌选择了一种诗歌体裁为五言绝句,随后,该用户还为该五言绝句中的每一句待生成诗句选择了一个主题词,例如,第一句的主题词为“明月”、第二句的主题词为“霜”、第三句的主题词为“举头”、第四句的主题词为“故乡”。获取装置101通过与该用户设备的交互,获取了该待生成诗歌所对应的诗歌体裁为五言绝句,并获取了分别针对该待生成诗歌中的每一句待生成诗句所选择的主题词“明月”、“霜”、“举头”和“故乡”。
本领域技术人员应能理解,上述获取诗歌体裁及主题词的方式仅为举例,其他现有的或者今后可能出现的获取诗歌体裁及主题词的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
确定装置102根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型。
具体地,确定装置102根据获取装置101所获取的待生成诗歌所对应的诗歌体裁,从多种诗歌模型中选择与该诗歌体裁对应的基于注意力机制的诗歌模型。在此,注意力机制的思想是,在每一步中,都让RNN(Recurrent Neural Network,递归神经网络)从一个更大的信息集合中去选择信息。
在此,若获取装置101所获取的诗歌体裁具有多种,例如,用户所输入或选择的诗歌体裁具有多种,则确定装置102确定与该多种诗歌体裁分别对应的多种基于注意力机制的诗歌模型。例如,获取装置101所获取的待生成诗歌所对应的诗歌体裁为七言绝句和七言律诗,则确定装置102基于此,从多种诗歌模型中,例如,从诗歌模型库中,确定与该七言绝句对应的基于注意力机制的诗歌模型以及与该七言律诗对应的基于注意力机制的诗歌模型。
在此,诗歌模型库中存储有多种诗歌模型,每种诗歌模型对应一种诗歌体裁,该诗歌模型例如通过大量该诗歌体裁的现有诗歌训练而成。该诗歌模型库可以位于该网络设备中,也可以位于与该网络设备通过网络相连接的第三方设备中。
本领域技术人员应能理解,上述确定诗歌模型的方式仅为举例,其他现有的或者今后可能出现的确定诗歌模型的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
诗句生成装置103根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句。
具体地,为生成一句待生成诗句,诗句生成装置103根据获取装置101所获取的该待生成诗句所对应的主题词,以及该首待生成诗歌在生成该待生成诗句之前已生成的所有历史参考诗句,利用确定装置102所确定的基于注意力机制的诗歌模型,生成该待生成诗句。
例如,假设该待生成诗句为该首待生成诗歌的第二句,则诗句生成装置103根据该第二句所对应的主题词,以及该首待生成诗歌已生成的第一句,利用该基于注意力机制的诗歌模型,生成该待生成诗句。若该待生成诗句为该首待生成诗歌的第三句,则诗句生成装置103根据该第三句所对应的主题词,以及该首待生成诗歌已生成的第一句和第二句,利用该基于注意力机制的诗歌模型,生成该待生成诗句。
优选地,若所述待生成诗句为所述待生成诗歌的首句诗句,则所述诗句生成装置103根据所述待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与所述待生成诗歌相关的参考诗歌;自所述参考诗歌中选择一句作为所述首句诗句所对应的历史参考诗句。
例如,假设获取装置101所获取的待生成诗歌的诗歌体裁为五言绝句,该五言绝句中的每一句所对应的主题词分别为“明月”、“霜”、“举头”和“故乡”;若想要生成该五言绝句的首句诗句,则该诗句生成装置103根据该五言绝句的所有主题词“明月”、“霜”、“举头”和“故乡”,在诗歌库中进行匹配查询,获得与这些主题词相关的参考诗歌,从而作为与该待生成诗歌相关的参考诗歌,例如按照与这些主题词的匹配程度,确定与该待生成诗歌的相关性,并按照相关性进行排序,选择最相关的一首作为参考诗歌;随后,该诗句生成装置103再自该参考诗歌中选择一句作为该首句诗句所对应的历史参考诗句,例如,从该参考诗歌中任意选择一句作为该首句诗句所对应的历史参考诗句。较佳地,诗句生成装置103将该参考诗歌的第二句作为生成该待生成诗歌的首句诗句所对应的历史参考诗句。这样,诗句生成装置103可以根据该首句诗句对应的主题词,再根据自该参考诗歌中所选择的历史参考诗句,利用该基于注意力机制的诗歌模型,生成该首句诗句。
在此,该参考诗歌例如可以是任意诗歌体裁的现有诗歌,或较佳地,该参考诗歌的诗歌体裁与该待生成诗歌的诗歌体裁一致,如前例中,参考诗歌与该待生成诗歌一样,也是五言绝句。
在此,诗歌库中存储有大量的现有诗歌,较佳地,该诗歌库可以按照现有诗歌的诗歌体裁对这些现有诗歌进行分类存储,从而方便诗句生成装置103从中进行匹配查询。该诗歌库可以位于该网络设备中,也可以位于与该网络设备通过网络相连接的第三方设备中。
本领域技术人员应能理解,上述生成待生成诗句的方式仅为举例,其他现有的或者今后可能出现的生成待生成诗句的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
参考装置104将所述诗句生成装置所生成的待生成诗句作为所述历史参考诗句。
具体地,每当该诗句生成装置103生成了一句待生成诗句,参考装置104即将该已生成的诗句作为历史参考诗句,供该诗句生成装置103生成下一句待生成诗句的时候使用。例如,在当诗句生成装置103生成了待生成诗歌的第三句待生成诗句之后,参考装置104将该第三句作为生成该待生成诗歌的第四句待生成诗句的历史参考诗句,从而,该待生成诗歌中已经生成的第一、二和三句都作为生成该待生成诗歌的第四句待生成诗句的历史参考诗句。
诗歌生成装置105指示所述诗句生成装置103和所述参考装置104重复执行其操作,直至生成所述待生成诗歌。
具体地,诗歌生成装置105指示该所述诗句生成装置103和所述参考装置104循环重复执行其操作,直至生成一首完整的待生成诗歌。
例如,假设获取装置101所获取的待生成诗歌的诗歌体裁为五言绝句,该五言绝句中的每一句所对应的主题词分别为“明月”、“霜”、“举头”和“故乡”;则确定装置102确定对应该五言绝句的基于注意力机制的诗歌模型;诗句生成装置103首先根据该五言绝句的所有主题词“明月”、“霜”、“举头”和“故乡”,在诗歌库中进行匹配查询,获得参考诗歌,并从中选择一句作为生成该待生成的五言绝句的首句诗句的历史参考诗句,例如,在诗歌库中匹配查询得到参考诗歌“静夜思”,并将该“静夜思”的第二句“疑是地上霜”作为生成该待生成的五言绝句的首句诗句的历史参考诗句;从而,诗句生成装置103根据首句诗句的主题词“明月”,及历史参考诗句“疑是地上霜”,生成首句诗句;随后,参考装置104将该首句诗句作为生成该待生成诗歌的第二句的历史参考诗句;诗歌生成装置105指示该诗句生成装置103和该参考装置104重复执行其操作,即,诗句生成装置103继续根据该待生成诗歌的第二句待生成诗句的主题词“霜”及已生成的首句诗句,生成该第二句,参考装置104将该第二句也作为生成该待生成诗歌的第三句的历史参考诗句,从而使得该已生成的第一、二句都成为生成该待生成诗歌的第三句的历史参考诗句;诗歌生成装置105继续指示该诗句生成装置103和该参考装置104重复执行其操作,循环往复,直至完成该五言绝句。
本领域技术人员应能理解,上述生成待生成诗歌的方式仅为举例,其他现有的或者今后可能出现的生成待生成诗歌的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在此,生成装置1获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;将上述操作中生成的待生成诗句作为所述历史参考诗句;重复执行该生成待生成诗句和将生成的待生成诗句作为历史参考诗句的操作,直至生成所述待生成诗歌;通过为每句待生成诗句分配主题词,使主题词不仅影响第一句待生成诗句的生成,也参与到后续整个待生成诗歌的生成过程中,从而使生成诗歌与主题词的相关性更强,并且,生成每句待生成诗歌的时候,利用该待生成诗歌中已生成的所有诗句,从而提高了诗句之间的逻辑关联性,提升了用户的使用体验。
进一步地,生成装置1还采用了首句诗的检索辅助策略,对于首句诗句,根据待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与该待生成诗歌相关的参考诗歌,自该参考诗歌中选择一句作为该首句诗句所对应的历史参考诗句,参与到生成该首句诗句的过程中,使得首句诗句的生成更合理,进一步提升了用户的使用体验。
优选地,所述诗句生成装置103包括映射单元(未示出)和解码单元(未示出)。该映射单元将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至向量空间;解码单元对所述向量空间进行动态解码,以生成所述待生成诗句。
具体地,为生成一句待生成诗句,映射单元将该待生成诗句所对应的主题词,及该待生成诗歌在生成该待生成诗句之前已生成的所有历史参考诗句,按照语序循环映射的方式,映射至向量空间。在此,该诗句生成装置103利用基于注意力机制的编解码模型,基于注意力机制的从序列到序列的学习过程是一个通用的框架。该映射单元进行映射的过程可以理解为一个编码的过程,该主题词及所有历史参考诗句作为该基于注意力机制的编解码模型的输入序列;输入序列在编码部分被转换成由隐含状态组成的序列来表示每一个输入位置的语义含义。
随后,解码单元对该向量空间进行动态解码,以生成所述待生成诗句。上述由隐含状态组成的序列在解码部分被用于生成新的序列,在解码过程的每一步,该基于注意力机制的编解码模型通过比较当前解码状态和编码部分的输入状态,来选择最相关的输入。
更优选地,所述映射单元利用双向长短期记忆,将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至所述向量空间;所述解码单元利用另一长短期记忆,对所述向量空间进行动态解码,以生成所述待生成诗句。
例如,参照图2,定义待生成诗歌有S句待生成诗句,每个待生成诗句分别有一个主题词,第i句的主题词记为Ki。主题词=(K1,K2…Ks)。本领域技术人员应能理解,每个待生成诗句可以有一个或多个主题词,以下仅以一个待生成诗句具有一个主题词为例进行详细描述。
在编码阶段,映射单元将该待生成诗句组成主题词的字和之前生成的所有历史参考诗句的字,按顺序组成一个长度为T的序列,记为X=(x1,x2…,xT)。映射单元利用一个双向长短期记忆(long short-termmemory,LSTM)作为编码器,将该长度为T的序列转换成一组隐状态(h1,h2,…,hT)。在此,该双向LSTM包含了两个LSTM结构,该两个LSTM分别对输入序列进行正向和反向编码,LSTM结构有助于记住更长的历史信息。
在解码阶段,解码单元使用了另外一个LSTM,其包含了内部状态向量st,在生成第t个字的时候,会计算得到一个包含历史信息的向量ct,最可能生成的字yt是基于st得到的。公式如下:
yt=argmaxp(y|st,ct,yt-1)
每一步生成yt以后,会对st进行更新,公式如下:
s t = f ( s t - 1 , [ c t - 1 T , y t - 1 T ] T )
其中激活函数f是一个LSTM。历史信息向量ct用于在生成过程中表示输入序列的语义信息,它由输入序列的状态得到。公式如下:
c t = Σ j = 1 a tj h j
hj是第j个输入字符被编码以后的状态,aij是在hj分配的注意力得分,它的计算公式如下:
a i j = exp ( e i j ) Σ k = 1 T x exp ( e i k )
e i j = v a T tanh ( W a s i - 1 + U a h j )
其中va、W和U为需要在训练过程中更新的参数矩阵。
在此,LSTM是一种特殊的RNN,其在设计上明确地避免了长期依赖的问题,可以记住长期信息。所有的RNN都有着重复的神经网络模块形成链的形式。在普通的RNN中,重复模块结构非常简单,例如只有一个tanh层。LSTM也有这种链状结构,不过其重复模块的结构不同。LSTM的重复模块中有4个神经网络层,并且他们之间的交互非常特别。
本领域技术人员应能理解,上述生成待生成诗句的方式仅为举例,其他现有的或者今后可能出现的生成待生成诗句的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在此,生成装置1利用基于RNN的编解码深度学习网络,通过将主题词和之前生成的历史参考诗句按照语序循环映射的方式,映射到一个向量空间中,然后通过对这个向量空间进行动态解码,来完成后续的诗歌的生成。
优选地,所述基于注意力机制的诗歌模型为字符级别。
具体地,该基于注意力机制的诗歌模型为字符级别,使用字符级别的模型,可以处理未知关键词。如前例中所述,在编码阶段,映射单元将待生成诗句组成主题词的字和之前生成的所有历史参考诗句的字,按顺序组成一个长度为T的序列,作为该基于注意力机制的诗歌模型的输入。该字符级别的基于注意力机制的诗歌模型采用逐字输入的模式,生成待生成诗句。
在此,基于注意力机制的诗歌模型为字符级别,解决了现有技术中无法根据人名地名等可能不在词表的主题词生成诗句的问题,进一步提升了用户的使用体验。
一优选实施例中,该生成装置1还包括样本构造装置(未示出)和模型训练装置(未示出)。该样本构造装置利用已知体裁的现有诗歌构造训练样本;模型训练装置利用所述训练样本来训练对应所述已知体裁的基于注意力机制的诗歌模型。
具体地,为了能够训练出所设计的基于注意力机制的诗歌模型,也即,为了能够训练出深度学习网络的参数,需要给该深度学习网络准备样本数据,该深度学习网络的训练算法,通过这些样本数据来学习出网络参数。大量现有诗歌都是具有固定诗歌体裁的,这些现有诗歌的体裁都是已知的,例如,五言绝句、七言绝句、五言律诗、七言律诗、或词牌名“浣溪沙”、“一剪梅”、“蝶恋花”等。样本构造装置利用这些已知体裁的现有诗歌来构造训练样本,例如,构造用于训练该基于注意力机制的诗歌模型的输入样本、输出样本等。例如,由M个<X,Y>对组成该训练样本,M对取值一般要尽可能大,<X,Y>由现有诗歌的语料构造得到。
接着,模型训练装置利用样本构造装置所构造的训练样本,训练对应该已知体裁的基于注意力机制的诗歌模型。例如,样本构造装置根据大量现有的五言绝句,构造了用于训练五言绝句对应的诗歌模型的训练样本。
优选地,所述样本构造装置为所述现有诗歌的每一句现有诗句确定主题词;若所述现有诗句为首句诗句,则将所述首句诗句所对应的主题词及自所述现有诗歌中任选一句作为用于训练所述诗歌模型的输入样本,将所述现有诗句作为输出样本;若所述现有诗句非首句诗句,则将所述现有诗句所对应的主题词及所述现有诗歌中在所述现有诗句之前的所有诗句作为所述输入样本,将所述现有诗句作为输出样本。
具体地,为了利用已知体裁的现有诗歌构造训练样本,样本构造装置为这些已知体裁的现有诗歌中的每一句现有诗句确定主题词。以李白的“静夜思”为例,该诗为五言绝句,样本构造装置为该五言绝句的每一句确定主题词,如,将第一句的主题词确定为“明月”,将第二句的主题词确定为“霜”,将第三句的主题词确定为“举头”,将第四句的主题词确定为“故乡”。
对于该现有诗歌“静夜思”,其中的首句诗句为“床前明月光”,则样本构造装置可以直接将该首句诗句对应的主题词“明月”作为用于训练该诗歌模型的输入样本,或较佳地,样本构造装置将该首句诗句所对应的主题词“明月”及自该“静夜思”中任选一句作为用于训练该诗歌模型的输入样本,将该首句诗句作为输出样本。例如,样本构造装置将首句诗句的主题词“明月”和“静夜思”中的第三句“举头望明月”作为输入样本,将首句诗句“床前明月光”作为输出样本。在此,样本构造装置可以自现有诗歌中任意选择一句作为输入样本,也可以跟前述诗句生成装置103一致,例如,诗句生成装置103从参考诗歌中选择第二句作为生成待生成诗歌的首句诗句所对应的历史参考诗句,则针对现有诗歌的首句诗句的样本构造,样本构造装置也将该现有诗歌的第二句,结合该现有诗歌的首句诗句的主题词,作为训练该诗歌模型的输入样本。
针对现有诗歌的非首句诗句,则样本构造装置将该非首句诗句的现有诗句所对应的主题词及该现有诗歌中在该现有诗句之前的所有诗句作为用于训练该诗歌模型的输入样本,将该现有诗句作为输出样本。
还是以现有诗歌“静夜思”为例,针对其中的第二句“疑是地上霜”,样本构造装置将该第二句的主题词“霜”及第一句“床前明月光”作为输入样本,将该第二句“疑是地上霜”作为输出样本;针对其中的第三句“举头望明月”,样本构造装置将该第三句的主题词“举头”及第一、二句“床前明月光疑是地上霜”作为输入样本,将该第三句“举头望明月”作为输出样本;针对其中的第四句“低头思故乡”,样本构造装置将该第四句的主题词“故乡”及第一、二、三句“床前明月光疑是地上霜举头望明月”作为输入样本,将该第四句“低头思故乡”作为输出样本。
上述以“静夜思”为例来说明的训练样本的构造过程可以以如下的表格表示,其中,由于“静夜思”这首诗一共由4句现有诗句组成,可以产生4个<X,Y>样本。样本构造装置从每句现有诗句中取一个词,作为主题词如下:
主题词 诗句
明月 床前明月光
疑是地上霜
举头 举头望明月
故乡 低头思故乡
每一句现有诗句得到的训练样本如下:
X Y
明月疑是地上霜 床前明月光
霜床前明月光 疑是地上霜
举头床前明月光疑是地上霜 举头望明月
故乡床前明月光疑是地上霜举头望明月 低头思故乡
在此,X由主题词和该现有诗歌中该现有诗句之前的所有诗句组成。由于生成第一诗句的时候,没有之前的诗句,因此X由主题词和从该现有诗歌中任选一句现有诗句组成,在此,选择该现有诗歌中的第二句现有诗句。
在此,该基于注意力机制的诗歌模型,根据现有诗歌,自动学习格律要求,而不需要相关的领域知识和人工参与,只需要提供指定诗歌体裁的诗歌语料,就可以直接学习生成该诗歌体裁的诗歌。
本领域技术人员应能理解,上述构造训练样本的方式仅为举例,其他现有的或者今后可能出现的构造训练样本的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
图3示出根据本发明另一个方面的用于自动生成诗歌的方法的流程示意图。
在步骤S301中,生成装置1获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词。
具体地,为生成一首待生成诗歌,可以为该待生成诗歌确定一种诗歌体裁,例如,五言绝句、七言绝句、五言律诗、七言律诗、或词牌名“浣溪沙”、“一剪梅”、“蝶恋花”等,在步骤S301中,生成装置1获取该待生成诗歌所对应的诗歌体裁。例如,用户通过与用户设备的交互,在输入框内输入了一种或多种待生成诗歌所对应的诗歌体裁,或者,在提供的选项中选择了一种或多种诗歌体裁,在步骤S301中,生成装置1例如通过一次或多次调用该用户设备所提供的应用程序接口(API)或其他约定的通信方式,获取该待生成诗歌所对应的诗歌体裁。同样地,为生成该待生成诗歌,还需为该待生成诗歌中的每一句待生成诗句确定一个或多个主题词,以绝句为例,假设每一句仅对应一个主题词,则需要为该绝句确定四个主题词。例如,用户通过与用户设备的交互,首先在输入框内为待生成诗歌选择了一种诗歌体裁为七言绝句,随后,该用户还为该绝句中的每一句待生成诗句选择了一个主题词。该主题词可以是用户通过输入框手动输入的,也可以是在提供的多个主题词中所选择的。
又如,用户通过与用户设备的交互,首先在输入框内为待生成诗歌选择了一种诗歌体裁为五言绝句,随后,该用户还为该五言绝句中的每一句待生成诗句选择了一个主题词,例如,第一句的主题词为“明月”、第二句的主题词为“霜”、第三句的主题词为“举头”、第四句的主题词为“故乡”。在步骤S301中,生成装置1通过与该用户设备的交互,获取了该待生成诗歌所对应的诗歌体裁为五言绝句,并获取了分别针对该待生成诗歌中的每一句待生成诗句所选择的主题词“明月”、“霜”、“举头”和“故乡”。
本领域技术人员应能理解,上述获取诗歌体裁及主题词的方式仅为举例,其他现有的或者今后可能出现的获取诗歌体裁及主题词的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在步骤S302中,生成装置1根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型。
具体地,在步骤S302中,生成装置1根据在步骤S301中所获取的待生成诗歌所对应的诗歌体裁,从多种诗歌模型中选择与该诗歌体裁对应的基于注意力机制的诗歌模型。在此,注意力机制的思想是,在每一步中,都让RNN(Recurrent Neural Network,递归神经网络)从一个更大的信息集合中去选择信息。
在此,若在步骤S301中所获取的诗歌体裁具有多种,例如,用户所输入或选择的诗歌体裁具有多种,则在步骤S302中,生成装置1确定与该多种诗歌体裁分别对应的多种基于注意力机制的诗歌模型。例如,在步骤S301中,生成装置1所获取的待生成诗歌所对应的诗歌体裁为七言绝句和七言律诗,则在步骤S302中,生成装置1基于此,从多种诗歌模型中,例如,从诗歌模型库中,确定与该七言绝句对应的基于注意力机制的诗歌模型以及与该七言律诗对应的基于注意力机制的诗歌模型。
在此,诗歌模型库中存储有多种诗歌模型,每种诗歌模型对应一种诗歌体裁,该诗歌模型例如通过大量该诗歌体裁的现有诗歌训练而成。该诗歌模型库可以位于该网络设备中,也可以位于与该网络设备通过网络相连接的第三方设备中。
本领域技术人员应能理解,上述确定诗歌模型的方式仅为举例,其他现有的或者今后可能出现的确定诗歌模型的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在步骤S303中,生成装置1根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句。
具体地,为生成一句待生成诗句,在步骤S303中,生成装置1根据在步骤S301中所获取的该待生成诗句所对应的主题词,以及该首待生成诗歌在生成该待生成诗句之前已生成的所有历史参考诗句,利用在步骤S302中所确定的基于注意力机制的诗歌模型,生成该待生成诗句。
例如,假设该待生成诗句为该首待生成诗歌的第二句,则在步骤S303中,生成装置1根据该第二句所对应的主题词,以及该首待生成诗歌已生成的第一句,利用该基于注意力机制的诗歌模型,生成该待生成诗句。若该待生成诗句为该首待生成诗歌的第三句,则在步骤S303中,生成装置1根据该第三句所对应的主题词,以及该首待生成诗歌已生成的第一句和第二句,利用该基于注意力机制的诗歌模型,生成该待生成诗句。
优选地,若所述待生成诗句为所述待生成诗歌的首句诗句,则在步骤S303中,生成装置1根据所述待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与所述待生成诗歌相关的参考诗歌;自所述参考诗歌中选择一句作为所述首句诗句所对应的历史参考诗句。
例如,假设在步骤S301中,生成装置1所获取的待生成诗歌的诗歌体裁为五言绝句,该五言绝句中的每一句所对应的主题词分别为“明月”、“霜”、“举头”和“故乡”;若想要生成该五言绝句的首句诗句,则在步骤S303中,生成装置1根据该五言绝句的所有主题词“明月”、“霜”、“举头”和“故乡”,在诗歌库中进行匹配查询,获得与这些主题词相关的参考诗歌,从而作为与该待生成诗歌相关的参考诗歌,例如按照与这些主题词的匹配程度,确定与该待生成诗歌的相关性,并按照相关性进行排序,选择最相关的一首作为参考诗歌;随后,在步骤S303中,生成装置1再自该参考诗歌中选择一句作为该首句诗句所对应的历史参考诗句,例如,从该参考诗歌中任意选择一句作为该首句诗句所对应的历史参考诗句。较佳地,在步骤S303中,生成装置1将该参考诗歌的第二句作为生成该待生成诗歌的首句诗句所对应的历史参考诗句。这样,在步骤S303中,生成装置1可以根据该首句诗句对应的主题词,再根据自该参考诗歌中所选择的历史参考诗句,利用该基于注意力机制的诗歌模型,生成该首句诗句。
在此,该参考诗歌例如可以是任意诗歌体裁的现有诗歌,或较佳地,该参考诗歌的诗歌体裁与该待生成诗歌的诗歌体裁一致,如前例中,参考诗歌与该待生成诗歌一样,也是五言绝句。
在此,诗歌库中存储有大量的现有诗歌,较佳地,该诗歌库可以按照现有诗歌的诗歌体裁对这些现有诗歌进行分类存储,从而方便生成装置1从中进行匹配查询。该诗歌库可以位于该网络设备中,也可以位于与该网络设备通过网络相连接的第三方设备中。
本领域技术人员应能理解,上述生成待生成诗句的方式仅为举例,其他现有的或者今后可能出现的生成待生成诗句的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在步骤S304中,生成装置1将在步骤S303中所生成的待生成诗句作为所述历史参考诗句。
具体地,每当在步骤S303中,生成装置1生成了一句待生成诗句,在步骤S304中,生成装置1即将该已生成的诗句作为历史参考诗句,供该生成装置1生成下一句待生成诗句的时候使用。例如,当在步骤S303中,生成装置1生成了待生成诗歌的第三句待生成诗句之后,在步骤S304中,生成装置1将该第三句作为生成该待生成诗歌的第四句待生成诗句的历史参考诗句,从而,该待生成诗歌中已经生成的第一、二和三句都作为生成该待生成诗歌的第四句待生成诗句的历史参考诗句。
在步骤S305中,生成装置1重复执行上述步骤S303和步骤S304中的操作,直至生成所述待生成诗歌。
具体地,在步骤S305中,生成装置1循环重复执行该生成待生成诗句和将生成的待生成诗句作为历史参考诗句的操作,直至生成一首完整的待生成诗歌。
例如,假设在步骤S301中,生成装置1所获取的待生成诗歌的诗歌体裁为五言绝句,该五言绝句中的每一句所对应的主题词分别为“明月”、“霜”、“举头”和“故乡”;则在步骤S302中,生成装置1确定对应该五言绝句的基于注意力机制的诗歌模型;在步骤S303中,生成装置1首先根据该五言绝句的所有主题词“明月”、“霜”、“举头”和“故乡”,在诗歌库中进行匹配查询,获得参考诗歌,并从中选择一句作为生成该待生成的五言绝句的首句诗句的历史参考诗句,例如,在诗歌库中匹配查询得到参考诗歌“静夜思”,并将该“静夜思”的第二句“疑是地上霜”作为生成该待生成的五言绝句的首句诗句的历史参考诗句;从而,在步骤S303中,生成装置1根据首句诗句的主题词“明月”,及历史参考诗句“疑是地上霜”,生成首句诗句;随后,在步骤S304中,生成装置1将该首句诗句作为生成该待生成诗歌的第二句的历史参考诗句;在步骤S305中,生成装置1重复执行上述步骤S303和步骤S304中的操作,即,在步骤S305中,生成装置1继续根据该待生成诗歌的第二句待生成诗句的主题词“霜”及已生成的首句诗句,生成该第二句,随后,生成装置1将该第二句也作为生成该待生成诗歌的第三句的历史参考诗句,从而使得该已生成的第一、二句都成为生成该待生成诗歌的第三句的历史参考诗句;接着,生成装置1继续执行上述步骤S303和步骤S304中的操作,循环往复,直至完成该五言绝句。
本领域技术人员应能理解,上述生成待生成诗歌的方式仅为举例,其他现有的或者今后可能出现的生成待生成诗歌的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在此,生成装置1获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;将上述操作中生成的待生成诗句作为所述历史参考诗句;重复执行该生成待生成诗句和将生成的待生成诗句作为历史参考诗句的操作,直至生成所述待生成诗歌;通过为每句待生成诗句分配主题词,使主题词不仅影响第一句待生成诗句的生成,也参与到后续整个待生成诗歌的生成过程中,从而使生成诗歌与主题词的相关性更强,并且,生成每句待生成诗歌的时候,利用该待生成诗歌中已生成的所有诗句,从而提高了诗句之间的逻辑关联性,提升了用户的使用体验。
进一步地,生成装置1还采用了首句诗的检索辅助策略,对于首句诗句,根据待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与该待生成诗歌相关的参考诗歌,自该参考诗歌中选择一句作为该首句诗句所对应的历史参考诗句,参与到生成该首句诗句的过程中,使得首句诗句的生成更合理,进一步提升了用户的使用体验。
优选地,所述步骤S303包括子步骤S303a(未示出)和子步骤S303b(未示出)。在子步骤S303a中,生成装置1将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至向量空间;在子步骤S303b中,生成装置1对所述向量空间进行动态解码,以生成所述待生成诗句。
具体地,为生成一句待生成诗句,在子步骤S303a中,生成装置1将该待生成诗句所对应的主题词,及该待生成诗歌在生成该待生成诗句之前已生成的所有历史参考诗句,按照语序循环映射的方式,映射至向量空间。在此,该生成装置1利用基于注意力机制的编解码模型,基于注意力机制的从序列到序列的学习过程是一个通用的框架。在子步骤S303a中,生成装置1进行映射的过程可以理解为一个编码的过程,该主题词及所有历史参考诗句作为该基于注意力机制的编解码模型的输入序列;输入序列在编码部分被转换成由隐含状态组成的序列来表示每一个输入位置的语义含义。
随后,在子步骤S303b中,生成装置1对该向量空间进行动态解码,以生成所述待生成诗句。上述由隐含状态组成的序列在解码部分被用于生成新的序列,在解码过程的每一步,该基于注意力机制的编解码模型通过比较当前解码状态和编码部分的输入状态,来选择最相关的输入。
更优选地,在子步骤S303a中,生成装置1利用双向长短期记忆,将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至所述向量空间;在子步骤S303b中,生成装置1利用另一长短期记忆,对所述向量空间进行动态解码,以生成所述待生成诗句。
例如,参照图2,定义待生成诗歌有S句待生成诗句,每个待生成诗句分别有一个主题词,第i句的主题词记为Ki。主题词=(K1,K2…Ks)。本领域技术人员应能理解,每个待生成诗句可以有一个或多个主题词,以下仅以一个待生成诗句具有一个主题词为例进行详细描述。
在编码阶段,在子步骤S303a中,生成装置1将该待生成诗句组成主题词的字和之前生成的所有历史参考诗句的字,按顺序组成一个长度为T的序列,记为X=(x1,x2…,xT)。在子步骤S303a中,生成装置1利用一个双向长短期记忆(long short-term memory,LSTM)作为编码器,将该长度为T的序列转换成一组隐状态(h1,h2,…,hT)。在此,该双向LSTM包含了两个LSTM结构,该两个LSTM分别对输入序列进行正向和反向编码,LSTM结构有助于记住更长的历史信息。
在解码阶段,在子步骤S303b中,生成装置1使用了另外一个LSTM,其包含了内部状态向量st,在生成第t个字的时候,会计算得到一个包含历史信息的向量ct,最可能生成的字yt是基于st得到的。公式如下:
yt=argmaxp(y|st,ct,yt-1)
每一步生成yt以后,会对st进行更新,公式如下:
s t = f ( s t - 1 , &lsqb; c t - 1 T , y t - 1 T &rsqb; T )
其中激活函数f是一个LSTM。历史信息向量ct用于在生成过程中表示输入序列的语义信息,它由输入序列的状态得到。公式如下:
c t = &Sigma; j = 1 a t j h j
hj是第j个输入字符被编码以后的状态,aij是在hj分配的注意力得分,它的计算公式如下:
a i j = exp ( e i j ) &Sigma; k = 1 T x exp ( e i k )
e i j = v a T tanh ( W a s i - 1 + U a h j )
其中va、W和U为需要在训练过程中更新的参数矩阵。
在此,LSTM是一种特殊的RNN,其在设计上明确地避免了长期依赖的问题,可以记住长期信息。所有的RNN都有着重复的神经网络模块形成链的形式。在普通的RNN中,重复模块结构非常简单,例如只有一个tanh层。LSTM也有这种链状结构,不过其重复模块的结构不同。LSTM的重复模块中有4个神经网络层,并且他们之间的交互非常特别。
本领域技术人员应能理解,上述生成待生成诗句的方式仅为举例,其他现有的或者今后可能出现的生成待生成诗句的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
在此,生成装置1利用基于RNN的编解码深度学习网络,通过将主题词和之前生成的历史参考诗句按照语序循环映射的方式,映射到一个向量空间中,然后通过对这个向量空间进行动态解码,来完成后续的诗歌的生成。
优选地,所述基于注意力机制的诗歌模型为字符级别。
具体地,该基于注意力机制的诗歌模型为字符级别,使用字符级别的模型,可以处理未知关键词。如前例中所述,在编码阶段,在子步骤S303a中,生成装置1将待生成诗句组成主题词的字和之前生成的所有历史参考诗句的字,按顺序组成一个长度为T的序列,作为该基于注意力机制的诗歌模型的输入。该字符级别的基于注意力机制的诗歌模型采用逐字输入的模式,生成待生成诗句。
在此,基于注意力机制的诗歌模型为字符级别,解决了现有技术中无法根据人名地名等可能不在词表的主题词生成诗句的问题,进一步提升了用户的使用体验。
一优选实施例中,该方法还包括步骤S306(未示出)和步骤S307(未示出)。在步骤S306中,生成装置1利用已知体裁的现有诗歌构造训练样本;在步骤S307中,生成装置1利用所述训练样本来训练对应所述已知体裁的基于注意力机制的诗歌模型。
具体地,为了能够训练出所设计的基于注意力机制的诗歌模型,也即,为了能够训练出深度学习网络的参数,需要给该深度学习网络准备样本数据,该深度学习网络的训练算法,通过这些样本数据来学习出网络参数。大量现有诗歌都是具有固定诗歌体裁的,这些现有诗歌的体裁都是已知的,例如,五言绝句、七言绝句、五言律诗、七言律诗、或词牌名“浣溪沙”、“一剪梅”、“蝶恋花”等。在步骤S306中,生成装置1利用这些已知体裁的现有诗歌来构造训练样本,例如,构造用于训练该基于注意力机制的诗歌模型的输入样本、输出样本等。例如,由M个<X,Y>对组成该训练样本,M对取值一般要尽可能大,<X,Y>由现有诗歌的语料构造得到。
接着,在步骤S307中,生成装置1利用在步骤S306中所构造的训练样本,训练对应该已知体裁的基于注意力机制的诗歌模型。例如,在步骤S306中,生成装置1根据大量现有的五言绝句,构造了用于训练五言绝句对应的诗歌模型的训练样本。
优选地,在步骤S306中,生成装置1为所述现有诗歌的每一句现有诗句确定主题词;若所述现有诗句为首句诗句,则将所述首句诗句所对应的主题词及自所述现有诗歌中任选一句作为用于训练所述诗歌模型的输入样本,将所述现有诗句作为输出样本;若所述现有诗句非首句诗句,则将所述现有诗句所对应的主题词及所述现有诗歌中在所述现有诗句之前的所有诗句作为所述输入样本,将所述现有诗句作为输出样本。
具体地,为了利用已知体裁的现有诗歌构造训练样本,在步骤S306中,生成装置1为这些已知体裁的现有诗歌中的每一句现有诗句确定主题词。以李白的“静夜思”为例,该诗为五言绝句,在步骤S306中,生成装置1为该五言绝句的每一句确定主题词,如,将第一句的主题词确定为“明月”,将第二句的主题词确定为“霜”,将第三句的主题词确定为“举头”,将第四句的主题词确定为“故乡”。
对于该现有诗歌“静夜思”,其中的首句诗句为“床前明月光”,则在步骤S306中,生成装置1可以直接将该首句诗句对应的主题词“明月”作为用于训练该诗歌模型的输入样本,或较佳地,在步骤S306中,生成装置1将该首句诗句所对应的主题词“明月”及自该“静夜思”中任选一句作为用于训练该诗歌模型的输入样本,将该首句诗句作为输出样本。例如,在步骤S306中,生成装置1将首句诗句的主题词“明月”和“静夜思”中的第三句“举头望明月”作为输入样本,将首句诗句“床前明月光”作为输出样本。在此,在步骤S306中,生成装置1可以自现有诗歌中任意选择一句作为输入样本,也可以跟前述步骤S303中一致,例如,在步骤S303中,生成装置1从参考诗歌中选择第二句作为生成待生成诗歌的首句诗句所对应的历史参考诗句,则针对现有诗歌的首句诗句的样本构造,在步骤S306中,生成装置1也将该现有诗歌的第二句,结合该现有诗歌的首句诗句的主题词,作为训练该诗歌模型的输入样本。
针对现有诗歌的非首句诗句,则在步骤S306中,生成装置1将该非首句诗句的现有诗句所对应的主题词及该现有诗歌中在该现有诗句之前的所有诗句作为用于训练该诗歌模型的输入样本,将该现有诗句作为输出样本。
还是以现有诗歌“静夜思”为例,针对其中的第二句“疑是地上霜”,在步骤S306中,生成装置1将该第二句的主题词“霜”及第一句“床前明月光”作为输入样本,将该第二句“疑是地上霜”作为输出样本;针对其中的第三句“举头望明月”,在步骤S306中,生成装置1将该第三句的主题词“举头”及第一、二句“床前明月光疑是地上霜”作为输入样本,将该第三句“举头望明月”作为输出样本;针对其中的第四句“低头思故乡”,在步骤S306中,生成装置1将该第四句的主题词“故乡”及第一、二、三句“床前明月光疑是地上霜举头望明月”作为输入样本,将该第四句“低头思故乡”作为输出样本。
上述以“静夜思”为例来说明的训练样本的构造过程可以以如下的表格表示,其中,由于“静夜思”这首诗一共由4句现有诗句组成,可以产生4个<X,Y>样本。在步骤S306中,生成装置1从每句现有诗句中取一个词,作为主题词如下:
主题词 诗句
明月 床前明月光
疑是地上霜
举头 举头望明月
故乡 低头思故乡
每一句现有诗句得到的训练样本如下:
X Y
明月疑是地上霜 床前明月光
霜床前明月光 疑是地上霜
举头床前明月光疑是地上霜 举头望明月
故乡床前明月光疑是地上霜举头望明月 低头思故乡
在此,X由主题词和该现有诗歌中该现有诗句之前的所有诗句组成。由于生成第一诗句的时候,没有之前的诗句,因此X由主题词和从该现有诗歌中任选一句现有诗句组成,在此,选择该现有诗歌中的第二句现有诗句。
在此,该基于注意力机制的诗歌模型,根据现有诗歌,自动学习格律要求,而不需要相关的领域知识和人工参与,只需要提供指定诗歌体裁的诗歌语料,就可以直接学习生成该诗歌体裁的诗歌。
本领域技术人员应能理解,上述构造训练样本的方式仅为举例,其他现有的或者今后可能出现的构造训练样本的方式,如可适用于本发明,也应包含在本发明的保护范围内,此处不再赘述,并通过引用的方式包含于此。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,本发明的各个装置可采用专用集成电路(ASIC)或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (14)

1.一种自动生成诗歌的方法,其中,该方法包括以下步骤:
a获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;
b根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;
c根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;
d将步骤c中所生成的待生成诗句作为所述历史参考诗句;
e重复所述步骤c和d,直至生成所述待生成诗歌。
2.根据权利要求1所述的方法,其中,所述步骤c还包括:
若所述待生成诗句为所述待生成诗歌的首句诗句,则根据所述待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与所述待生成诗歌相关的参考诗歌;
自所述参考诗歌中选择一句作为所述首句诗句所对应的历史参考诗句。
3.根据权利要求1或2所述的方法,其中,所述步骤c中利用所述诗歌模型生成所述待生成诗句的操作包括:
j将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至向量空间;
k对所述向量空间进行动态解码,以生成所述待生成诗句。
4.根据权利要求3所述的方法,其中,所述步骤j包括:
利用双向长短期记忆,将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至所述向量空间;
其中,所述步骤k包括:
利用另一长短期记忆,对所述向量空间进行动态解码,以生成所述待生成诗句。
5.根据权利要求1至4中任一项所述的方法,其中,该方法还包括:
x利用已知体裁的现有诗歌构造训练样本;
y利用所述训练样本来训练对应所述已知体裁的基于注意力机制的诗歌模型。
6.根据权利要求5所述的方法,其中,所述步骤x包括:
为所述现有诗歌的每一句现有诗句确定主题词;
若所述现有诗句为首句诗句,则将所述首句诗句所对应的主题词及自所述现有诗歌中任选一句作为用于训练所述诗歌模型的输入样本,将所述现有诗句作为输出样本;
若所述现有诗句非首句诗句,则将所述现有诗句所对应的主题词及所述现有诗歌中在所述现有诗句之前的所有诗句作为所述输入样本,将所述现有诗句作为输出样本。
7.根据权利要求1至6中任一项所述的方法,其中,所述基于注意力机制的诗歌模型为字符级别。
8.一种自动生成诗歌的生成装置,其中,该生成装置包括:
获取装置,用于获取待生成诗歌所对应的诗歌体裁及分别针对所述待生成诗歌中的每一句待生成诗句所选择的主题词;
确定装置,用于根据所述诗歌体裁,确定对应的基于注意力机制的诗歌模型;
诗句生成装置,用于根据所述待生成诗句所对应的主题词,及在生成所述待生成诗句之前已生成的所有历史参考诗句,利用所述诗歌模型,生成所述待生成诗句;
参考装置,用于将所述诗句生成装置所生成的待生成诗句作为所述历史参考诗句;
诗歌生成装置,用于指示所述诗句生成装置和所述参考装置重复执行其操作,直至生成所述待生成诗歌。
9.根据权利要求8所述的生成装置,其中,所述诗句生成装置还用于:
若所述待生成诗句为所述待生成诗歌的首句诗句,则根据所述待生成诗歌的所有主题词,在诗歌库中进行匹配查询,获得与所述待生成诗歌相关的参考诗歌;
自所述参考诗歌中选择一句作为所述首句诗句所对应的历史参考诗句。
10.根据权利要求8或9所述的生成装置,其中,所述诗句生成装置包括:
映射单元,用于将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至向量空间;
解码单元,用于对所述向量空间进行动态解码,以生成所述待生成诗句。
11.根据权利要求10所述的生成装置,其中,所述映射单元用于:
利用双向长短期记忆,将所述主题词及所述所有历史参考诗句,按照语序循环映射的方式,映射至所述向量空间;
其中,所述解码单元用于:
利用另一长短期记忆,对所述向量空间进行动态解码,以生成所述待生成诗句。
12.根据权利要求8至11中任一项所述的生成装置,其中,该生成装置还包括:
样本构造装置,用于利用已知体裁的现有诗歌构造训练样本;
模型训练装置,用于利用所述训练样本来训练对应所述已知体裁的基于注意力机制的诗歌模型。
13.根据权利要求12所述的生成装置,其中,所述样本构造装置用于:
为所述现有诗歌的每一句现有诗句确定主题词;
若所述现有诗句为首句诗句,则将所述首句诗句所对应的主题词及自所述现有诗歌中任选一句作为用于训练所述诗歌模型的输入样本,将所述现有诗句作为输出样本;
若所述现有诗句非首句诗句,则将所述现有诗句所对应的主题词及所述现有诗歌中在所述现有诗句之前的所有诗句作为所述输入样本,将所述现有诗句作为输出样本。
14.根据权利要求8至13中任一项所述的生成装置,其中,所述基于注意力机制的诗歌模型为字符级别。
CN201610421291.0A 2016-06-13 2016-06-13 一种自动生成诗歌的方法和装置 Active CN105955964B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610421291.0A CN105955964B (zh) 2016-06-13 2016-06-13 一种自动生成诗歌的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610421291.0A CN105955964B (zh) 2016-06-13 2016-06-13 一种自动生成诗歌的方法和装置

Publications (2)

Publication Number Publication Date
CN105955964A true CN105955964A (zh) 2016-09-21
CN105955964B CN105955964B (zh) 2019-11-22

Family

ID=56905673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610421291.0A Active CN105955964B (zh) 2016-06-13 2016-06-13 一种自动生成诗歌的方法和装置

Country Status (1)

Country Link
CN (1) CN105955964B (zh)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN106569995A (zh) * 2016-09-26 2017-04-19 天津大学 基于语料库和格律规则的汉语古诗词自动生成方法
CN106776517A (zh) * 2016-12-20 2017-05-31 科大讯飞股份有限公司 自动作诗方法和装置及系统
CN107133224A (zh) * 2017-04-25 2017-09-05 中国人民大学 一种基于主题词的语言生成方法
CN107273487A (zh) * 2017-06-13 2017-10-20 北京百度网讯科技有限公司 基于人工智能的聊天数据的生成方法、装置及计算机设备
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN107480132A (zh) * 2017-07-25 2017-12-15 浙江工业大学 一种基于图像内容的古诗词生成方法
CN107491541A (zh) * 2017-08-24 2017-12-19 北京丁牛科技有限公司 文本分类方法及装置
CN107832310A (zh) * 2017-11-27 2018-03-23 首都师范大学 基于seq2seq模型的结构化论点生成方法及系统
CN108363697A (zh) * 2018-03-08 2018-08-03 腾讯科技(深圳)有限公司 文本信息生成方法、装置、存储介质及设备
CN108415893A (zh) * 2018-03-15 2018-08-17 平安科技(深圳)有限公司 诗歌自动生成方法、装置、计算机设备及存储介质
CN108563622A (zh) * 2018-05-04 2018-09-21 清华大学 一种具有风格多样性的绝句生成方法及装置
CN108959271A (zh) * 2018-08-10 2018-12-07 广州太平洋电脑信息咨询有限公司 描述文本生成方法、装置、计算机设备和可读存储介质
CN109002433A (zh) * 2018-05-30 2018-12-14 出门问问信息科技有限公司 一种文本生成方法及装置
CN109086270A (zh) * 2018-07-24 2018-12-25 重庆大学 基于古诗词语料向量化的自动作诗系统及其方法
CN109086408A (zh) * 2018-08-02 2018-12-25 腾讯科技(深圳)有限公司 文本生成方法、装置、电子设备及计算机可读介质
CN109582952A (zh) * 2018-10-31 2019-04-05 腾讯科技(深圳)有限公司 诗歌生成方法、装置、计算机设备和介质
CN109716326A (zh) * 2017-06-21 2019-05-03 微软技术许可有限责任公司 在自动聊天中提供个性化歌曲
CN109740145A (zh) * 2018-11-30 2019-05-10 平安科技(深圳)有限公司 歌词智能生成方法、装置、存储介质和计算机设备
CN109918643A (zh) * 2019-01-24 2019-06-21 平安科技(深圳)有限公司 一种词创作生成方法、装置、计算机设备及存储介质
CN109977382A (zh) * 2019-03-05 2019-07-05 安徽省泰岳祥升软件有限公司 诗句生成模型的训练方法、自动写诗方法及装置
CN110134968A (zh) * 2019-05-22 2019-08-16 网易(杭州)网络有限公司 基于深度学习的诗歌生成方法、装置、设备及存储介质
CN110555197A (zh) * 2018-05-31 2019-12-10 清华大学 中文诗歌自动生成方法及装置
CN110688857A (zh) * 2019-10-08 2020-01-14 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN110705310A (zh) * 2019-09-20 2020-01-17 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN111221958A (zh) * 2020-01-08 2020-06-02 北京松果电子有限公司 一种训练藏字诗生成模型的方法、藏字诗生成方法及装置
CN111291536A (zh) * 2018-11-21 2020-06-16 清华大学 一种自动生成诗歌的方法及系统
CN111368514A (zh) * 2019-12-10 2020-07-03 爱驰汽车有限公司 模型训练及古诗生成方法、古诗生成模型、设备和介质
CN111753508A (zh) * 2020-06-29 2020-10-09 网易(杭州)网络有限公司 文字作品的内容生成方法、装置和电子设备
CN112183109A (zh) * 2020-09-22 2021-01-05 甘肃农业大学 基于mass的诗句生成信息隐写方法
CN112364643A (zh) * 2019-12-31 2021-02-12 北京京东尚科信息技术有限公司 用于生成自然语言文本的方法、装置、电子设备和介质
WO2021051516A1 (zh) * 2019-09-18 2021-03-25 平安科技(深圳)有限公司 基于人工智能的古诗词生成方法、装置、设备及存储介质
CN112597758A (zh) * 2020-12-04 2021-04-02 光大科技有限公司 文本数据的生成方法及装置、存储介质、电子装置
CN112784599A (zh) * 2020-12-23 2021-05-11 北京百度网讯科技有限公司 诗句的生成方法、装置、电子设备和存储介质
WO2022160580A1 (zh) * 2021-01-29 2022-08-04 北京搜狗科技发展有限公司 一种诗词生成方法、装置和介质
CN112784599B (zh) * 2020-12-23 2024-05-10 北京百度网讯科技有限公司 诗句的生成方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101261690A (zh) * 2008-04-18 2008-09-10 北京百问百答网络技术有限公司 一种问题自动生成的系统及其方法
CN102385596A (zh) * 2010-09-03 2012-03-21 腾讯科技(深圳)有限公司 一种诗句的搜索方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101261690A (zh) * 2008-04-18 2008-09-10 北京百问百答网络技术有限公司 一种问题自动生成的系统及其方法
CN102385596A (zh) * 2010-09-03 2012-03-21 腾讯科技(深圳)有限公司 一种诗句的搜索方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JUI-FENG WENG 等: "Constructing an Immersive Poetry Learning Multimedia Environment using Ontology-based Approach", 《2008 FIRST IEEE INTERNATIONAL CONFERENCE ON UBI-MEDIA COMPUTING》 *
何晶 等: "基于统计的汉语格律诗生成研究", 《中文信息学报》 *
孟祥娟,徐坤宇: "谈智能诗歌的可版权性", 《中国版权》 *
蒋锐滢 等: "基于主题模型和统计机器翻译方法的中文格律诗自动生成", 《计算机学报》 *

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106569995A (zh) * 2016-09-26 2017-04-19 天津大学 基于语料库和格律规则的汉语古诗词自动生成方法
CN106569995B (zh) * 2016-09-26 2019-04-02 天津大学 基于语料库和格律规则的汉语古诗词自动生成方法
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN106776517A (zh) * 2016-12-20 2017-05-31 科大讯飞股份有限公司 自动作诗方法和装置及系统
CN106776517B (zh) * 2016-12-20 2020-07-14 科大讯飞股份有限公司 自动作诗方法和装置及系统
CN107133224A (zh) * 2017-04-25 2017-09-05 中国人民大学 一种基于主题词的语言生成方法
CN107133224B (zh) * 2017-04-25 2020-11-03 中国人民大学 一种基于主题词的语言生成方法
CN107273487A (zh) * 2017-06-13 2017-10-20 北京百度网讯科技有限公司 基于人工智能的聊天数据的生成方法、装置及计算机设备
US10762305B2 (en) 2017-06-13 2020-09-01 Beijing Baidu Netcom Science And Technology Co., Ltd. Method for generating chatting data based on artificial intelligence, computer device and computer-readable storage medium
US11587541B2 (en) 2017-06-21 2023-02-21 Microsoft Technology Licensing, Llc Providing personalized songs in automated chatting
CN109716326A (zh) * 2017-06-21 2019-05-03 微软技术许可有限责任公司 在自动聊天中提供个性化歌曲
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN107480132A (zh) * 2017-07-25 2017-12-15 浙江工业大学 一种基于图像内容的古诗词生成方法
CN107491541A (zh) * 2017-08-24 2017-12-19 北京丁牛科技有限公司 文本分类方法及装置
CN107832310A (zh) * 2017-11-27 2018-03-23 首都师范大学 基于seq2seq模型的结构化论点生成方法及系统
WO2019169992A1 (zh) * 2018-03-08 2019-09-12 腾讯科技(深圳)有限公司 文本信息生成方法、装置、存储介质及设备
CN108363697B (zh) * 2018-03-08 2022-02-22 腾讯科技(深圳)有限公司 文本信息生成方法、装置、存储介质及设备
CN108363697A (zh) * 2018-03-08 2018-08-03 腾讯科技(深圳)有限公司 文本信息生成方法、装置、存储介质及设备
WO2019174186A1 (zh) * 2018-03-15 2019-09-19 平安科技(深圳)有限公司 诗歌自动生成方法、装置、计算机设备及存储介质
CN108415893A (zh) * 2018-03-15 2018-08-17 平安科技(深圳)有限公司 诗歌自动生成方法、装置、计算机设备及存储介质
CN108415893B (zh) * 2018-03-15 2019-09-20 平安科技(深圳)有限公司 诗歌自动生成方法、装置、计算机设备及存储介质
CN108563622A (zh) * 2018-05-04 2018-09-21 清华大学 一种具有风格多样性的绝句生成方法及装置
CN108563622B (zh) * 2018-05-04 2020-04-07 清华大学 一种具有风格多样性的绝句生成方法及装置
CN109002433B (zh) * 2018-05-30 2022-04-01 出门问问信息科技有限公司 一种文本生成方法及装置
CN109002433A (zh) * 2018-05-30 2018-12-14 出门问问信息科技有限公司 一种文本生成方法及装置
CN110555197B (zh) * 2018-05-31 2021-04-02 清华大学 中文诗歌自动生成方法及装置
CN110555197A (zh) * 2018-05-31 2019-12-10 清华大学 中文诗歌自动生成方法及装置
CN109086270A (zh) * 2018-07-24 2018-12-25 重庆大学 基于古诗词语料向量化的自动作诗系统及其方法
CN109086270B (zh) * 2018-07-24 2022-03-01 重庆大学 基于古诗词语料向量化的自动作诗系统及其方法
CN109086408B (zh) * 2018-08-02 2022-10-28 腾讯科技(深圳)有限公司 文本生成方法、装置、电子设备及计算机可读介质
CN109086408A (zh) * 2018-08-02 2018-12-25 腾讯科技(深圳)有限公司 文本生成方法、装置、电子设备及计算机可读介质
CN108959271B (zh) * 2018-08-10 2020-06-16 广州太平洋电脑信息咨询有限公司 描述文本生成方法、装置、计算机设备和可读存储介质
CN108959271A (zh) * 2018-08-10 2018-12-07 广州太平洋电脑信息咨询有限公司 描述文本生成方法、装置、计算机设备和可读存储介质
CN109582952B (zh) * 2018-10-31 2022-09-02 腾讯科技(深圳)有限公司 诗歌生成方法、装置、计算机设备和介质
CN109582952A (zh) * 2018-10-31 2019-04-05 腾讯科技(深圳)有限公司 诗歌生成方法、装置、计算机设备和介质
CN111291536A (zh) * 2018-11-21 2020-06-16 清华大学 一种自动生成诗歌的方法及系统
CN109740145A (zh) * 2018-11-30 2019-05-10 平安科技(深圳)有限公司 歌词智能生成方法、装置、存储介质和计算机设备
CN109918643A (zh) * 2019-01-24 2019-06-21 平安科技(深圳)有限公司 一种词创作生成方法、装置、计算机设备及存储介质
CN109977382A (zh) * 2019-03-05 2019-07-05 安徽省泰岳祥升软件有限公司 诗句生成模型的训练方法、自动写诗方法及装置
CN110134968A (zh) * 2019-05-22 2019-08-16 网易(杭州)网络有限公司 基于深度学习的诗歌生成方法、装置、设备及存储介质
WO2021051516A1 (zh) * 2019-09-18 2021-03-25 平安科技(深圳)有限公司 基于人工智能的古诗词生成方法、装置、设备及存储介质
CN110705310A (zh) * 2019-09-20 2020-01-17 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN110705310B (zh) * 2019-09-20 2023-07-18 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN110688857A (zh) * 2019-10-08 2020-01-14 北京金山数字娱乐科技有限公司 一种文章生成的方法和装置
CN111368514A (zh) * 2019-12-10 2020-07-03 爱驰汽车有限公司 模型训练及古诗生成方法、古诗生成模型、设备和介质
CN111368514B (zh) * 2019-12-10 2024-04-19 爱驰汽车有限公司 模型训练及古诗生成方法、古诗生成装置、设备和介质
CN112364643A (zh) * 2019-12-31 2021-02-12 北京京东尚科信息技术有限公司 用于生成自然语言文本的方法、装置、电子设备和介质
CN112364643B (zh) * 2019-12-31 2024-04-16 北京京东尚科信息技术有限公司 用于生成自然语言文本的方法、装置、电子设备和介质
CN111221958A (zh) * 2020-01-08 2020-06-02 北京松果电子有限公司 一种训练藏字诗生成模型的方法、藏字诗生成方法及装置
CN111221958B (zh) * 2020-01-08 2024-03-15 北京小米松果电子有限公司 一种训练藏字诗生成模型的方法、藏字诗生成方法及装置
CN111753508A (zh) * 2020-06-29 2020-10-09 网易(杭州)网络有限公司 文字作品的内容生成方法、装置和电子设备
CN112183109A (zh) * 2020-09-22 2021-01-05 甘肃农业大学 基于mass的诗句生成信息隐写方法
CN112183109B (zh) * 2020-09-22 2021-06-22 甘肃农业大学 基于mass的诗句生成信息隐写方法
CN112597758A (zh) * 2020-12-04 2021-04-02 光大科技有限公司 文本数据的生成方法及装置、存储介质、电子装置
CN112784599A (zh) * 2020-12-23 2021-05-11 北京百度网讯科技有限公司 诗句的生成方法、装置、电子设备和存储介质
CN112784599B (zh) * 2020-12-23 2024-05-10 北京百度网讯科技有限公司 诗句的生成方法、装置、电子设备和存储介质
WO2022160580A1 (zh) * 2021-01-29 2022-08-04 北京搜狗科技发展有限公司 一种诗词生成方法、装置和介质

Also Published As

Publication number Publication date
CN105955964B (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
CN105955964A (zh) 一种自动生成诗歌的方法和装置
CN110688491B (zh) 基于深度学习的机器阅读理解方法、系统、设备及介质
Tan et al. Integrated coastal-zone management for sustainable tourism using a decision support system based on system dynamics: A case study of Cijin, Kaohsiung, Taiwan
Medina Commoditizing culture: Tourism and Maya identity
Rogers et al. Natural selection and cultural rates of change
Grosse et al. Studying large language model generalization with influence functions
Williams Cultural origins and environmental implications of large technological systems
Smith Applying a cultural landscape approach to the urban context
CN111144553A (zh) 一种基于时空记忆注意力的图像描述方法
CN110427629A (zh) 半监督文本简化模型训练方法和系统
de Leeuw Cities and health from the Neolithic to the Anthropocene
CN109857909A (zh) 多粒度卷积自注意力上下文网络解决视频对话任务的方法
Fekete et al. Creative cities in Central and Eastern Europe-Examining the position of Gyor from the creative and cultural aspects of this macro-region
Gleiniger et al. Pattern: ornament, structure, and behavior
CN111753078A (zh) 图像段落描述生成方法、装置、介质及电子设备
Shih et al. Digital placemaking for urban regeneration: Identification of historic heritage values in Taiwan and the Baltic States
Rüpke et al. Urban religion beyond the city: theory and practice of a specific constellation of religious geography-making
Brice et al. Riding the Tide: Socially-engaged art and Resilience in an Uncertain Future
Worrall Studies in metamusical methods for sound and image composition
CN113177393A (zh) 改进针对网页结构理解的预训练语言模型的方法和装置
Phillips et al. Testing the Capability of AI Art Tools for Urban Design
Al-Azhari Design by shape grammar precedents as an experiential learning module of residential architecture of Amman city
Kanouse A post-naturalist field kit: Tools for the embodied exploration of social ecologies
Norton Building demand models to improve environmental policy process
Buras Classic Planning

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant