CN109740145A - 歌词智能生成方法、装置、存储介质和计算机设备 - Google Patents
歌词智能生成方法、装置、存储介质和计算机设备 Download PDFInfo
- Publication number
- CN109740145A CN109740145A CN201811453116.5A CN201811453116A CN109740145A CN 109740145 A CN109740145 A CN 109740145A CN 201811453116 A CN201811453116 A CN 201811453116A CN 109740145 A CN109740145 A CN 109740145A
- Authority
- CN
- China
- Prior art keywords
- lyric
- lyrics
- sentence
- keyword list
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims description 112
- 230000007246 mechanism Effects 0.000 claims description 79
- 230000015654 memory Effects 0.000 claims description 29
- 238000013528 artificial neural network Methods 0.000 claims description 24
- 230000000306 recurrent effect Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005034 decoration Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
本发明提供一种歌词智能生成方法,包括:获取预置的单句歌词;获取待生成歌词集合的关键词列表;将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词;将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。该方法无需预先准备歌词语料库便可智能生成全新、非现有的歌词,实现歌词创作。
Description
技术领域
本发明涉及文字处理技术领域,具体而言,本发明涉及一种歌词智能生成方法、装置、计算机可读存储介质和计算机设备。
背景技术
随着AI(Artificial Intelligence,人工智能)技术的快速发展,与AI相关的应用、产品广泛应用于各个领域,对现代人的学习、工作和生活带来深刻影响。AI可应用于歌词创作领域,在歌词创作过程中智能生成歌词。
然而,现有的歌词生成方法中,通常需要预先准备歌词语料库,所产生的歌词均来自于该歌词语料库,该方法的局限性在于,生成的歌词均为预先准备的语句,未能智能生成新的歌词。
发明内容
为至少能解决上述的技术缺陷之一,本发明提供了以下技术方案的歌词智能生成方法及对应的装置、计算机可读存储介质和计算机设备。
本发明的实施例根据一个方面,提供了一种歌词智能生成方法,包括如下步骤:
获取预置的单句歌词;获取待生成歌词集合的关键词列表;
将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词;
将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。
优选地,所述预先训练的歌词生成模型为根据基于注意力机制和覆盖机制的循环神经网络预先训练得到的歌词生成模型。
优选地,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词,包括:
将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型;
基于所述歌词生成模型的编码模块,对所述单句歌词和所述关键词列表中的关键词进行编码,得到隐语义向量;
基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词。
进一步地,所述基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词,包括:
基于所述注意力机制,计算所述隐语义向量对应的注意力权重;
根据所述隐语义向量和所述隐语义向量对应的注意力权重,生成待生成的所述下一句歌词的当前字;
根据各个所述当前字,生成包含所述关键词列表中的一个关键词的下一句歌词。
进一步地,所述基于所述注意力机制,计算所述隐语义向量对应的注意力权重,包括:
基于所述覆盖机制,获取用于记录所述注意力权重的历史权重分布的覆盖向量;
基于所述注意力机制,根据所述覆盖向量计算隐语义向量对应的注意力权重。
优选地,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合,包括:
重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成包含所述首句歌词和生成的预置数量句歌词的歌词集合。
优选地,所述歌词生成模型通过以下步骤预先训练生成:
获取歌词文本;对所述歌词文本进行文本分割处理,得到多个单句歌词样本;
基于TextRank关键词提取算法分别从所述多个单句歌词样本中提取对应的关键词,得到多个关键词样本;
根据所述多个单句歌词样本和所述多个关键词样本训练包含注意力机制和覆盖机制的循环神经网络,得到所述歌词生成模型。
此外,本发明的实施例根据另一个方面,提供了一种歌词智能生成装置,包括:
输入数据获取单元,用于获取预置的单句歌词;获取待生成歌词集合的关键词列表;
歌词生成单元,用于将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词;
所述歌词生成单元,还用于将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。
本发明的实施例根据又一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述的歌词智能生成方法。
本发明的实施例根据再一个方面,提供了一种计算机设备,所述计算机包括一个或多个处理器;存储器;一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于:执行上述的歌词智能生成方法。
本发明与现有技术相比,具有以下有益效果:
本发明提供的歌词智能生成方法、装置、计算机可读存储介质和计算机设备,通过将预置首句或新生成的下一句歌词,以及用于控制歌词集合上下文语义的关键词列表输入至预先训练的歌词生成模型,无需预先准备歌词语料库便可智能生成全新、非现有的歌词,实现歌词创作。
此外,本发明提供的歌词智能生成方法、装置、计算机可读存储介质和计算机设备,采用基于注意力机制的歌词生成模型,通过计算所述隐语义向量的注意力权重并根据所述隐语义向量和所述隐语义向量的注意力权重逐字生成所述下一句歌词,有效提高歌词生成的效率和准确性;且采用还基于覆盖机制的歌词生成模型,在保证所述关键词列表中各个关键词被表达出来同时不被重复表述的同时,还通过设置所述关键词列表中关键词的数量及语义,控制待生成歌词集合的句数和上下文语义,有效提高歌词之间的逻辑性,歌词之间具有统一主旨。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例提供的歌词智能生成方法的方法流程图;
图2为本发明实施例提供的歌词生成模型的生成方法流程图;
图3为本发明实施例提供的歌词智能生成装置的结构示意图;
图4为本发明实施例提供的计算机设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本发明实施例提供了一种歌词智能生成方法,如图1所示,该方法包括:
步骤S101:获取预置的单句歌词;获取待生成歌词集合的关键词列表。
对于本实施例,所述预置的单句歌词用于在生成歌词的当前周期触发歌词的生成,具体地,所述预置的单句歌词用于触发其下一句歌词的生成。所述单句歌词可以是用户预先设置的单句歌词,也可以是歌词生成系统随机或默认设置的单句歌词,本实施例对此不做限定。
在生成歌词的首个周期中,所获取的所述预置的单句歌词具体为,预置的首句歌词,所述首句歌词为所述待生成歌词集合的第一句歌词。所述待生成歌词集合由所述首句歌词和待生成的一句或多句歌词构成。
对于本实施例,所述待生成歌词集合的关键词列表为对应待生成歌词集合预先设置的关键词的集合,所述关键词列表包含一个或多个关键词,各个关键词由用户预先自定义设置或歌词生成系统智能设置。
所述关键词列表中的关键词可被待生成的歌词表达,即待生成的歌词包含所述关键词列表中的关键词,所述关键词用于控制生成歌词的语义及待生成歌词集合的上下文语义。
其中,所述关键词列表的长度不限,即所述关键词列表中关键词的数量不受限定,各个关键词的内容不受限定,可由用户根据其欲生成的歌词集合作品的风格自定义设置,也可由歌词生成系统根据用户欲生成的歌词集合作品的风格智能设置,所述关键词一般为2~4字的词汇或短语。
例如,对于待生成的民谣风格的歌词集合作品,其关键词可以是“早春”、“清风”、“送别”等等。
又例如,对于待生成的摇滚风格的歌词集合作品,其关键词可以是“狂热”、“飞翔”、“改变”等等。
再例如,所述关键词还可以是“幸福”、“阳光”、“爱”等可用于任意风格的歌词集合作品的词。
步骤S102:将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词。
对于本实施例,预先训练有模型参数可使模型输出预测值的准确率满足歌词生成的歌词生成模型,所述歌词生成模型用于根据预置的输入数据智能生成歌词。
所述步骤S101中获取的所述单句歌词和所述关键词列表为所述预先训练的歌词生成模型的输入数据,将所述单句歌词和所述关键词列表输入至所述歌词生成模型,所述歌词生成模型根据所述单句歌词和所述关键词列表中的关键词生成所述单句歌词的下一句歌词。其中,经由所述歌词生成模型所生成的所述单句歌词的下一句歌词中包含所述关键词列表的一个关键词,所述下一句歌词的长度,即字数不受限定。
在生成歌词的首个周期中,在步骤S101中所获取的所述预置的单句歌词具体为预置的首句歌词。当所述单句歌词为首句歌词时,所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词具体为,将所述首句歌词和所述关键词列表输入预先训练的歌词生成模型,生成第二句歌词。
步骤S103:将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。
对于本实施例,在步骤S102中生成所述预置的单句歌词的下一句歌词之后,将所述下一句歌词作为所述预置的单句歌词,即将所述下一句歌词用于作为生成歌词的下一周期的所述歌词生成模型输入数据中的单句歌词,以在所述下一句歌词的基础上再生成新的下一句歌词。通过重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,可不断在上一周期生成的所述单句歌词的下一句歌词的基础上生成新的下一句歌词,以生成包含至少两句歌词的歌词集合。
本发明提供的歌词智能生成方法,通过将预置首句或新生成的下一句歌词,以及用于控制歌词集合上下文语义的关键词列表输入至预先训练的歌词生成模型,无需预先准备歌词语料库便可智能生成全新、非现有的歌词,实现歌词创作。
在一个实施例中,所述预先训练的歌词生成模型为根据基于注意力机制和覆盖机制的循环神经网络预先训练得到的歌词生成模型。
对于本实施例,所述循环神经网络(RNN)通过一个单元结构重复使用,使其模型内部状态在自身网络中循环传递,其模型的输出依赖于模型当前的输入数据和所记忆的历史数据。而基于注意力(Attention)机制的循环神经网络也可称为注意力模型(AttentionModel),通过在循环神经网络中引入注意力机制,可对输入数据实现有差异的赋予权重,具体地,在生成歌词的当前字时,确定输入数据中各个词的注意力分配概率信息。故在所述预先训练的歌词生成模型为根据基于注意力机制的循环神经网络预先训练得到的歌词生成模型时,引入的注意力机制可在歌词每个字生成的时刻对作为输入数据的预置单句中的词、以及关键词列表中的关键词实现有差异的赋予权重,从而使歌词的当前字生成时聚焦于重要的输入数据上。引入注意力机制的循环神经网络,相对于常规的循环神经网络(RNN)或长短期记忆网络(LSTM)等网络,在生成歌词的当前字时可以通过一个计算步骤直接联系输入数据中的相关的词,而无需如常规网络那样经过若干步骤才可将两者联系起来,有效缩短了信息传递的距离。根据基于注意力机制的循环神经网络预先训练生成的所述歌词生成模型,可有效提高歌词生成的效率和准确性。
对于本实施例,所述预先训练的歌词生成模型还可进一步为根据基于覆盖机制的注意力模型,即基于注意力机制和覆盖机制的循环神经网络预先训练得到的歌词生成模型。所述覆盖(Coverage)机制用于记录所述关键词列表中的哪些关键词已被生成的歌词表达,哪些关键词尚未被表达,以在生成歌词的当前字时针对各个关键词设定对应的权重,从而使得注意力模型专注于关键词列表中未被表达的关键词,降低已被表达的关键词再次被表达的机率,可保证所述关键词列表中的同一个关键词不会被所生成的两句歌词所表达。根据基于注意力机制和覆盖机制的循环神经网络预先训练得到的歌词生成模型,可使所述关键词列表中的同一个关键词仅被生成的一句歌词所表达,从而实现通过所述关键词列表中的关键词控制生成的歌词集合的上下文语义。
在一个实施例中,如图2所示,所述歌词生成模型通过以下步骤预先训练生成:
步骤S201:获取歌词文本;对所述歌词文本进行文本分割处理,得到多个单句歌词样本。
对于本实施例,从预置歌词数据库中获取已发表歌曲的歌词文本,并对所述歌词文本进行文本分割处理,得到多个单句歌词样本,具体地,在获取歌词文本之后,采用文本自动分割算法按预置的分隔符,如“/”、“,”等对歌词文本进行分句、分段预处理,得到所述歌词文本中的多个单句歌词,所述歌词样本中的多个单句歌词用于作为预先训练所述歌词生成模型的训练样本。
步骤S202:基于TextRank关键词提取算法分别从所述多个单句歌词样本中提取对应的关键词,得到多个关键词样本。
对于本实施例,所述TextRank关键词提取算法是一种用于文本的基于图的排序算法,可实现关键词的提取。
在获取单句歌词样本之后,把单句歌词分割成若干个词,并对各个分词进行标注处理,对停用词,例如“的”、“接着”等词进行过滤处理,仅保留所述单句歌词中有实际意义的名词、动词或形容词;随后,根据上述步骤所保留的词构建关键词图模型,并采用预置的投票机制计算所保留的词的权重;采用降序排序算法对各个词的权重进行排序,并将排序中排在前面预置数量的权重对应的词作为所述单句歌词样本对应的关键词。
在实际应用场景中,从一个单句歌词样本中提取的关键词数量为一个最佳,各个所述单句歌词样本分别对应各自唯一的关键词,故基于TextRank关键词提取算法从所述单句歌词样本中提取对应的关键词时,仅将排序中排在最前面的权重对应的词作为所述单句歌词样本对应的关键词,以实现从所述单句歌词样本中提取一个关键词,得到该单句歌词样本的关键词样本。
步骤S203:根据所述多个单句歌词样本和所述多个关键词样本训练包含注意力机制和覆盖机制的循环神经网络,得到所述歌词生成模型。
对于本实施例,将多个单句歌词样本和单句歌词样本分别对应的多个关键词样本作为所述歌词生成模型的训练样本,根据所述多个单句歌词样本和所述多个关键词样本训练循环神经网络的基础模型,其中,该循环神经网络包含注意力机制和覆盖机制;并通过交叉熵评价函数对所训练的模型进行评价,当交叉熵损失结果收敛稳定,则获得最佳模型参数,得到歌词生成模型,具体地,交叉熵评价函数用于评估当前训练得的歌词生成模型的输出预测值与实际值之间的差异程度,当交叉熵的值越大,则差异程度越大,故当交叉熵损失结果收敛稳定时,所述歌词生成模型的输出预测值具有理想准确率,当前模型参数为最佳模型参数。
在一个实施例中,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词,包括:
将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型;
基于所述歌词生成模型的编码模块,对所述单句歌词和所述关键词列表中的关键词进行编码,得到隐语义向量;
基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词。
对于本实施例,所述预先训练的歌词生成模型包括循环神经网络RNN的encoder-decoder框架,所述循环神经网络包括编码模块(encoder)和解码模块(decoder)。
对于本实施例,将所述单句歌词和所述关键词列表输入预先训练的所述歌词生成模型之后,基于所述歌词生成模型的编码模块,对所述单句歌词和所述关键词列表中的预置数量关键词进行编码,将所述单句歌词和所述关键词列表中的预置数量关键词编码转换到语义空间,得到隐语义向量,所述隐语义向量用于表示作为所述歌词生成模型输入数据的所述单句歌词和所述关键词列表中的预置数量关键词的隐语义。
对于本实施例,所述预置数量为用户预先自定义设置或歌词生成系统智能设置的数量,其可以是1、2、5、7等任意正整数,本技术领域的技术人员可根据实际应用需求确定或调整所述预置数量的具体数值,本实施例对此不做限定。
对于本实施例,在得到所述隐语义向量之后,进入解码阶段,根据所述隐语义向量生成所述生成歌词的当前周期内的第一个字,并根据所述隐语义向量及生成歌词的当前周期内已生成的字,生成下一个字,通过根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词。
在一个实施例中,所述基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词,包括:
基于所述注意力机制,计算所述隐语义向量对应的注意力权重;
根据所述隐语义向量和所述隐语义向量对应的注意力权重,生成待生成的所述下一句歌词的当前字;
根据各个所述当前字,生成包含所述关键词列表中的一个关键词的下一句歌词。
对于本实施例,所述歌词生成模型采用了注意力机制。
对于本实施例,为避免隐语义向量中的各个值对生成当前字的影响力都是相同的,在循环神经网络中引入注意力机制,基于所述注意力机制,计算所述隐语义向量对应的注意力权重,所述隐语义向量中的各个值,即作为所述歌词生成模型输入数据的所述单句歌词中的词和所述关键词列表中的预置数量关键词,对应的所述注意力权重用于表示对应值的注意力分配概率信息。显然,所述隐语义向量中值的注意力权重越大,则该值在所述隐语义向量中对生成歌词的当前字的影响力越大。
对于本实施例,在解码阶段时,根据所述隐语义向量和所述隐语义向量对应的注意力权重生成所述生成歌词的当前周期内的第一个字,并根据所述隐语义向量、所述隐语义向量对应的注意力权重及生成歌词的当前周期内已生成的字,生成下一个字,通过根据所述隐语义向量和所述隐语义向量对应的注意力权重进行解码,将所述生成歌词的当前周期内生成的所有字按生成顺序进行组合,生成包含所述关键词列表中的一个关键词的下一句歌词。
在本实施例中,所述歌词生成模型采用了注意力机制,通过计算所述隐语义向量的注意力权重并根据所述隐语义向量和所述隐语义向量的注意力权重逐字生成所述下一句歌词,可有效提高歌词生成的效率和准确性。
在一个实施例中,所述基于所述注意力机制,计算所述隐语义向量对应的注意力权重,包括:
基于所述覆盖机制,获取用于记录所述注意力权重的历史权重分布的覆盖向量;
基于所述注意力机制,根据所述覆盖向量计算隐语义向量对应的注意力权重。
对于本实施例,所述歌词生成模型还采用了覆盖机制。
对于本实施例,在基于注意力机制的循环神经网络中引入覆盖机制,基于所述覆盖机制,获取用于记录所述注意力权重的历史权重分布的覆盖向量,具体地,所述覆盖机制在歌词生成过程中起到记忆作用,用于记录所述注意力权重的历史权重分布的覆盖向量,其中,所述注意力权重的历史权重分布具体为,所述隐语义向量对应的注意力权重的历史权重叠加之和。在所述歌词生成模型由预置的首句歌词触发开始歌词生成的过程中,若所述隐语义向量中的值被使用的次数越多,则对应的覆盖向量越大。
对于本实施例,基于所述覆盖机制获取的所述覆盖向量作用于注意力权重的计算,所述覆盖向量与所述注意力权重之间预置有关联关系,具体地,所述关联关系为抑制关系,即所述隐语义向量中值的覆盖向量较大时,所述隐语义向量中值对应的注意力权重则较小,所述隐语义向量中值的覆盖向量较小时,所述隐语义向量中值对应的注意力权重则较大,基于该抑制关系根据所述覆盖向量计算隐语义向量对应的注意力权重。
在一个实施例中,所述基于所述注意力机制,计算所述隐语义向量对应的注意力权重,包括:
基于所述覆盖机制,获取用于记录关键词列表部分的隐语义向量对应的注意力权重的历史权重分布的覆盖向量;
基于所述注意力机制,根据所述覆盖向量计算所述关键词列表部分的隐语义向量对应的注意力权重。
对于本实施例,针对输入至所述歌词生成模型的关键词列表采用覆盖机制。
对于本实施例,为避免作为所述歌词生成模型输入数据的所述关键词列表中的关键词被重复表达,针对输入至所述歌词生成模型中关键词列表,在基于注意力机制的循环神经网络中引入覆盖机制,基于所述覆盖机制,获取用于记录所述关键词列表部分的注意力权重的历史权重分布的覆盖向量,具体地,所述覆盖机制在歌词生成过程中起到记忆作用,用于记录所述关键词列表部分的注意力权重的历史权重分布的覆盖向量,其中,所述关键词列表部分的注意力权重的历史权重分布具体为,所述隐语义向量中,对应关键词列表中的各个关键词的向量值分别对应的注意力权重的历史权重叠加之和。在所述歌词生成模型由预置的首句歌词触发开始歌词生成的过程中,若所述关键词列表中的关键词被使用的次数越多,则对应的覆盖向量越大。
对于本实施例,基于所述覆盖机制获取的所述覆盖向量作用于所述关键词列表部分的隐语义向量的注意力权重的计算,所述覆盖向量与所述关键词列表部分的隐语义向量的注意力权重之间预置有关联关系,具体地,所述关联关系为抑制关系,即所述隐语义向量中值的覆盖向量较大时,所述隐语义向量中值对应的注意力权重则较小,所述隐语义向量中值的覆盖向量较小时,所述隐语义向量中值对应的注意力权重则较大,基于该抑制关系根据所述覆盖向量计算隐语义向量对应的注意力权重。
对于本实施例,在所述歌词生成模型由预置的首句歌词触发开始歌词生成的过程中,所述关键词列表中已被生成歌词表达的关键词相比于未被生成歌词表达的关键词对应有较大的覆盖向量,相应地,所述关键词列表中已被生成歌词表达的关键相比于未被歌词表达的关键词对应有较小的注意力权重。故可实现,基于覆盖机制记录所述关键词列表中的关键词哪些已被表达,哪些尚未被表达,以针对所述关键词列表中的各个关键词设定对应的注意力权重,从而使得歌词生成模型在生成歌词的当前周期内专注于关键词列表中未被表达的关键词,降低已被表达的关键词再次被表达的机率,保证各个关键词被表达出来同时不被重复表述。且由于可保证各个关键词被表达出来同时不被重复表述,还可通过设置所述关键词列表中关键词的语义,控制待生成歌词集合的上下文语义,有效提高歌词之间的逻辑性,歌词之间具有统一主旨。
在一个实施例中,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合,包括:
重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成包含所述首句歌词和生成的预置数量句歌词的歌词集合。
对于本实施例,对于根据基于所述注意力机制和所述覆盖机制的循环神经网络预先训练生成的歌词生成模型,其可降低已被表达的关键词再次被表达的机率,保证各个关键词被表达出来同时不被重复表述。故可通过设置所述关键词列表中关键词的数量,控制待生成歌词集合的句数。当所述关键词列表中的关键词已全部被表达,则完成所有歌词的生成,生成歌词集合。
对于本实施例,所述预置数量为用户预先自定义设置或歌词生成系统智能设置的数量,其可以是1、2、5、7等任意正整数,本技术领域的技术人员可根据实际应用需求确定或调整所述预置数量的具体数值,本实施例对此不做限定。
对于本实施例,当所述关键词列表中的关键词有数值数量个时,所述生成的歌词集合则具体包含所述首句歌词和生成的预置数量句歌词。
以下,示出一个具体例子以阐述歌词集合的生成过程:
例如,步骤S1中获取用户输入的所述预置首句为“还记得当年的模样”,用户预先设定的所述关键词列表为{“幸福”,“远方”,“花儿”,“白云”,“飞鸟”,“歌唱”},所述关键词列表中的关键词数量为六个,则该用户待生成的歌词集合应包含输入的预置首句和待生成的数量与所述关键词数量一致的六句歌词。
步骤S2中将所述预置首句“还记得当年的模样”和所述关键词列表{“幸福”,“远方”,“花儿”,“白云”,“飞鸟”,“歌唱”}输入至预先训练的歌词生成模型,所述歌词生成模型经过首句歌词的触发,同时根据所述关键词列表将其中一个关键词“幸福”表达出来,生成第二句歌词“那些幸福的时光”。
步骤S3中接着将步骤S2中生成的第二句歌词“那些幸福的时光”与所述关键词列表输入至所述歌词生成模型,生成第三句歌词“小溪缓缓流向远方”;以此类推,通过重复将最新生成的下一句歌词和所述关键词列表输入所述歌词生成模型,可生成歌词集合:
“还记得当年的模样
那些幸福的时光
小溪缓缓流向远方
花儿阵阵飘香
白云拥抱着微风舞步徜徉
飞鸟迎着朝阳
放声歌唱”
此外,本发明实施例提供了一种歌词智能生成装置,如图3所示,所述装置包括:输入数据获取单元301和歌词生成单元302;其中,
所述输入数据获取单元301,用于获取预置的单句歌词;获取待生成歌词集合的关键词列表;
所述歌词生成单元302,用于将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词;
所述歌词生成单元302,还用于将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。
在一个实施例中,所述预先训练的歌词生成模型为根据基于注意力机制和覆盖机制的循环神经网络预先训练得到的歌词生成模型。
在一个实施例中,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述歌词生成单元302,具体用于:
将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型;
基于所述歌词生成模型的编码模块,对所述单句歌词和所述关键词列表中的关键词进行编码,得到隐语义向量;
基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词。
在一个实施例中,所述基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词,包括:
基于所述注意力机制,计算所述隐语义向量对应的注意力权重;
根据所述隐语义向量和所述隐语义向量对应的注意力权重,生成待生成的所述下一句歌词的当前字;
根据各个所述当前字,生成包含所述关键词列表中的一个关键词的下一句歌词。
在一个实施例中,所述基于所述注意力机制,计算所述隐语义向量对应的注意力权重,包括:
基于所述覆盖机制,获取用于记录所述注意力权重的历史权重分布的覆盖向量;
基于所述注意力机制,根据所述覆盖向量计算隐语义向量对应的注意力权重。
在一个实施例中,所述基于所述注意力机制,计算所述隐语义向量对应的注意力权重,包括:
基于所述覆盖机制,获取用于记录关键词列表部分的隐语义向量对应的注意力权重的历史权重分布的覆盖向量;
基于所述注意力机制,根据所述覆盖向量计算所述关键词列表部分的隐语义向量对应的注意力权重。
在一个实施例中,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述歌词生成单元302,还具体用于:
重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成包含所述首句歌词和生成的预置数量句歌词的歌词集合。
在一个实施例中,所述歌词生成模型通过以下步骤预先训练生成:
获取歌词文本;对所述歌词文本进行文本分割处理,得到多个单句歌词样本;
基于TextRank关键词提取算法分别从所述多个单句歌词样本中提取对应的关键词,得到多个关键词样本;
根据所述多个单句歌词样本和所述多个关键词样本训练包含注意力机制和覆盖机制的循环神经网络,得到所述歌词生成模型。
本发明提供的歌词智能生成装置可实现:通过将预置首句或新生成的下一句歌词,以及用于控制歌词集合上下文语义的关键词列表输入至预先训练的歌词生成模型,无需预先准备歌词语料库便可智能生成全新、非现有的歌词,实现歌词创作;还可实现:采用基于注意力机制的歌词生成模型,通过计算所述隐语义向量的注意力权重并根据所述隐语义向量和所述隐语义向量的注意力权重逐字生成所述下一句歌词,有效提高歌词生成的效率和准确性;且采用还基于覆盖机制的歌词生成模型,在保证所述关键词列表中各个关键词被表达出来同时不被重复表述的同时,还通过设置所述关键词列表中关键词的数量及语义,控制待生成歌词集合的句数和上下文语义,有效提高歌词之间的逻辑性,歌词之间具有统一主旨。
本发明实施例提供的歌词智能生成装置可以实现上述提供的方法实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。
此外,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现以上实施例所述的歌词智能生成方法。其中,所述计算机可读存储介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(Random AcceSS Memory,随即存储器)、EPROM(EraSable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically EraSable Programmable Read-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,存储设备包括由设备(例如,计算机、手机)以能够读的形式存储或传输信息的任何介质,可以是只读存储器,磁盘或光盘等。
本发明提供的计算机可读存储介质,可实现:通过将预置首句或新生成的下一句歌词,以及用于控制歌词集合上下文语义的关键词列表输入至预先训练的歌词生成模型,无需预先准备歌词语料库便可智能生成全新、非现有的歌词,实现歌词创作;还可实现:采用基于注意力机制的歌词生成模型,通过计算所述隐语义向量的注意力权重并根据所述隐语义向量和所述隐语义向量的注意力权重逐字生成所述下一句歌词,有效提高歌词生成的效率和准确性;且采用还基于覆盖机制的歌词生成模型,在保证所述关键词列表中各个关键词被表达出来同时不被重复表述的同时,还通过设置所述关键词列表中关键词的数量及语义,控制待生成歌词集合的句数和上下文语义,有效提高歌词之间的逻辑性,歌词之间具有统一主旨。
本发明实施例提供的计算机可读存储介质可以实现上述提供的方法实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。
此外,本发明实施例还提供了一种计算机设备,如图4所示。本实施例所述的计算机设备可以是服务器、个人计算机以及网络设备等设备。所述计算机设备包括处理器402、存储器403、输入单元404以及显示单元405等器件。本领域技术人员可以理解,图4示出的设备结构器件并不构成对所有设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件。存储器403可用于存储计算机程序401以及各功能模块,处理器402运行存储在存储器403的计算机程序401,从而执行设备的各种功能应用以及数据处理。存储器可以是内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、ZIP盘、U盘、磁带等。本发明所公开的存储器包括但不限于这些类型的存储器。本发明所公开的存储器只作为例子而非作为限定。
输入单元404用于接收信号的输入,以及接收用户输入的关键字。输入单元404可包括触控面板以及其它输入设备。触控面板可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并根据预先设定的程序驱动相应的连接装置;其它输入设备可以包括但不限于物理键盘、功能键(比如播放控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。显示单元405可用于显示用户输入的信息或提供给用户的信息以及计算机设备的各种菜单。显示单元405可采用液晶显示器、有机发光二极管等形式。处理器402是计算机设备的控制中心,利用各种接口和线路连接整个电脑的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器内的数据,执行各种功能和处理数据。
作为一个实施例,所述计算机设备包括:一个或多个处理器402,存储器403,一个或多个计算机程序401,其中所述一个或多个计算机程序401被存储在存储器403中并被配置为由所述一个或多个处理器402执行,所述一个或多个计算机程序401配置用于执行以上任一实施例所述的歌词智能生成方法。
本发明提供的计算机设备,可实现:通过将预置首句或新生成的下一句歌词,以及用于控制歌词集合上下文语义的关键词列表输入至预先训练的歌词生成模型,无需预先准备歌词语料库便可智能生成全新、非现有的歌词,实现歌词创作;还可实现:采用基于注意力机制的歌词生成模型,通过计算所述隐语义向量的注意力权重并根据所述隐语义向量和所述隐语义向量的注意力权重逐字生成所述下一句歌词,有效提高歌词生成的效率和准确性;且采用还基于覆盖机制的歌词生成模型,在保证所述关键词列表中各个关键词被表达出来同时不被重复表述的同时,还通过设置所述关键词列表中关键词的数量及语义,控制待生成歌词集合的句数和上下文语义,有效提高歌词之间的逻辑性,歌词之间具有统一主旨。
本发明实施例提供的计算机设备可以实现上述提供的方法实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种歌词智能生成方法,其特征在于,包括如下步骤:
获取预置的单句歌词;获取待生成歌词集合的关键词列表;
将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词;
将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。
2.根据权利要求1所述的歌词智能生成方法,其特征在于,所述预先训练的歌词生成模型为根据基于注意力机制和覆盖机制的循环神经网络预先训练得到的歌词生成模型。
3.根据权利要求2所述的歌词智能生成方法,其特征在于,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词,包括:
将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型;
基于所述歌词生成模型的编码模块,对所述单句歌词和所述关键词列表中的关键词进行编码,得到隐语义向量;
基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词。
4.根据权利要求3所述的歌词智能生成方法,其特征在于,所述基于所述歌词生成模型的解码模块,根据所述隐语义向量进行解码,逐字生成包含所述关键词列表中的一个关键词的下一句歌词,包括:
基于所述注意力机制,计算所述隐语义向量对应的注意力权重;
根据所述隐语义向量和所述隐语义向量对应的注意力权重,生成待生成的所述下一句歌词的当前字;
根据各个所述当前字,生成包含所述关键词列表中的一个关键词的下一句歌词。
5.根据权利要求4所述的歌词智能生成方法,其特征在于,所述基于所述注意力机制,计算所述隐语义向量对应的注意力权重,包括:
基于所述覆盖机制,获取用于记录所述注意力权重的历史权重分布的覆盖向量;
基于所述注意力机制,根据所述覆盖向量计算隐语义向量对应的注意力权重。
6.根据权利要求2所述的歌词智能生成方法,其特征在于,所述待生成歌词集合的关键词列表,包含预置数量的关键词;
所述重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合,包括:
重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成包含所述首句歌词和生成的预置数量句歌词的歌词集合。
7.根据权利要求2所述的歌词智能生成方法,其特征在于,所述歌词生成模型通过以下步骤预先训练生成:
获取歌词文本;对所述歌词文本进行文本分割处理,得到多个单句歌词样本;
基于TextRank关键词提取算法分别从所述多个单句歌词样本中提取对应的关键词,得到多个关键词样本;
根据所述多个单句歌词样本和所述多个关键词样本训练包含注意力机制和覆盖机制的循环神经网络,得到所述歌词生成模型。
8.一种歌词智能生成装置,其特征在于,包括:
输入数据获取单元,用于获取预置的单句歌词;获取待生成歌词集合的关键词列表;
歌词生成单元,用于将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词;
所述歌词生成单元,还用于将所述生成的下一句歌词作为所述预置的单句歌词,重复执行所述将所述单句歌词和所述关键词列表输入预先训练的歌词生成模型,生成下一句歌词的步骤,以生成歌词集合。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的歌词智能生成方法。
10.一种计算机设备,其特征在于,其包括:
一个或多个处理器;
存储器;
一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于:执行根据权利要求1至7任一项所述的歌词智能生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811453116.5A CN109740145A (zh) | 2018-11-30 | 2018-11-30 | 歌词智能生成方法、装置、存储介质和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811453116.5A CN109740145A (zh) | 2018-11-30 | 2018-11-30 | 歌词智能生成方法、装置、存储介质和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109740145A true CN109740145A (zh) | 2019-05-10 |
Family
ID=66359102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811453116.5A Withdrawn CN109740145A (zh) | 2018-11-30 | 2018-11-30 | 歌词智能生成方法、装置、存储介质和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109740145A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287489A (zh) * | 2019-06-24 | 2019-09-27 | 北京大米科技有限公司 | 文本生成方法、装置、存储介质和电子设备 |
CN111259665A (zh) * | 2020-01-14 | 2020-06-09 | 成都嗨翻屋科技有限公司 | 一种基于神经网络的交互式歌词生成方法及系统 |
CN111401037A (zh) * | 2020-06-05 | 2020-07-10 | 平安国际智慧城市科技股份有限公司 | 自然语言的生成方法、装置、电子设备及存储介质 |
CN112163414A (zh) * | 2020-08-27 | 2021-01-01 | 同济大学 | 一种基于Word2Vec、LSTM和注意力机制的中文歌词生成方法 |
CN112364643A (zh) * | 2019-12-31 | 2021-02-12 | 北京京东尚科信息技术有限公司 | 用于生成自然语言文本的方法、装置、电子设备和介质 |
CN113591472A (zh) * | 2021-01-21 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 歌词生成方法、歌词生成模型训练方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105955964A (zh) * | 2016-06-13 | 2016-09-21 | 北京百度网讯科技有限公司 | 一种自动生成诗歌的方法和装置 |
CN106528858A (zh) * | 2016-11-29 | 2017-03-22 | 北京百度网讯科技有限公司 | 歌词生成方法及装置 |
CN106776540A (zh) * | 2016-11-23 | 2017-05-31 | 清华大学 | 一种自由化文本生成方法 |
CN107783960A (zh) * | 2017-10-23 | 2018-03-09 | 百度在线网络技术(北京)有限公司 | 用于抽取信息的方法、装置和设备 |
-
2018
- 2018-11-30 CN CN201811453116.5A patent/CN109740145A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105955964A (zh) * | 2016-06-13 | 2016-09-21 | 北京百度网讯科技有限公司 | 一种自动生成诗歌的方法和装置 |
CN106776540A (zh) * | 2016-11-23 | 2017-05-31 | 清华大学 | 一种自由化文本生成方法 |
CN106528858A (zh) * | 2016-11-29 | 2017-03-22 | 北京百度网讯科技有限公司 | 歌词生成方法及装置 |
CN107783960A (zh) * | 2017-10-23 | 2018-03-09 | 百度在线网络技术(北京)有限公司 | 用于抽取信息的方法、装置和设备 |
Non-Patent Citations (7)
Title |
---|
"Get To The Point: Summarization with Pointer-Generator Networks", ARXIV:1704.04368V2, pages 1 - 20 * |
QIXINWANG等: "Chinese Song Iambics Generation with Neural Attention-based Model", HTTPS://ARXIV.ORG/PDF/1604.06274.PDF, pages 1 - 7 * |
ZHAOPENG TU等: "Modeling Coverage for Neural Machine Translation", HTTPS://ARXIV.ORG/PDF/1601.04811.PDF, pages 1 - 11 * |
ZHE WANG等: "Chinese Poetry Generation with Planning based Neural Network", ARXIV:1610.09889V2, pages 1 - 11 * |
ZHE WANG等: "Chinese Poetry Generation with Planning based Neural Network", HTTPS://ARXIV.ORG/PDF/1610.09889.PDF, pages 1 - 11 * |
姜力等: "基于递归神经网络的散文诗自动生成方法", 计算机系统应用, vol. 27, no. 8, pages 259 - 264 * |
蒋锐滢等: "基于主题模型和统计机器翻译方法的中文格律诗自动生成", 计算机学报, vol. 38, no. 12, pages 2426 - 2436 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287489A (zh) * | 2019-06-24 | 2019-09-27 | 北京大米科技有限公司 | 文本生成方法、装置、存储介质和电子设备 |
CN112364643A (zh) * | 2019-12-31 | 2021-02-12 | 北京京东尚科信息技术有限公司 | 用于生成自然语言文本的方法、装置、电子设备和介质 |
CN112364643B (zh) * | 2019-12-31 | 2024-04-16 | 北京京东尚科信息技术有限公司 | 用于生成自然语言文本的方法、装置、电子设备和介质 |
CN111259665A (zh) * | 2020-01-14 | 2020-06-09 | 成都嗨翻屋科技有限公司 | 一种基于神经网络的交互式歌词生成方法及系统 |
CN111259665B (zh) * | 2020-01-14 | 2023-05-30 | 成都潜在人工智能科技有限公司 | 一种基于神经网络的交互式歌词生成方法及系统 |
CN111401037A (zh) * | 2020-06-05 | 2020-07-10 | 平安国际智慧城市科技股份有限公司 | 自然语言的生成方法、装置、电子设备及存储介质 |
CN112163414A (zh) * | 2020-08-27 | 2021-01-01 | 同济大学 | 一种基于Word2Vec、LSTM和注意力机制的中文歌词生成方法 |
CN112163414B (zh) * | 2020-08-27 | 2022-09-20 | 同济大学 | 一种基于Word2Vec、LSTM和注意力机制的中文歌词生成方法 |
CN113591472A (zh) * | 2021-01-21 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 歌词生成方法、歌词生成模型训练方法、装置及电子设备 |
CN113591472B (zh) * | 2021-01-21 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 歌词生成方法、歌词生成模型训练方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740145A (zh) | 歌词智能生成方法、装置、存储介质和计算机设备 | |
CN107358948B (zh) | 基于注意力模型的语言输入关联性检测方法 | |
CN109840287A (zh) | 一种基于神经网络的跨模态信息检索方法和装置 | |
Xie et al. | Attention-based dense LSTM for speech emotion recognition | |
Javed et al. | Towards building asr systems for the next billion users | |
CN109887484A (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN110110140A (zh) | 基于注意力扩展编解码网络的视频摘要方法 | |
CN109961041B (zh) | 一种视频识别方法、装置及存储介质 | |
CN110457661B (zh) | 自然语言生成方法、装置、设备及存储介质 | |
Zheng et al. | BLSTM-CRF Based End-to-End Prosodic Boundary Prediction with Context Sensitive Embeddings in a Text-to-Speech Front-End. | |
CN110889003B (zh) | 一种基于文本的车辆图像细粒度检索系统 | |
CN110349597A (zh) | 一种语音检测方法及装置 | |
CN113450771B (zh) | 唤醒方法、模型训练方法和装置 | |
CN111563161B (zh) | 一种语句识别方法、语句识别装置及智能设备 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN110134960A (zh) | 一种文本的生成方法及相关设备 | |
CN113505198A (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
CN118193683B (zh) | 一种基于语言大模型的文本推荐方法及系统 | |
CN115937369A (zh) | 一种表情动画生成方法、系统、电子设备及存储介质 | |
CN115701612A (zh) | 用于检测主题发散数字视频的机器学习模型 | |
CN116757195B (zh) | 一种基于提示学习的隐性情感识别方法 | |
CN111968646B (zh) | 一种语音识别方法及装置 | |
CN116720519B (zh) | 一种苗医药命名实体识别方法 | |
CN109614541A (zh) | 一种事件识别方法、介质、装置以及计算设备 | |
Deng | Design and learning of output representations for speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190510 |