CN115114474A - 歌词生成模型训练方法、歌词生成方法、装置及存储介质 - Google Patents

歌词生成模型训练方法、歌词生成方法、装置及存储介质 Download PDF

Info

Publication number
CN115114474A
CN115114474A CN202110286728.5A CN202110286728A CN115114474A CN 115114474 A CN115114474 A CN 115114474A CN 202110286728 A CN202110286728 A CN 202110286728A CN 115114474 A CN115114474 A CN 115114474A
Authority
CN
China
Prior art keywords
lyric
lyrics
text
training
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110286728.5A
Other languages
English (en)
Inventor
韩文静
王晓瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202110286728.5A priority Critical patent/CN115114474A/zh
Publication of CN115114474A publication Critical patent/CN115114474A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供一种关于一种歌词生成模型训练方法、歌词生成方法、装置及存储介质,涉及人工智能领域。包括:获取第一歌词文本,第一歌词文本至少包括一首或多首歌曲的歌词、歌曲中每一句歌词的字数信息;将第一歌词文本转换为训练字符;根据训练字符,对预设网络模型进行训练,得到歌词生成模型;歌词生成模型用于根据输入的待生成歌词的约束条件,生成与约束条件对应的待生成歌词,约束条件至少包括:输入文本以及待生成歌词中每句歌词的字数,待生成歌词包括输入文本,歌词生成模型具备识别训练字符的能力。基于此,歌词生成模型训练装置可以通过在训练歌词文本中增加字数信息,提高歌词生成模型生成符合字数要求的歌词的能力。

Description

歌词生成模型训练方法、歌词生成方法、装置及存储介质
技术领域
本公开涉及人工智能领域,尤其涉及一种歌词生成模型训练方法、歌词生成方法、装置及存储介质。
背景技术
歌词创作是音乐创作的重要组成部分,当前歌词的创作主要途径为人工创作。人工创作的过程依赖创作人员的知识积累和创作能力,创作歌词花费时间较长。
相关技术中,提出了采用人工智能(Artificial Intelligence,AI)技术生成歌词文本的方法。采用AI技术中的网络模型生成歌词为当前的常用方法。当前训练网络模型时,通常是将获取到的歌词文本输入到网络模型中进行训练,并根据训练好的网络模型生成歌词。
但是,由于歌词通常有严格的格式要求(例如,句数,字数等要求),当前训练神经网络模型时未考虑歌词的格式要求,导致训练好的神经网络模型不能严格的根据待生成歌词的格式生成歌词。
发明内容
本公开提供一种歌词生成模型训练方法、歌词生成方法、装置及存储介质,以至少解决相关技术中神经网络模型不能严格根据待生成歌词的格式生成歌词的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种歌词生成模型训练方法,包括:
获取第一歌词文本,所述第一歌词文本至少包括一首或多首歌曲的歌词、所述歌曲中每一句歌词的字数信息;
将所述第一歌词文本转换为训练字符;
根据所述训练字符,对预设网络模型进行训练,得到歌词生成模型;所述歌词生成模型用于根据输入的待生成歌词的约束条件,生成与所述约束条件对应的所述待生成歌词,所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本,所述歌词生成模型能够识别训练字符。
可选的,所述获取第一歌词文本,包括:
获取第二歌词文本,所述第二歌词文本包括所述一首或多首歌曲的歌词;
在第二歌词文本中添加特征信息,得到处理后的文本;特征信息至少包括所述歌曲中每一句歌词的字数信息,所述字数信息用于标识字的数量;
根据处理后的文本,确定所述第一歌词文本。
可选的,所述特征信息还包括以下任一项:所述歌曲中每一首歌曲的句数信息、所述每一首歌曲的开始信息、所述每一首歌曲的结束信息。
可选的,所述根据处理后的文本,确定所述第一歌词文本,包括:
将所述处理后的文本中的每一句歌词的文字倒序排列,以得到倒序排列后的文本;
确定所述倒序排列后的文本为所述第一文本。
可选的,所述根据所述训练字符,对预设网络模型进行训练,得到歌词生成模型,包括:
根据所述预设网络模型的处理长度,从所述训练字符中获取输入序列和输出序列,所述输入序列和所述输出序列的长度小于或等于所述处理长度,所述输出序列包括所述训练字符中输入序列中每一字符的下一个字符;
根据所述输入序列和所述输出序列,对所述预设网络模型进行训练,得到所述歌词生成模型。
可选的,所述歌词生成模型包括解码器和输出层;所述输出层用于输出所述歌词生成模型预测的字符;
所述解码器,用于:
获取押韵规则;
根据所述押韵规则,确定待生成歌词中的押韵字符;
在生成所述押韵字符的过程中,抑制所述输出层的生成非押韵字符。
根据本公开实施例的第二方面,提供一种歌词生成方法,包括:
获取约束条件;所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本;
将约束条件输入到歌词生成模型,生成与所述约束条件对应的歌词;
其中,所述歌词生成模型为根据权利要求1-6任一项所述的歌词模型生成训练方法训练得到的歌词生成模型。
可选的,所述约束条件还包括以下至少一项:歌词句数,韵脚。
根据本公开实施例的第三方面,提供一种歌词生成模型训练装置,包括:通信模块和处理模块;
所述通信模块,被配置为获取第一歌词文本,所述第一歌词文本至少包括一首或多首歌曲的歌词、所述歌曲中每一句歌词的字数信息;
所述处理模块,被配置为将所述第一歌词文本转换为训练字符;
所述处理模块,还被配置为根据所述训练字符,对预设网络模型进行训练,得到歌词生成模型;所述歌词生成模型用于根据输入的待生成歌词的约束条件,生成与所述约束条件对应的所述待生成歌词,所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本,所述歌词生成模型能够识别训练字符。
可选的,所述通信模块,还被配置为获取第二歌词文本,所述第二歌词文本包括所述一首或多首歌曲的歌词;
所述处理模块,还被配置为在第二歌词文本中添加特征信息,得到处理后的文本;特征信息至少包括所述歌曲中每一句歌词的字数信息,所述字数信息用于标识字的数量;
所述处理模块,还被配置为根据处理后的文本,确定所述第一歌词文本。
可选的,所述特征信息还包括以下任一项:所述歌曲中每一首歌曲的句数信息、所述每一首歌曲的开始信息、所述每一首歌曲的结束信息。
可选的,所述处理模块,具体被配置为:
将所述处理后的文本中的每一句歌词的文字倒序排列,以得到倒序排列后的文本;
确定所述倒序排列后的文本为所述第一文本。
可选的,所述处理模块,具体被配置为:
根据所述预设网络模型的处理长度,从所述训练字符中获取输入序列和输出序列,所述输入序列和所述输出序列的长度小于或等于所述处理长度,所述输出序列包括所述训练字符中输入序列中每一字符的下一个字符;
根据所述输入序列和所述输出序列,对所述预设网络模型进行训练,得到所述歌词生成模型。
可选的,所述歌词生成模型包括解码器和输出层;所述输出层用于输出所述歌词生成模型预测的字符;
所述解码器,被配置为:
获取押韵规则;
根据所述押韵规则,确定待生成歌词中的押韵字符;
在生成所述押韵字符的过程中,抑制所述输出层的生成非押韵字符。
根据本公开实施例的第四方面,提供一种歌词生成装置,包括:通信模块和处理模块;
所述通信模块,被配置为获取约束条件;所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本;
所述处理模块,被配置为将约束条件输入到歌词生成模型,生成与所述约束条件对应的歌词;
其中,所述歌词生成模型为根据上述第一方面及第一方面中任一种可选的的歌词模型生成训练装置训练得到的歌词生成模型。
可选的,所述约束条件还包括以下至少一项:歌词句数,韵脚。
根据本公开实施例的第五方面,提供一种计算机设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现上述第一方面及第一方面中任一种可选地歌词生成模型训练方法。
根据本公开实施例的第六方面,提供一种计算机设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现上述第二方面及第二方面中任一种可选地歌词生成方法。
根据本公开实施例的第七方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述计算机可读存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行如上述第一方面及第一方面中任一种可选地歌词生成模型训练方法。
根据本公开实施例的第八方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述计算机可读存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行如上述第二方面及第二方面中任一种可选地歌词生成方法。
根据本公开实施例的第九方面,提供一种计算机程序产品,所述计算机程序产品包括计算机指令,当所述计算机指令在计算机设备上运行时,使得所述计算机设备执行上述第一方面及第一方面中任一种可选地歌词生成模型训练方法。
根据本公开实施例的第十方面,提供一种计算机程序产品,所述计算机程序产品包括计算机指令,当所述计算机指令在计算机设备上运行时,使得所述计算机设备执行上述第二方面及第二方面中任一种可选地歌词生成方法。
本公开的实施例提供的技术方案至少带来以下有益效果:在待训练的歌词文本中增加字数信息,以及其他能够体现歌词格式要求的信息,例如句数,歌词开头,歌词结尾,句子之间的衔接等。这样,在使用这些待训练的歌词文本训练歌词生成模型时,歌词生成模型生成歌词文本的时候除了表征原歌词中文字之间关联特征之外,还可以表征不同字数条件下各个文字之间的关联特征。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种歌词生成系统的示意图;
图2是根据一示例性实施例示出的一种歌词生成模型训练方法的流程图;
图3是根据一示例性实施例示出的另一种歌词生成模型训练方法的流程图;
图4是根据一示例性实施例示出的一种歌词生成方法的流程图;
图5是根据一示例性实施例示出的一种歌词生成模型训练装置的结构示意图;
图6是根据一示例性实施例示出的一种歌词生成装置的结构示意图;
图7是根据一示例性实施例示出的一种计算机设备的结构框图;
图8是根据一示例性实施例示出的一种计算机设备的结构框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在对本公开实施例的模型训练方法进行详细介绍之前,先对本公开实施例的应用场景和实施环境进行介绍。
首先,对本公开实施例的应用场景进行介绍。
本公开实施例的歌词生成模型训练方法应用于对训练样本(歌词文本)进行训练,得到歌词生成模型的场景。该训练样本可以是歌曲的歌词文本。例如,训练样本可以是从音乐播放器对应的存储有歌词的服务器中导出的一个或多个歌曲的歌词。歌词生成模型可以是自回归语言模型,例如Transformer模型,或者歌词生成模型还可以是其他网络模型,本公开对此不做限定,歌词生成模型用于生成歌词。这样,当用户在歌词生成模型中输入待生成歌词的约束条件(例如,每句歌词的字数等)时,歌词生成模型可以根据用户输入的约束条件自动生成符合约束条件的歌词。
但是,在相关技术的采用网络模型生成歌词的方法中,由于训练模型时未考虑歌词严格的形式要求,因此训练完成的模型无法严格的根据歌词的句数、字数等要求生成歌词。
例如,当前的一种训练歌词生成模型的方法为:获取歌词文本,将歌词文本输入到网络模型中进行训练,得到歌词生成模型。
使用该歌词生成模型生成歌词的方法为:在模型中输入待生成歌词的主题词之后,获取歌词生成模型根据主题词生成的歌词。判断生成的歌词是否满足待生成歌词的格式要求(例如,字数要求)。如果不满足则重新生成歌词,并再次进行判断,知道生成的歌词满足格式要求。
采用上述方法训练得到的歌词生成模型生成歌词的效率低,不能直接得到符合待生成歌词格式要求的歌词。
为了使训练得到的歌词生成模型能够直接生成符合歌词格式要求的歌词,提高模型生成歌词的效率,本公开实施例提供了一种模型训练方法,在训练歌词生成模型时,在歌词文本中增加歌词文本中每句歌词的字数信息。这样,在模型训练的过程中,模型训练是的参数将会包括歌词文本中每句歌词的字数信息,进而在使用模型生成歌词时,可以在模型中输入所需歌词中每局歌词的字数信息,以使得模型生成的歌词的句数符合所需歌词的字数要求。
接下来,对本公开实施例的实施环境进行介绍。
图1是根据一示例性实施例示出的一种歌词生成系统的示意图。如图1所示,该歌词生成系统可以包括:歌词生成模型训练装置11和歌词生成装置12。其中,歌词生成模型训练装置11通过有线通讯方式或无线通讯方式与歌词生成装置12进行通信,且歌词生成模型训练装置11训练完成歌词生成模型之后,歌词生成装置可以获取该歌词生成模型,并使用歌词生成模型生成歌词。在一些实施例中,歌词生成模型训练装置11可以是一台服务器。
在介绍了本公开实施例的应用场景和实施环境之后,对本公开实施例提供的模型训练方法进行详细介绍。
图2是根据一示例性实施例示出的一种歌词生成模型训练方法的流程图,如图2所示,该方法可以包括:
S201、歌词生成模型训练装置获取第一歌词文本。
第一歌词文本至少包括一首或多首歌曲的歌词、歌曲中每一句歌词的字数信息。
一种可能的实现方式中,歌词生成模型训练装置获取第一歌词文本的方法包括:歌词生成模型训练装置获取包括一首或多首歌曲的歌词文本之后,确定歌词文本中每句歌词的字数。歌词生成模型训练装置将每句歌词的字数添加到歌词文本中,得到第一歌词文本。
S202、歌词生成模型训练装置将第一歌词文本转换为训练字符。
其中,训练字符为预设网络模型能够识别的字符。
一种示例,预设网络模型为能够识别数字编号的网络模型,则训练字符可以为歌词生成模型训练装置将第一歌词文本中的文字转换为数字编号后确定的数字编号字符。在该场景下,歌词生成模型训练装置可以通过字典确定文字对应的数字编号。该字典为具有文字与数字编号之间的对应关系的字典。
S203、歌词生成模型训练装置根据训练字符,对预设网络模型进行训练,得到歌词生成模型。
其中,歌词生成模型用于根据输入的待生成歌词的约束条件,生成与约束条件对应的待生成歌词,约束条件至少包括:输入文本以及待生成歌词中每句歌词的字数。待生成歌词包括输入文本,歌词生成模型能够识别训练字符。
输入文本可以为待生成歌词的主题词。例如,需要生成与友情相关的歌词时,输入文本可以为“朋友”、“友情”、“友谊”等词语。输入文本也可以为待生成歌词的题目。
上述实施例提供的技术方案至少带来以下有益效果:歌词生成模型训练装置在训练歌词生成模型时,通过在歌词文本中增加歌词的字数信息,可以使得训练得到的歌词生成模型既与文本字符之间的关联关系有关,又与歌词中每句歌词的字数有关。这样,在使用歌词生成模型时,该歌词生成模型就可以根据待生成歌词的主题信息和字数信息生成相应的歌词,使得生成的歌词严格符合待生成歌词的格式要求。
一种可能的实现方式中,结合图2,如图3所示,上述S201具体可以通过以下S301-S303实现。以下,对S301-S303进行具体说明:
S301、歌词生成模型训练装置获取第二歌词文本。
第二歌词文本包括一首或多首歌曲的歌词。
可选的,歌词生成模型训练装置可以从当前常用的音乐播放器中,获取歌曲的歌词。
具体来说,歌词生成模型训练装置从音乐播放器中获取歌曲的歌词的方法包括:
歌词生成模型训练装置与音乐播放器中存储有歌词的歌词存储模块建立通信连接,歌词生成模型训练装置可以通过该通信连接从歌词存储模块中获取第二歌词文本中的一首或多首歌曲的歌词。该通信连接可以是无线连接例如蓝牙,无线网络连接等;也可以是有线连接,例如USB接口连接,总线连接等,对此不做限定。
需要指出的是,歌词生成模型训练装置获取歌词时,可以获取存储有歌词的模块中存储的全部歌词,或者也可以只获取一种或多种曲风的歌词。例如,流行音乐,摇滚音乐,爵士音乐,民谣,中国风。
例如,在训练用于生成中文古风的歌词时,仅获取模块中与中文古风对应的歌曲的歌词;在训练用于生成流行音乐的歌词时,仅获取模块中与流行音乐对应的歌曲的歌词。歌词生成模型训练装置可以根据歌词训练模型生成歌词种类不同,获取相应类型的歌曲的歌词,本公开对此不做限定。
S302、歌词生成模型训练装置在第二歌词文本中添加特征信息,得到处理后的文本。
特征信息至少包括歌曲中每一句歌词的字数信息,字数信息用于标识字的数量。
一种可能的实现方式中,歌词生成模型训练装置在第二歌词文本中添加特征信息的方法包括:
歌词生成模型训练装置确定每一句歌词的字数信息;歌词生成模型训练装置在每一句歌词中添加该歌词对应的字数信息。
其中,歌词生成模型训练装置可以在每句歌词的开头添加该歌词对应的字数信息。
一种示例,歌词生成模型训练装置获取的歌曲的歌词文本为:AABBC,BBCCA,CADHBQHHF,AHFKHQIUE,QWUIBSKB,AKDSADKJLK。
歌词生成模型训练装置在歌词文本中添加字数信息之后,得到的处理后的文本为:
<c5>AABBC<c5>BBCCA<c9>CADHBQHHF<c9>AHFKHQIUE<c8>QWUIBSKB<c10>AKDSADKJLK。
其中,<cy>表示该句歌词中包括5个字。在上述示例中,y的值分别为5、5、9、9、8、10。
又一种可能的实现方式中,特征信息还包括以下任一项:歌曲中每一首歌曲的句数信息、每一首歌曲的开始信息、每一首歌曲的结束信息。
以下以特征信息中包括上述:每一首歌曲的句数信息、每一首歌曲的开始信息、每一首歌曲的结束信息,以及句子之间的衔接信息为例进行说明。
具体来说,歌词生成模型训练装置在获取歌曲的歌词信息之后,分别确定每首歌曲的歌词的开始位置和结束位置。歌词生成模型训练装置在每首歌曲的歌词的开始位置添加开始标识,用于表征一首歌曲的歌词由此开始,歌词生成模型训练装置在每首歌曲的歌词的结束位置添加结束标识,用于表征一首歌曲的歌词在此结束。
歌词生成模型训练装置确定一首歌曲的歌词中包括的句子的数量,并在该歌词的开头部分添加该歌词的句子的数量。
结合上述示例,在添加字数信息之后,进一步添加句数信息,开始信息,结束信息之后得到的处理文本为:
<sos><s6><c5>AABBC<next><c5>BBCCA<next><c9>CADHBQHHF<next><c9>AHFKHQIUE<next><c8>QWUIBSKB<next><c10>AKDSADKJLK<eos>。
其中,<sos>表示一首歌曲的歌词的开始,<sx>表示一首歌曲的歌词中包括的歌词的句数,<next>表示两个句子之间的衔接,<eos>一首歌曲的歌词的结束。
这样,歌词生成模型训练装置通过在第二歌词文本中进一步添加歌曲中每一首歌曲的句数信息、每一首歌曲的开始信息、每一首歌曲的结束信息,可以训练得到受字数、句数,开始信息和结束信息影响的歌词生成模型。
S303、歌词生成模型训练装置根据处理后的文本,获取第一歌词文本。
一种可能的实现方式中,服务器将处理后的文本中的每一句歌词的文字倒序排列,以得到倒序排列后的文本。
服务器确定倒序排列后的文本为第一文本。
具体来说,考虑到歌词生成模型训练装置生成第一歌词文本时,如果歌词要求押韵,那么训练模型首先生成韵脚更有利于模型的生成过程,因此,在生成歌词时,可以先倒序生成,然后在生成完毕之后,在将倒序的歌词按正序排列。
基于该倒序生成歌词的方式,歌词生成模型训练装置在使用歌词文本训练歌词生成模型时可以将添加特征信息之后的文本中的每一句歌词的文字倒序排列,得到倒序排列后的文本。
歌词生成模型训练装置确定倒序排列后的文本为第一歌词文本。
结合上述示例,倒序排列后的文本为:<sos><s6><c5>CBBAA<next><c5>ACCBB<next><c9>FHHQBHDAC<next><c9>EUIQHKFHA<next><c8>BKSBIUWQ<next><c10>KLJKDASDKAAKDSADKJLK<eos>。
这样,为了更好的使歌词押韵,还可以倒序排列歌词。基于上述技术方案,使用这些待训练的歌词文本进行模型训练,可以使得训练得到的歌词生成模型能够生成更加符合格式要求的歌词文本。
上述实施例提供的技术方案至少带来以下有益效果:歌词生成模型训练装置通过在获取的原始的歌词生成模型中添加特征信息,得到第一歌词文本,使得到的第一歌词文本能够表征在不同格式下文字之间的关联关系。
结合图2,如图3,上述S203具体可以通过以下S304-S305实现。以下,对S304-S305进行具体说明:
S304、歌词生成模型训练装置根据预设网络模型的处理长度,从训练字符中获取输入序列和输出序列。
其中,输入序列和输出序列的长度小于或等于处理长度,输出序列包括训练字符中输入序列中每一字符的下一个字符。
一种可能的实现方式中,歌词生成模型训练装置确定预设网络模型的处理长度,预设网络模型的处理长度用于表征该神经网络模型每次能够处理的最大字符数。
歌词生成模型训练装置根据预设网络模型的处理长度,将第一歌词文本划分为连续的一个或多个输入序列。每个输入序列包括的字符数小于或等于预设神经网络模型能够处理的最大字符数。
歌词生成模型训练装置根据输入序列确定输出序列,包括:歌词生成模型训练装置将输入序列的第i+1个字符作为输出序列的第i个字符。
S305、歌词生成模型训练装置根据输入序列和输出序列,对预设网络模型进行训练,得到歌词生成模型。
上述实施例提供的技术方案至少带来以下有益效果:歌词生成模型训练装置将训练字符划分为多个输入序列,每个输入序列的字符长度满足预设网络模型能够处理字符长度的要求,从而使得预设网络模型能够直接根据输入序列进行模型训练。歌词生成模型训练装置确定输入序列对应的输出序列之后,可以根据预设网络模型实际输出的与输入序列对应的输出字符与输出序列进行对比,确定本轮训练得到的预设网络模型是否符合要求。
一种可能的实现方式中,预设网络模型的输出层包括j个节点,该j个节点对应j个字符向量(例如文本文字转换的向量)。
预设网络模型将已知字符转换为向量之后,经过一系列的预测处理,生成根据已知数据预测的下一个字符的向量。上述已知字符可以为歌词生成模型训练装置的输入序列中依次输入到预设网络模型中的字符。
预设网络模型的输出层输出下一个字符的过程为:
预设网络模型计算下一个字符的向量与j个字符向量之间的距离,预设网络模型根据j个字符向量对应的距离,确定j个节点输出的概率值。预设网络模型采用top-k算法、top-p算法或温度采样算法,从上述j个节点输出的概率值中选择一个概率值。预设网络模型确定输出该被选择的概率值的节点对应的字符为下一个字符。
其中,下一个字符的向量与j个字符向量中的一个字符向量的距离越近,该一个字符向量为下一个字符的概率越大;下一个字符向量与j个字符向量中的一个字符向量的距离越远,该一个字符向量为下一个字符的概率越小。
在S305的一种具体的实现方式中,歌词生成模型训练装置训练神经网络模型的过程包括:
歌词生成模型训练装置将输入序列输入到预设网络模型中。预设网络模型根据输入序列中的第一个字符,预测待输出的第一个字符,并输出第一个字符。预设网络模型根据输入序列中的第一个字符和第二个字符,预测待输出的第二个字符,并输出第二个字符。按照此方法,预设网络模型根据输入序列的第1个字符至第i个字符,预测待输出的第i个字符,并输出第i个字符。直至根据输入序列的全部k个字符,输出k个输出字符。
歌词生成模型训练装置确定该k个输出字符与上述输出序列的相似度,确定该相似度是否满足预设条件,在相似度满足预设条件的情况下,确定当前的预设网络模型为训练完成的歌词生成模型。在相似度不满足预设条件的情况下,根据相似度调整预设网络模型的参数,并根据输入序列和输出序列按照上述方法继续训练调整后的预设网络模型,直至预设网络模型输出的k个字符与输出序列的相似度满足预设条件,确定此时的预设网路模型为歌词生成模型。
需要指出的是,根据上述方法确定的歌词生成模型包括解码层和输出层,输出层用于输出歌词生成模型预测的字符。解码器用于获取押韵规则,并根据押韵规则确定待生成歌词中的押韵字符。
这样,歌词生成模型在生成押韵字符时可以根据押韵规则生成押韵字符,使得生成的歌词满足待生成歌词的押韵要求。
上述实施例提供的技术方案至少带来以下有益效果:在待训练的歌词文本中增加字数信息,以及其他能够体现歌词格式要求的信息,例如句数,歌词开头,歌词结尾,句子之间的衔接等。这样,在使用这些待训练的歌词文本训练歌词生成模型时,歌词生成模型生成歌词文本的时候除了表征原歌词中文字之间关联特征之外,还可以表征不同字数条件下各个文字之间的关联特征。
如图4所示,本公开实施例还提供了一种歌词生成方法,用于使用根据上述歌词生成模型训练方法得到的训练模型生成歌词模型,该歌词生成方法包括以下S401-S403:
S401、歌词生成装置获取约束条件。
约束条件至少包括:输入文本以及待生成歌词中每句歌词的字数,待生成歌词包括输入文本。
一种可能的实现方式中,约束条件还包括以下至少一项:歌词句数,韵脚。
S402、歌词生成装置将约束条件输入歌词生成模型,生成与预设条件对应的歌词。
其中,该歌词生成模型为上述步骤S201-S203,或者S301-S306中所记载的方法得到的歌词生成模型。
S403、歌词生成装置对生成的歌词进行后期处理,确定最终的歌词。
其中,上述后期处理可以包括:过滤目标词汇,检查歌词完整性,确定歌词与主题词的相关度等。
目标词汇为不适合出现在歌词内容中的词汇。
检查歌词完整性能够确定歌词的句数,字数,韵脚等是否符合约束条件。歌词语句是否连贯等。
确定歌词与主题词的相关度能够避免生成的歌词与主题词相关度太低,无法得到想要的歌词。
上述实施例提供的技术方案至少带来以下有益效果:歌词生成装置以字数和主题词作为约束条件约束歌词生成模型生成的歌词,可以使歌词生成模型能够直接生成符合字数要求,并贴合主题词的歌词,提高了歌词生成模型生成歌词的效率。
此外,在约束条件还包括歌词句数和韵脚的情况下,歌词生成模型可以进一步生成满足歌词句数和韵脚要求的歌词,进一步提高了歌词生成模型生成歌词的能力。
一种可能的实现方式中,根据上述预设网络模型训练得到的歌词生成模型的输出层同样包括j个节点,该j个节点对应j个字符向量(例如文本文字转换的向量)。
歌词生成模型将已知字符转换为向量之后,经过一系列的预测处理,生成根据已知数据预测的下一个字符的向量。上述已知字符可以包括歌词生成装置将约束条件中的主题词以及歌词生成模型根据主题词已输出的字符。
歌词生成模型的输出层输出下一个字符的过程为:
歌词生成模型计算下一个字符的向量与j个字符向量之间的距离;歌词生成模型根据j个字符向量对应的距离,确定j个节点输出的概率值。歌词生成模型采用top-k算法、top-p算法或温度采样算法,从上述j个节点输出的概率值中选择一个概率值。歌词生成模型确定输出该被选择的概率值的节点对应的字符为下一个字符。
其中,下一个字符的向量与j个字符向量中的一个字符向量的距离越近,该一个字符向量为下一个字符的概率越大;下一个字符向量与j个字符向量中的一个字符向量的距离越远,该一个字符向量为下一个字符的概率越小。
一种示例,歌词生成装置采用top-k算法选择节点的过程为:歌词生成装置从j个节点中,选择k个概率值最大的节点,歌词生成装置采用随机选择的方法,从该k个节点中选择一个节点,将该节点对应的字符作为预测的下一个字符。
一种示例,歌词生成模型包括10个节点,分别为:第一节点,对应字符“一”;第二节点,对应字符“二”;第三节点,对应字符“三”;第四节点,对应字符“四”;第五节点,对应字符“五”;第六节点,对应字符“六”;第七节点,对应字符“七”;第八节点,对应字符“八”;第九节点,对应字符“九”;第十节点,对应字符“十”。
在一次预测过程中,第一节点生成的概率值为0.87;第二节点生成的概率值为0.52;第三节点生成的概率值为0.11;第四节点生成的概率值为0.90;第五节点生成的概率值为0.49;第六节点生成的概率值为0.64;第七节点生成的概率值为0.56;第八节点生成的概率值为0.22;第九节点生成的概率值为0.25;第十节点生成的概率值为0.71。
歌词生成装置确定top-k算法中,参数k的取值为2。歌词生成装置采用top-k算法从第一节点至第十节点中选择概率值最高的两个节点,分别为:第一节点和第四节点。
歌词生成装置从第一节点和第四节点中随机选择一个节点作为最终的节点,例如,歌词生成装置选择的节点为第一节点,则歌词生成装置确定第一节点对应的字符“一”为预测生成的歌词中的下一个字。
需要指出的是,在歌词生成模型为根据倒序排列的歌词文本训练得到的歌词生成模型时,歌词生成模型生成的歌词中,每句歌词内的文字同样为倒序排列的。
歌词生成装置获取到歌词生成模型生成的倒序排列的歌词之后,将倒序排列的歌词调整为顺序排列的歌词,得到最终生成的歌词文本。
一种可能的实现方式中,约束条件还包括:韵脚。
基于韵脚的约束条件,在倒序排列的情况下,歌词生成模型确定生成一句歌词中的第一个字符时,确定j个节点中的韵脚节点和非韵脚节点。歌词生成模型控制非韵脚节点输出的概率值小于预设值。
这样在,歌词生成模型生成需要押韵的字符时,非韵脚节点输出的概率值小于预设值,歌词生成模型采用top-k等算法选择节点时,将不会选择非韵脚节点。进一步的,歌词生成模型输出该押韵字符时,也不会输出非韵脚节点对应的字符,只会输出韵脚节点输出的字符。这样,歌词生成模型可以根据韵脚的约束条件生成押韵的字符,以保证生成的歌词符合韵脚的约束条件。
可以理解的是,上述歌词生成模型训练方法可以歌词生成模型训练装置实现,上述歌词生成方法可以歌词生成装置实现。歌词生成模型训练装置和歌词生成装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,本公开实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开实施例的范围。
本公开实施例可以根据上述方法示例对上述歌词生成模型训练装置和歌词生成装置等进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本公开实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图5为本公开实施例公开的一种歌词生成模型训练装置的结构示意图。该歌词生成模型训练装置包括:通信模块501和处理模块502。
其中,所述通信模块501,被配置为获取第一歌词文本,所述第一歌词文本至少包括一首或多首歌曲的歌词、所述歌曲中每一句歌词的字数信息;
所述处理模块502,被配置为将所述第一歌词文本转换为训练字符;
所述处理模块502,还被配置为根据所述训练字符,对预设网络模型进行训练,得到歌词生成模型;所述歌词生成模型用于根据输入的待生成歌词的约束条件,生成与所述约束条件对应的所述待生成歌词,所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本,所述歌词生成模型能够识别训练字符。
在一种可能的实现方式中,所述通信模块501,还被配置为获取第二歌词文本,所述第二歌词文本包括所述一首或多首歌曲的歌词。
所述处理模块502,还被配置为在第二歌词文本中添加特征信息,得到处理后的文本;特征信息至少包括所述歌曲中每一句歌词的字数信息,所述字数信息用于标识字的数量。
所述处理模块502,还被配置为根据处理后的文本,确定所述第一歌词文本。
在一种可能的实现方式中,所述特征信息还包括以下任一项:所述歌曲中每一首歌曲的句数信息、所述每一首歌曲的开始信息、所述每一首歌曲的结束信息。
在一种可能的实现方式中,所述处理模块502,具体被配置为:将所述处理后的文本中的每一句歌词的文字倒序排列,以得到倒序排列后的文本。
确定所述倒序排列后的文本为所述第一文本。
在一种可能的实现方式中,所述处理模块502,具体被配置为:
根据所述预设网络模型的处理长度,从所述训练字符中获取输入序列和输出序列,所述输入序列和所述输出序列的长度小于或等于所述处理长度,所述输出序列包括所述训练字符中输入序列中每一字符的下一个字符。
根据所述输入序列和所述输出序列,对所述预设网络模型进行训练,得到所述歌词生成模型。
在一种可能的实现方式中,所述歌词生成模型包括解码器和输出层;所述输出层用于输出所述歌词生成模型预测的字符。
所述解码器,被配置为:
获取押韵规则。
根据所述押韵规则,确定待生成歌词中的押韵字符。
在生成所述押韵字符的过程中,抑制所述输出层的生成非押韵字符。
图6为本公开实施例公开的一种歌词生成装置的结构示意图。该歌词生成装置包括:通信模块601和处理模块602。
所述通信模块601,被配置为获取约束条件;所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本。
所述处理模块602,被配置为将约束条件输入到歌词生成模型,生成与所述约束条件对应的歌词。
其中,所述歌词生成模型为根据上述步骤S201-S203,或者S301-S306中所记载的方法得到的歌词生成模型。
在一种可能的实现方式中,所述约束条件还包括以下至少一项:歌词句数,韵脚。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图7是根据一示例性实施例示出的一种计算机设备的结构框图,该计算机设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器71、和一个或一个以上的存储器72。其中,存储器72中存储有至少一条指令,至少一条指令由处理器71加载并执行以实现上述各个方法实施例提供的歌词生成模型训练方法。当然,该计算机设备还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该计算机设备还可以包括其他用于实现设备功能的部件,在此不做赘述。
图8是根据一示例性实施例示出的一种计算机设备的结构框图,该计算机设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器81和一个或一个以上的存储器82。其中,存储器82中存储有至少一条指令,至少一条指令由处理器81加载并执行以实现上述各个方法实施例提供的歌词生成方法。当然,该计算机设备还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该计算机设备还可以包括其他用于实现设备功能的部件,在此不做赘述。
本公开还提供了一种包括指令的计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述计算机可读存储介质中的指令由计算机设备的处理器执行时,使得计算机能够执行上述所示实施例提供的歌词生成模型训练方法,或者上述所示实施例提供的歌词生成方法。例如,计算机可读存储介质可以为包括指令的存储器72,上述指令可由计算机设备的处理器71执行以完成上述歌词生成模型训练方法。又例如,计算机可读存储介质可以为包括指令的存储器82,上述指令可由计算机设备的处理器81执行以完成上述歌词生成方法。可选地,计算机可读存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本公开还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机设备执行上述所示实施例提供的歌词生成模型训练方法,或者上述所示实施例提供的歌词生成方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种歌词生成模型训练方法,其特征在于,包括:
获取第一歌词文本,所述第一歌词文本至少包括一首或多首歌曲的歌词、所述歌曲中每一句歌词的字数信息;
将所述第一歌词文本转换为训练字符;
根据所述训练字符,对预设网络模型进行训练,得到歌词生成模型;所述歌词生成模型用于根据输入的待生成歌词的约束条件,生成与所述约束条件对应的所述待生成歌词,所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本,所述歌词生成模型能够识别训练字符。
2.根据权利要求1所述的方法,其特征在于,所述获取第一歌词文本,包括:
获取第二歌词文本,所述第二歌词文本包括所述一首或多首歌曲的歌词;
在第二歌词文本中添加特征信息,得到处理后的文本;特征信息至少包括所述歌曲中每一句歌词的字数信息,所述字数信息用于标识字的数量;
根据处理后的文本,确定所述第一歌词文本。
3.根据权利要求2所述的方法,其特征在于,所述特征信息还包括以下任一项:所述歌曲中每一首歌曲的句数信息、所述每一首歌曲的开始信息、所述每一首歌曲的结束信息。
4.一种歌词生成方法,其特征在于,包括:
获取约束条件;所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本;
将约束条件输入到歌词生成模型,生成与所述约束条件对应的歌词;
其中,所述歌词生成模型为根据权利要求1-3任一项所述的歌词生成模型训练方法训练得到的歌词生成模型。
5.一种歌词生成模型训练装置,其特征在于,包括:通信模块和处理模块;
所述通信模块,被配置为获取第一歌词文本,所述第一歌词文本至少包括一首或多首歌曲的歌词、所述歌曲中每一句歌词的字数信息;
所述处理模块,被配置为将所述第一歌词文本转换为训练字符;
所述处理模块,还被配置为根据所述训练字符,对预设网络模型进行训练,得到歌词生成模型;所述歌词生成模型用于根据输入的待生成歌词的约束条件,生成与所述约束条件对应的所述待生成歌词,所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本,所述歌词生成模型能够识别训练字符。
6.一种歌词生成装置,其特征在于,包括:通信模块和处理模块;
所述通信模块,被配置为获取约束条件;所述约束条件至少包括:输入文本以及所述待生成歌词中每句歌词的字数,所述待生成歌词包括所述输入文本;
所述处理模块,被配置为将约束条件输入到歌词生成模型,生成与所述约束条件对应的歌词;
其中,所述歌词生成模型为根据权利要求5所述的歌词生成模型训练装置训练得到的歌词生成模型。
7.一种计算机设备,其特征在于,所述计算机设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1-3中任一项所述的歌词生成模型训练方法。
8.一种计算机设备,其特征在于,所述计算机设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求4所述的歌词生成方法。
9.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,当所述计算机可读存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行如权利要求1-3中任一项所述的歌词生成模型训练方法,或者使得所述计算机设备能够执行如权利要求4所述的歌词生成模型训练方法。
10.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,当所述计算机指令在计算机设备上运行时,使得所述计算机设备执行如权利要求1-3中任意一项所述的歌词生成模型训练方法,或者使所述计算机设备执行如权利要求4所述的歌词生成方法。
CN202110286728.5A 2021-03-17 2021-03-17 歌词生成模型训练方法、歌词生成方法、装置及存储介质 Pending CN115114474A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110286728.5A CN115114474A (zh) 2021-03-17 2021-03-17 歌词生成模型训练方法、歌词生成方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110286728.5A CN115114474A (zh) 2021-03-17 2021-03-17 歌词生成模型训练方法、歌词生成方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN115114474A true CN115114474A (zh) 2022-09-27

Family

ID=83324541

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110286728.5A Pending CN115114474A (zh) 2021-03-17 2021-03-17 歌词生成模型训练方法、歌词生成方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN115114474A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN110362696A (zh) * 2019-06-11 2019-10-22 平安科技(深圳)有限公司 歌词生成方法、系统、计算机设备及计算机可读存储介质
CN111259665A (zh) * 2020-01-14 2020-06-09 成都嗨翻屋科技有限公司 一种基于神经网络的交互式歌词生成方法及系统
CN111428487A (zh) * 2020-02-27 2020-07-17 支付宝(杭州)信息技术有限公司 模型训练方法、歌词生成方法、装置、电子设备及介质
CN111783455A (zh) * 2020-07-13 2020-10-16 网易(杭州)网络有限公司 文本生成模型的训练方法及装置、文本生成方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528858A (zh) * 2016-11-29 2017-03-22 北京百度网讯科技有限公司 歌词生成方法及装置
CN110362696A (zh) * 2019-06-11 2019-10-22 平安科技(深圳)有限公司 歌词生成方法、系统、计算机设备及计算机可读存储介质
CN111259665A (zh) * 2020-01-14 2020-06-09 成都嗨翻屋科技有限公司 一种基于神经网络的交互式歌词生成方法及系统
CN111428487A (zh) * 2020-02-27 2020-07-17 支付宝(杭州)信息技术有限公司 模型训练方法、歌词生成方法、装置、电子设备及介质
CN111783455A (zh) * 2020-07-13 2020-10-16 网易(杭州)网络有限公司 文本生成模型的训练方法及装置、文本生成方法及装置

Similar Documents

Publication Publication Date Title
CN108288468B (zh) 语音识别方法及装置
JP5149737B2 (ja) 自動会話システム、並びに会話シナリオ編集装置
JP6581356B2 (ja) 大規模コーパスに基づく音声合成方法及び装置
CN110782870A (zh) 语音合成方法、装置、电子设备及存储介质
EP3370230B1 (en) Voice interaction apparatus, its processing method, and program
JP6884947B2 (ja) 対話システム及びそのためのコンピュータプログラム
CN105654940B (zh) 一种语音合成方法和装置
JP2007115145A (ja) 会話制御装置
KR102398993B1 (ko) 텍스트 생성 장치 및 방법
US9905224B2 (en) System and method for automatic language model generation
US20140236597A1 (en) System and method for supervised creation of personalized speech samples libraries in real-time for text-to-speech synthesis
CN110782869A (zh) 语音合成方法、装置、系统和存储介质
CN112599113A (zh) 方言语音合成方法、装置、电子设备和可读存储介质
CN111046217B (zh) 组合歌曲生成方法、装置、设备以及存储介质
KR102167157B1 (ko) 발음 변이를 적용시킨 음성 인식 방법
WO2016103652A1 (ja) 音声処理装置、音声処理方法、および記録媒体
WO2014176489A2 (en) A system and method for supervised creation of personalized speech samples libraries in real-time for text-to-speech synthesis
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
CN112837700A (zh) 一种情感化的音频生成方法和装置
CN113591472A (zh) 歌词生成方法、歌词生成模型训练方法、装置及电子设备
CN116959464A (zh) 音频生成网络的训练方法、音频生成方法以及装置
CN117219052A (zh) 韵律预测方法、装置、设备、存储介质和程序产品
CN115114474A (zh) 歌词生成模型训练方法、歌词生成方法、装置及存储介质
CN113948062A (zh) 数据转换方法及计算机存储介质
CN115206270A (zh) 基于循环特征提取的音乐生成模型的训练方法、训练装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination