CN112992107A - 训练声学转换模型的方法、终端及存储介质 - Google Patents

训练声学转换模型的方法、终端及存储介质 Download PDF

Info

Publication number
CN112992107A
CN112992107A CN202110321807.5A CN202110321807A CN112992107A CN 112992107 A CN112992107 A CN 112992107A CN 202110321807 A CN202110321807 A CN 202110321807A CN 112992107 A CN112992107 A CN 112992107A
Authority
CN
China
Prior art keywords
audio
audio frame
value
sample
loss value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110321807.5A
Other languages
English (en)
Inventor
庄晓滨
姜涛
胡鹏
吴斌
黄昕
周思瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Music Entertainment Technology Shenzhen Co Ltd
Original Assignee
Tencent Music Entertainment Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Music Entertainment Technology Shenzhen Co Ltd filed Critical Tencent Music Entertainment Technology Shenzhen Co Ltd
Priority to CN202110321807.5A priority Critical patent/CN112992107A/zh
Publication of CN112992107A publication Critical patent/CN112992107A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/131Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本申请公开了一种训练声学转换模型的方法、终端及存储介质,属于互联网技术领域。该方法包括:获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取每个音频帧对应的基准频谱特征信息;将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息;根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值;确定每个初始损失值对应的权重值,根据每个音频帧对应的初始损失值和权重值,计算综合损失值;根据综合损失值,对声学转换模型进行训练调整。本申请实施例可以在一定程度上提高训练调整后的声学转换模型的准确性。

Description

训练声学转换模型的方法、终端及存储介质
技术领域
本申请涉及互联网技术领域,特别涉及一种训练声学转换模型的方法、终端及存储介质。
背景技术
近年来,歌曲合成技术一直备受社会各界的关注,该技术最大的便利性在于可以合成某人没有演唱过的歌曲音频。例如,在用户想要收听许嵩的歌曲音频《平凡之路》,但实际上许嵩并没有演唱过歌曲音频《平凡之路》情况下,用户可以先找到朴树演唱的歌曲音频《平凡之路》以及歌曲音频《平凡之路》的歌词,使得终端基于朴树演唱的歌曲音频《平凡之路》和歌曲音频《平凡之路》的歌词生成许嵩的歌曲音频《平凡之路》。在上述过程中,终端生成许嵩的歌曲音频《平凡之路》的具体步骤为:将歌词和歌曲音频输入强制对齐模型,得到每个音频帧对应的音素信息,并提取歌曲音频的每个音频帧的音高信息。将每个音频帧的音素信息和音高信息输入训练完成的许嵩的声学转换模型,输出每个音频帧对应的频谱特征信息。将每个音频帧对应的频谱特征信息输入声码器,得到生成许嵩的歌曲音频《平凡之路》。
在相关技术中,确定损失值的方法为计算每个音频帧的预测频谱特征信息和基准频谱特征信息之间的初始损失值,并将每个音频帧对应的初始损失值进行相加,得到综合损失值。而在实际过程中,基于强制对齐模型得到的音素信息可能存在一定的误差,这样会导致训练调整后的声学转换模型不准确。
发明内容
本申请实施例提供了一种训练声学转换模型的方法、终端及存储介质,能够在一定程度上提高训练调整后的声学转换模型的准确性。该技术方案如下:
一方面,本申请实施例一种训练声学转换模型的方法,所述方法包括:
获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取所述每个音频帧对应的基准频谱特征信息;
将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息;
根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值;
确定每个初始损失值对应的权重值,其中,所述权重值与对应的初始损失值负相关;
根据每个音频帧对应的初始损失值和权重值,计算综合损失值;
根据所述综合损失值,对所述声学转换模型进行训练调整;
使用所述目标对象的其他样本歌曲音频再对训练调整后的声学转换模型进行训练调整,直至基于训练调整后的声学转换模型得到的歌曲音频满足预设条件,得到训练完成的声学转换模型。
可选的,所述获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取所述每个音频帧对应的基准频谱特征信息,包括:
获取所述目标对象的样本歌曲音频和所述样本歌曲音频对应的样本歌词;
根据所述样本歌曲音频和所述样本歌词,确定所述样本歌曲音频中每个音频帧对应的音素信息和音高信息;
提取所述样本歌曲音频的每个音频帧对应的频谱特征信息,作为基准频谱特征信息。
可选的,所述确定每个初始损失值对应的权重值,包括:
根据每个音频帧对应的初始损失值以及公式
Figure BDA0002993167580000021
得到每个初始损失值对应的权重值;
其中,Li为所述样本歌曲音频中第i个音频帧对应的初始损失值,n为所述样本歌曲音频包含的音频帧的帧数,wi为所述样本歌曲音频中第i个音频帧的初始损失值对应的权重值。
可选的,所述根据每个音频帧对应的初始损失值和权重值,计算综合损失值,包括:
确定每个音频帧对应的初始损失值和权重值之积;
将每个音频帧对应的初始损失值和权重值之积相加,得到综合损失值。
可选的,所述方法还包括:
根据每个音频帧对应的权重值,得到损失调整值;
所述根据所述综合损失值,对所述声学转换模型进行训练调整,包括:
根据损失调整值,对所述综合损失值进行调整,得到调整后的综合损失值;
根据所述调整后的综合损失值,对所述声学转换模型进行训练调整。
可选的,所述根据损失调整值,对所述综合损失值进行调整,得到调整后的综合损失值,包括:
将所述综合损失值和所述损失调整值相加,得到调整后的综合损失值。
可选的,所述根据每个音频帧对应的权重值,确定所述损失调整值,包括:
确定所述样本歌曲音频对应的平均权重值;
确定权重值小于或等于所述平均权重值的音频帧的数目;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例小于或者等于预设比例阈值,则确定所述损失调整值为0;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例大于所述预设比例阈值,则确定所述损失调整值为所述比例和所述预设比例阈值的差值。
可选的,所述方法还包括:
获取参考歌曲音频和所述参考歌曲音频对应的参考歌词;
根据所述参考歌曲音频和所述参考歌词,得到所述参考歌曲音频中每个音频帧对应的音素信息和音高信息;
将每个音频帧对应的音素信息和音高信息输入训练完成的声学转换模型,得到每个音频帧对应的频谱特征信息;
将每个音频帧对应的频谱特征信息输入声码器,得到所述目标对象的合成歌曲音频。
可选的,所述根据所述样本歌曲音频和所述样本歌词,确定所述样本歌曲音频中每个音频帧对应的音素信息和音高信息,包括:
将所述样本歌曲音频和所述样本歌词输入强制对齐模型,得到所述样本歌词对应的音素序列,以及所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点;
根据所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点,得到所述样本歌曲音频的每个音频帧对应的音素信息;
确定所述样本歌曲音频的每个音频帧对应的音高信息。
一方面,本申请提供了一种训练声学转换模型的装置,所述装置包括:
获取模块,被配置为获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取所述每个音频帧对应的基准频谱特征信息;
得到模块,被配置为将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息;
第一确定模块,被配置为根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值;
第二确定模块,被配置为确定每个初始损失值对应的权重值,其中,所述权重值与对应的初始损失值负相关;
计算模块,被配置为根据每个音频帧对应的初始损失值和权重值,计算综合损失值;
训练模块,被配置为根据所述综合损失值,对所述声学转换模型进行训练调整;
判断模块,被配置为使用所述目标对象的其他样本歌曲音频再对训练调整后的声学转换模型进行训练调整,直至基于训练调整后的声学转换模型得到的歌曲音频满足预设条件,得到训练完成的声学转换模型。
可选的,所述获取模块,被配置为:
获取所述目标对象的样本歌曲音频和所述样本歌曲音频对应的样本歌词;
根据所述样本歌曲音频和所述样本歌词,确定所述样本歌曲音频中每个音频帧对应的音素信息和音高信息;
提取所述样本歌曲音频的每个音频帧对应的频谱特征信息,作为基准频谱特征信息。
可选的,所述计算模块,被配置为:
根据每个音频帧对应的初始损失值以及公式
Figure BDA0002993167580000041
得到每个初始损失值对应的权重值;
其中,Li为所述样本歌曲音频中第i个音频帧对应的初始损失值,n为所述样本歌曲音频包含的音频帧的帧数,wi为所述样本歌曲音频中第i个音频帧的初始损失值对应的权重值。
可选的,所述计算模块,被配置为:
确定每个音频帧对应的初始损失值和权重值之积;
将每个音频帧对应的初始损失值和权重值之积相加,得到综合损失值。
可选的,所述装置还包括损失调整模块:
根据每个音频帧对应的权重值,得到损失调整值;
所述训练模块,被配置为:
根据损失调整值,对所述综合损失值进行调整,得到调整后的综合损失值;
根据所述调整后的综合损失值,对所述声学转换模型进行训练调整。
可选的,所述训练模块,被配置为:
将所述综合损失值和所述损失调整值相加,得到调整后的综合损失值。
可选的,所述损失调整模块,被配置为:
确定所述样本歌曲音频对应的平均权重值;
确定权重值小于或等于所述平均权重值的音频帧的数目;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例小于或者等于预设比例阈值,则确定所述损失调整值为0;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例大于所述预设比例阈值,则确定所述损失调整值为所述比例和所述预设比例阈值的差值。
可选的,所述装置还包括合成模块,所述合成模块被配置为:
获取参考歌曲音频和所述参考歌曲音频对应的参考歌词;
根据所述参考歌曲音频和所述参考歌词,得到所述参考歌曲音频中每个音频帧对应的音素信息和音高信息;
将每个音频帧对应的音素信息和音高信息输入训练完成的声学转换模型,得到每个音频帧对应的频谱特征信息;
将每个音频帧对应的频谱特征信息输入声码器,得到所述目标对象的合成歌曲音频。
可选的,所述获取模块,被配置为:
将所述样本歌曲音频和所述样本歌词输入强制对齐模型,得到所述样本歌词对应的音素序列,以及所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点;
根据所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点,得到所述样本歌曲音频的每个音频帧对应的音素信息;
确定所述样本歌曲音频的每个音频帧对应的音高信息。
一方面,本申请实施例提供了一种终端,该终端包括处理器和存储器,该存储器中存储有至少一条程序代码,该至少一条程序代码由该处理器加载并执行以实现上述的训练声学转换模型的方法。
一方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行以实现上述的训练声学转换模型的方法。
在相关技术中,由于某些音频帧的音素信息存在误差,导致这些音频帧的初始损失值较大。而本申请实施例中的每个音频帧的权重值与每个音频帧的初始损失值呈负相关,也就是说,初始损失值越大的音频帧,该音频帧对应的权重越小,初始损失值越小的音频帧,该音频帧对应的权重越大,这样可以在一定程度上抑制由音素信息不正确引起的较大初始损失值对声学转换模型的影响,使得训练调整后的声学转换模型更加的准确。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种训练声学转换模型的方法的实施环境的示意图;
图2是本申请实施例提供的一种训练声学转换模型的方法的流程图;
图3是本申请实施例提供的一种训练声学转换模型的方法的流程图;
图4是本申请实施例提供的一种训练声学转换模型的方法的示意图;
图5是本申请实施例提供的一种训练声学转换模型的方法的示意图;
图6是本申请实施例提供的一种训练声学转换模型的装置的结构示意图;
图7是本申请实施例提供的一种终端的结构示意图;
图8是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
图1是本申请实施例提供的一种训练声学转换模型的方法的实施环境的示意图。参见图1,该实施环境包括:终端101和服务器102。
终端101可以是智能手机、游戏主机、台式计算机、平板电脑、MP3(Moving PictureExperts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器和膝上型便携计算机中的至少一种。终端101通过有线网络或无线网络与服务器102相连,终端101中安装和运行有支持播放音乐的应用程序。终端101可以用于生成和发送音频合成请求,音频合成请求携带有对象标识和歌曲音频标识,还可以用于接收服务器102发送的合成歌曲音频。
服务器102可以是一台服务器,也可以是多台服务器组成的服务器集群。服务器102可以是云计算平台和虚拟化中心中的至少一种,本申请实施例对此不做限定。服务器102可以用于接收终端101发送的音频合成请求,音频合成请求携带有对象标识和歌曲音频标识,也可以用于生成目标对象的合成歌曲音频,并将该合成歌曲音频发送给终端101,还可以用于对目标对象的声学转换模型进行训练调整。当然,该服务器102还可以包括其他功能服务器,以便提供更加全面且多样化的服务。
图2是本申请实施例提供的一种训练声学转换模型的方法的流程图,参见图2,该实施例包括:
步骤201、获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取每个音频帧对应的基准频谱特征信息;
步骤202、将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息;
步骤203、根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值;
步骤204、确定每个初始损失值对应的权重值,其中,权重值与对应的初始损失值负相关;
步骤205、根据每个音频帧对应的初始损失值和权重值,计算综合损失值;
步骤206、根据综合损失值,对声学转换模型进行训练调整。
步骤207、使用目标对象的其他样本歌曲音频再对训练调整后的声学转换模型进行训练调整,直至基于训练调整后的声学转换模型得到的歌曲音频满足预设条件,得到训练完成的声学转换模型。
在相关技术中,由于某些音频帧的音素信息存在误差,导致这些音频帧的初始损失值较大。而本申请实施例中的每个音频帧的权重值与每个音频帧的初始损失值呈负相关,也就是说,初始损失值越大的音频帧,该音频帧对应的权重越小,初始损失值越小的音频帧,该音频帧对应的权重越大,这样可以在一定程度上抑制由音素信息不正确引起的较大初始损失值对声学转换模型的影响,使得训练调整后的声学转换模型更加的准确。
图3是本申请实施例提供的一种训练声学转换模型的方法的流程图。该实施例可以由电子设备执行,电子设备可以是服务器,也可以是终端。当该实施例以服务器为执行主体时,可以在服务器中训练声学转换模型,当该实施例以终端为执行主体时,可以在终端中训练声学转换模型,并将训练调整后的声学转换模型发送给服务器进行存储。参见图3,该实施例包括:
步骤301、获取目标对象的样本歌曲音频和样本歌曲音频对应的样本歌词。
其中,目标对象为演唱样本歌曲音频的歌手。例如,技术人员想要合成许嵩的歌曲音频《平凡之路》,目标对象便是许嵩。目标对象的样本歌曲音频为目标对象演唱过的歌曲音频。例如,许嵩演唱过的歌曲音频《素颜》、歌曲音频《玫瑰花的葬礼》等歌曲音频。样本歌曲音频对应的样本歌词可以为歌曲音频《素颜》对应的歌词、歌曲音频《玫瑰花的葬礼》对应的歌词等。
在实施中,在曲库中,获取目标对象演唱过的歌曲音频和每个歌曲音频对应的歌词,并将歌曲音频和该歌曲音频对应的歌词作为一个样本存储到目标对象的样本集中,进而得到目标对象的样本集,并将目标对象的样本集存储到电子设备。在获得目标对象的样本集之后,在样本集中随机选取出一个样本,并获取到该样本中目标对象的样本歌曲音频和样本歌曲音频对应的样本歌词。
步骤302、提取样本歌曲音频的每个音频帧对应的频谱特征信息,作为基准频谱特征信息。
在实施中,对样本歌曲音频进行分帧加窗处理,得到样本歌曲音频的多个音频帧。将每个音频帧输入特征提取模型,输出每个音频帧对应的频谱特征信息,并将每个音频帧对应的频谱特征信息作为每个音频帧的基准频谱特征信息。
需要说明的是,频谱特征信息可以包括梅尔频谱,傅里叶变换幅值谱和频谱包络中的一种或者多种。在本申请实施例中,频谱特征信息可以为傅里叶变换幅值谱和频谱包络,具体获取方式为通过特征提取模型,对每个音频帧对应的傅里叶变换幅值谱和频谱包络进行提取,得到每个音频帧的频谱特征信息。特征提取模型提取傅里叶变换幅值谱和频谱包络的方法可以为相关技术对傅里叶变换幅值谱和频谱包络进行提取的方法。
步骤303、根据样本歌曲音频和样本歌词,获取样本歌曲音频中每个音频帧对应的音素信息和音高信息。
其中,音素信息共有48个,例如音素信息“n”。每个音频帧对应的音高信息为每个音频帧对应的音高值。
可选的,在本申请实施例中,可以通过强制对齐模型来得到每个音频帧对应的音素信息,具体过程如下:如图4所示,将样本歌曲音频和样本歌词输入强制对齐模型,得到样本歌词对应的音素序列,以及音素序列中每个音素信息在样本歌曲音频中对应的起始时间点和终止时间点。根据音素序列中每个音素信息在样本歌曲音频中对应的起始时间点和终止时间点,得到样本歌曲音频的每个音频帧对应的音素信息。
其中,音频帧的时长一般在10ms-20ms之间。在音频帧的时长固定的情况下,可以对起始时间点和终止时间点之间的时间段进行划分,得到该时间段内的多个音频帧。
在实施中,如图4所示,在将样本歌曲音频和样本歌词输入强制对齐模型后,强制对齐模型会将样本歌词转换成音素序列,并将音素序列和样本歌曲音频进行强制对齐,得到音素序列中每个音素信息在样本歌曲音频中对应的起始时间点和终止时间点。对每个音素信息对应的时间段进行分帧处理,得到样本歌曲音频的每个音频帧对应的音素信息。
需要说明是,上述过程涉及的强制对齐模型可以是机器学习模型,也可以为非机器学习模型。当强制对齐模型为非机器学习模型时,强制对齐模型确定歌词对应的音素序列,并根据预先存储的音素信息和发音特征的对应关系,对歌曲音频的每一帧进行识别,进而确定出音素序列中每个音素信息在歌曲音频中的起始时间点和终止时间点。根据每个音素信息在歌曲音频中的起始时间点和终止时间点,确定每个音素信息对应的音频帧,进而将歌词对应的音素序列扩展为歌曲音频对应的音素序列,实现音素序列的扩展。
音素序列的扩展是指将歌词对应的音素序列扩展为歌曲音频对应的音素序列。例如,歌词“你好”对应的音素序列为“nihao”,音素信息“n”对应的时间段为0-0.3s,音素信息“i”对应的时间段为0.3-0.8s,音素信息“h”对应的时间段为0.8-1s,音素信息“ao”对应的时间段为1-1.1s。假设,每个音频帧对应的时长为10ms。故,音素信息“n”对应30个音频帧,需要将音素信息“n”重复30次。音素信息“i”对应50个音频帧,需要将音素信息“i”重复50次。音素信息“h”对应20个音频帧,需要将音素信息“h”重复20次。音素信息“ao”对应10个音频帧,需要将音素信息“ao”重复10次。因此,歌曲音频对应的音素序列为“nn……n(n重复30次)ii……i(i重复50次)hh……h(h重复20次)aoao……ao(ao重复10次)”。通过上述方法将歌词对应的音素序列“nihao”转换为歌曲音频对应的音素序列“nn……n(n重复30次)ii……i(i重复50次)hh……h(h重复20次)aoao……ao(ao重复10次)”。
需要说明的是,当强制对齐模型为非机器学习模型时,主要误差主要产生在根据音素信息和发音特征的对应关系,确定出音素序列中每个音素信息在歌曲音频中的起始时间点和终止时间点这个过程中。这是由于强制对齐模型中的每个音素信息的发音特征是不变的,而在歌曲音频中每个音频帧的发音特征可能受音色、旋律等因素影响而发生变化。因此,单单根据音素信息和发音特征的对应关系确定的音素信息存在一定的误差。
强制对齐模型还可以为机器学习模型,例如该强制对齐模型可以为神经网络模型。该模型的训练方法为:预先获取大量的样本歌曲音频和每个样本歌曲音频对应的样本歌词,人工标注每个样本歌词对应的音素序列以及每个音素序列中每个音素信息对应的起始时间点和终止时间点,进而得到每个样本歌曲音频对应的基准音素序列、基准起始时间点和基准终止时间点。随机获取任意一首样本歌曲音频和该样本歌曲音频对应的样本歌词,并将该样本歌曲音频和样本歌词输入强制对齐模型,输出该样本歌词对应的预测音素序列和该预测音素序列中每个音素信息对应的预测起始时间点和预测终止时间点。基于基准音素序列、基准起始时间点、基准终止时间点、预测音素序列、预测起始时间点、预测终止时间点以及损失函数,确定损失信息。基于该损失信息对强制对齐模型进行训练调整。之后,再使用其他样本歌曲音频和其他样本歌曲音频对应的样本歌词对强制对齐模型进行训练调整。在预设次训练过程后,获得训练调整后的强制对齐模型。
需要说明的是,当强制对齐模型为机器学习模型时,主要误差来自人工标注的每个音素信息对应的基准起始时间点和基准终止时间点。人工标注的具体过程为技术人员缓慢的播放歌曲音频,根据经验确定歌曲音频中每个音素信息对应的预测起始时间点和预测终止时间点。在人工标注的过程中,即使技术人员的自身经验丰富,确定出的预测起始时间点和预测终止时间点也可能是不准确的。
综上所述,无论强制对齐模型是机器学习模型,还是非机器学习模型,在对歌曲音频和歌词进行强制对齐过程中,都会产生一定的误差。例如,歌曲音频中“你”对应10个音频帧,歌曲音频中的前5个音频帧对应音素信息“n”,后5个音频帧对应音素信息“i”。然而,强制对齐模型得到的结果是前4个音频帧与音素信息“n”对应,后6个音频帧与音素信息“i”对应。在上述过程中,原本对应的音素信息“n”的音频帧与音素信息“i”对应,进而导致该音频帧存在误差。当然在实际过程中产生这样误差的音频帧可能更多,上述例子仅为示意说明。
可选的,本申请实施例还包括确定样本歌曲音频的每个音频帧对应的音高信息。
在实施中,将样本歌曲音频输入音高提取模型中,音高提取模型对样本歌曲音频进行加窗分帧处理,得到样本歌曲音频包括的多个音频帧,并对每个音频帧的基频信息进行提取,得到每个音频帧的基频信息,进而根据每个音频帧的基频信息,确定每个音频帧的音高信息。
步骤304、将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息。
在实施中,将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息。
需要说明的是,本申请实施例中声学转换模型为神经网络模型。
步骤305、根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值。
在本申请实施例中,初始损失值为每个音频帧对应的预测频谱特征信息和基准频谱特征信息输入到损失函数中获得的损失值。本申请实施例中的损失函数可以为L1范数损失函数,还可以是最小均分误差损失函数,也可以为其他损失函数,此处不在一一赘述。
需要说明的是,在本申请实施例中,预测频谱特征信息的维度和基准频谱特征信息的维度对齐。
步骤306、确定每个初始损失值对应的权重值。
其中,权重值与对应的初始损失值负相关。
可选的,在本申请实施例中,获得每个音频帧对应的权重值的方法为:根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息的初始损失值以及公式
Figure BDA0002993167580000121
得到每个音频帧对应的权重值。
其中,Li为样本歌曲音频中第i个音频帧对应的初始损失值,n为样本歌曲音频包含的音频帧的帧数,wi为样本歌曲音频中第i个音频帧的初始损失值对应的权重值。
步骤307、根据每个音频帧对应的初始损失值和权重值,计算综合损失值。
可选的,确定综合损失值的具体步骤为:确定每个音频帧对应的初始损失值和权重值之积。将每个音频帧对应的初始损失值和权重值之积相加,得到综合损失值。
在实施中,根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息的初始损失值,确定每个音频帧对应的权重值。将每个音频帧对应的初始损失值和权重值相乘,确定每个音频帧对应的积,将每个音频帧对应的积相加,确定综合损失值。
由强制对齐模型获得的每个音频帧对应的音素信息存在一定的误差,也就使得声学转换模型的输入就存在一定的误差,进而导致声学转换模型的输出存在较大误差。在本申请实施例中,将每个音频帧对应的初始损失值和权重值进行相乘,确定每个音频帧对应的损失值,而由于权重值与初始损失值负相关,这也在一定程度上抑制了较大初始损失值的音频帧对声学转换模型的影响,使得训练调整后的声学转换模型更加的准确。
可选的,本申请实施例还可以对损失值进行补偿,补偿的具体步骤为:根据每个音频帧对应的权重值,得到损失调整值。根据损失调整值,对综合损失值进行调整,得到调整后的综合损失值。根据调整后的综合损失值,对声学转换模型进行训练调整。
在本申请实施例中,根据每个音频帧对应的权重值,得到损失调整值的步骤为:确定样本歌曲音频对应的平均权重值,确定权重值小于或等于平均权重值的音频帧的数目。如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例小于或者等于预设比例阈值,则确定损失调整值为0。如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例大于预设比例阈值,则确定损失调整值为比例和预设比例阈值的差值。
在本申请实施例中,对每个音频帧对应的权重求平均,得到样本歌曲音频对应的平均权重值。在样本歌曲音频的所有音频帧中,确定出权重值小于或等于平均权重值的音频帧,并计算这些音频帧的数目和总数目之间的比例。如果该比例小于或者等于预设比例阈值,则确定损失调整值为0。如果该比例大于预设比例阈值,则确定损失调整值为该比例和所述预设比例阈值的差值。其中,该过程中的预设比例阈值为技术人员预先设定的,一般设置为50%。
进一步的,根据公式
Figure BDA0002993167580000131
确定权重值小于或等于平均权重值的音频帧,进而得到权重值小于或等于平均权重值的音频帧的数目。其中,当li=1时,第i个音频帧对应的权重值小于或等于平均权重值,当li=0时,第i个音频帧对应的权重值大于平均权重值,wi为样本歌曲音频中第i个音频帧对应的权重值,
Figure BDA0002993167580000132
表示平均权重。根据公式
Figure BDA0002993167580000133
计算权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例。其中,r为权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例,n为样本歌曲音频中所有音频帧的总数目,li为样本歌曲音频中第i个音频帧对应的权重值是否小于或等于平均权重值。根据公式
Figure BDA0002993167580000134
计算出损失调整值。其中,r为权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例,C为损失调整值,γ为预设比例阈值。
可选的,根据损失调整值,对综合损失值进行调整的具体过程为:将综合损失值和所述损失调整值相加,得到调整后的综合损失值。
在如图4中,在该步骤中获得综合损失值的过程包括在将预测频谱特征信息和基准频谱特征输入损失函数获得综合损失值得过程。
在训练过程中,通过对声学转换模型的相关参数进行调整,使得声学转换模型输出的预测频谱特征信息更加的准确。而在训练前期,由于声学转换模型的初始参数设置的不合理等原因,可能会导致预测频谱特征信息中只有少量的预测频谱特征信息与相应的基准频谱特征信息的初始损失值拟合(损失值小,甚至为0),而大量的预测频谱特征信息与相应的基准频谱特征信息的初始损失值较大,此时为了加大对声学转换模型的调整力度,可以通过损失调整值对损失值进行补偿。
同时,由于音素信息不正确的音频帧对应的权重值较小,因此,当音素信息不正确的音频帧越多时,平均权重值越小,权重值小于或等于平均权重值的音频帧的数目越少,音素信息不正确的音频帧的数目越接近于权重值小于或等于平均权重值的音频帧的数目,即音素信息不正确的音频帧占权重值小于或等于平均权重值的音频帧的比例越大。而当音素信息不正确的音频帧占权重值小于或等于平均权重值的音频帧的比例越大时,由音素信息不正确引起的初始损失值对综合损失值的影响较大,可以不对综合损失值进行调整。当音素信息不正确的音频帧越少时,平均权重值会越大,权重值小于或等于平均权重值的音频帧的数目越多,音素信息不正确的音频帧占权重值小于或等于平均权重值的音频帧的比例越小,由声学转换模型不正确引起的初始损失值对综合损失值的影响较大,需要对综合权重值进行补偿。
步骤308、根据综合损失值,对声学转换模型进行训练调整。
在实施中,如图4所示,根据综合损失值,对声学转换模型中待调整的参数进行训练调整。
步骤309、使用目标对象的其他样本歌曲音频再对训练调整后的声学转换模型进行训练调整,直至基于训练调整后的声学转换模型得到的歌曲音频满足预设条件,得到训练完成的声学转换模型。
在实施中,再次获取电子设备中存储的目标对象的样本集,从样本集中获取到目标对象的其他样本歌曲音频,并使用其他样本歌曲音频训练调整声学转换模型。在预设次训练调整后,将最后一次训练调整的声学转换模型输出的预测频谱特征信息输入声码器,输出目标对象的预测合成歌曲音频。如果预测合成歌曲音频和相应的样本歌曲音频相似,则将最后一次训练调整的声学转换模型作为训练完成的声学转换模型。
进一步的,本申请实施例确定预测合成歌曲音频和相应的样本歌曲音频相似的方法为技术人员可以先后播放预测合成歌曲音频和相应的样本歌曲音频,并基于已有经验判断两首歌曲音频的相似程度。如果技术人员认为两首歌曲音频相似,则将最后一次训练调整的声学转换模型作为训练完成的声学转换模型。
在相关技术中,由于某些音频帧的音素信息存在误差,导致这些音频帧的初始损失值较大。而本申请实施例中的每个音频帧的权重值与每个音频帧的初始损失值呈负相关,也就是说,初始损失值越大的音频帧,该音频帧对应的权重越小,初始损失值越小的音频帧,该音频帧对应的权重越大,这样可以在一定程度上抑制由音素信息不正确引起的较大初始损失值对声学转换模型的影响,使得训练调整后的声学转换模型更加的准确。
同时,在本申请实施例中,如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例大于预设比例阈值,此时,权重值小于或等于平均权重值的音频帧的数目较多,说明声学转换模型可能是不准确,即训练过程中误差主要来自声学转换模型。由于本申请实施例中的权重值与对应的初始损失值负相关,这对由声学转换模型自身误差引起的较大初始损失值进行弱化,为避免这种弱化,可以对损失值进行适当补偿,加大声学转换模型的调整力度,进而避免了当权重值小于或等于平均权重值的音频帧的数目较多时,对声学转换模型的训练调整效果较差的问题。如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例小于或者等于预设比例阈值,权重值大于平均权重值的音频帧的数目较少,此时训练过程中的误差主要来自音素信息不正确,可以不对损失值进行补偿。
可选的,在实际过程中,生成目标对象的合成歌曲音频的具体步骤为:获取参考歌曲音频和参考歌曲音频对应的参考歌词。根据参考歌曲音频和参考歌词,得到参考歌曲音频中每个音频帧对应的音素信息和音高信息。将每个音频帧对应的音素信息和音高信息输入训练完成的声学转换模型,得到每个音频帧对应的频谱特征信息。将每个音频帧对应的频谱特征信息输入声码器,得到目标对象的合成歌曲音频。
其中,参考歌曲音频为除目标对象外的其他对象演唱的歌曲音频。声码器可以根据每个音频帧对应的频谱特征信息生成歌曲音频。
在实际过程中,终端响应于音乐应用程序的开启指令,并显示音乐应用程序的主页面。终端响应于主页面上的歌曲合成按钮,并进入歌曲合成页面,歌曲合成页面上包括歌曲音频选择选项和对象选择选项。终端响应于歌曲合成页面上的歌曲音频选择指令和对象选择指令,并生成携带歌曲音频标识和目标对象的对象标识的歌曲合成请求,并将歌曲合成请求发送给服务器。
服务器接收到歌曲合成请求,解析并获得歌曲合成请求中的歌曲音频标识和目标对象的对象标识。服务器根据歌曲音频标识查找到该歌曲音频标识对应的参考歌曲音频和参考歌曲音频对应的参考歌词。如图5所示,服务器将参考歌曲音频和参考歌词输入强制对齐模型,得到参考歌曲音频中每个音频帧对应的音素信息,提取参考歌曲音频中每个音频帧的音高信息。根据目标对象的对象标识找到目标对象的声学转换模型,将每个音频帧对应的音素信息和音高信息输入目标对象的声学转换模型,得到每个音频帧对应的频谱特征信息。将每个音频帧对应的频谱特征信息输入声码器,得到目标对象的合成歌曲音频。服务器将合成歌曲音频发送给终端,进而用户在终端上播放目标对象的合成歌曲音频。
需要说明的是,上述过程中的歌曲音频标识可以为与歌曲音频唯一对应的标识。
目标对象的声学转换模型是根据目标对象演唱过的歌曲音频训练得到的,在使用过程中,将根据除目标对象之外的其他对象演唱的参考歌曲音频和歌词得到的音素信息和音高信息,转换为带有目标对象的音色特征的频谱特征信息。
例如,当用户想要收听许嵩演唱的歌曲音频《平凡之路》,但实际上许嵩并没有演唱过歌曲音频《平凡之路》,此时,用户可以先找到朴树演唱的歌曲音频《平凡之路》以及歌曲音频《平凡之路》的歌词,使得终端基于朴树演唱的歌曲音频《平凡之路》和歌曲音频《平凡之路》的歌词生成许嵩的歌曲音频《平凡之路》。
在上述过程中,目标对象为许嵩,目标对象的样本歌曲音频为许嵩演唱的歌曲音频《素颜》、歌曲音频《玫瑰花的葬礼》等。参考歌曲音频为朴树演唱的歌曲音频《平凡之路》。
图6是本申请实施例提供的一种训练声学转换模型的装置的结构示意图,参见图6,该装置包括:
获取模块610,被配置为获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取所述每个音频帧对应的基准频谱特征信息;
得到模块620,被配置为将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息;
第一确定模块630,被配置为根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值;
第二确定模块640,被配置为确定每个初始损失值对应的权重值,其中,所述权重值与对应的初始损失值负相关;
计算模块650,被配置为根据每个音频帧对应的初始损失值和权重值,计算综合损失值;
训练模块660,被配置为根据所述综合损失值,对所述声学转换模型进行训练调整;
判断模块670,被配置为使用所述目标对象的其他样本歌曲音频再对训练调整后的声学转换模型进行训练调整,直至基于训练调整后的声学转换模型得到的歌曲音频满足预设条件,得到训练完成的声学转换模型。
可选的,所述获取模块,被配置为:
获取所述目标对象的样本歌曲音频和所述样本歌曲音频对应的样本歌词;
根据所述样本歌曲音频和所述样本歌词,确定所述样本歌曲音频中每个音频帧对应的音素信息和音高信息;
提取所述样本歌曲音频的每个音频帧对应的频谱特征信息,作为基准频谱特征信息。
可选的,所述计算模块650,被配置为:
根据每个音频帧对应的初始损失值以及公式
Figure BDA0002993167580000171
得到每个初始损失值对应的权重值;
其中,Li为所述样本歌曲音频中第i个音频帧对应的初始损失值,n为所述样本歌曲音频包含的音频帧的帧数,wi为所述样本歌曲音频中第i个音频帧的初始损失值对应的权重值。
可选的,所述计算模块650,被配置为:
确定每个音频帧对应的初始损失值和权重值之积;
将每个音频帧对应的初始损失值和权重值之积相加,得到综合损失值。
可选的,所述装置还包括损失调整模块:
根据每个音频帧对应的权重值,得到损失调整值;
所述训练模块660,被配置为:
根据损失调整值,对所述综合损失值进行调整,得到调整后的综合损失值;
根据所述调整后的综合损失值,对所述声学转换模型进行训练调整。
可选的,所述训练模块660,被配置为:
将所述综合损失值和所述损失调整值相加,得到调整后的综合损失值。
可选的,所述损失调整模块,被配置为:
确定所述样本歌曲音频对应的平均权重值;
确定权重值小于或等于所述平均权重值的音频帧的数目;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例小于或者等于预设比例阈值,则确定所述损失调整值为0;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例大于所述预设比例阈值,则确定所述损失调整值为所述比例和所述预设比例阈值的差值。
可选的,所述装置还包括合成模块,所述合成模块被配置为:
获取参考歌曲音频和所述参考歌曲音频对应的参考歌词;
根据所述参考歌曲音频和所述参考歌词,得到所述参考歌曲音频中每个音频帧对应的音素信息和音高信息;
将每个音频帧对应的音素信息和音高信息输入训练完成的声学转换模型,得到每个音频帧对应的频谱特征信息;
将每个音频帧对应的频谱特征信息输入声码器,得到所述目标对象的合成歌曲音频。
可选的,所述获取模块610,被配置为:
将所述样本歌曲音频和所述样本歌词输入强制对齐模型,得到所述样本歌词对应的音素序列,以及所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点;
根据所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点,得到所述样本歌曲音频的每个音频帧对应的音素信息;
确定所述样本歌曲音频的每个音频帧对应的音高信息。
需要说明的是:上述实施例提供的训练声学转换模型的装置在训练声学转换模型时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的训练声学转换模型的装置与训练声学转换模型的方法属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7示出了本申请一个示例性实施例提供的终端700的结构框图。该终端700可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端700还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端700包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器701所执行以实现本申请的方法实施例提供的训练声学转换模型的方法。
在一些实施例中,终端700还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、显示屏705、摄像头组件707、音频电路707、定位组件708和电源709中的至少一种。
外围设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏705用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置在终端700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在终端700的不同表面或呈折叠设计;在另一些实施例中,显示屏705可以是柔性显示屏,设置在终端700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件707包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路706可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位终端700的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源709用于为终端700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端700还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器717。
加速度传感器711可以检测以终端700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测终端700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对终端700的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在终端700的侧边框和/或显示屏705的下层。当压力传感器713设置在终端700的侧边框时,可以检测用户对终端700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在显示屏705的下层时,由处理器701根据用户对显示屏705的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置在终端700的正面、背面或侧面。当终端700上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商Logo集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制显示屏705的显示亮度。具体地,当环境光强度较高时,调高显示屏705的显示亮度;当环境光强度较低时,调低显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件707的拍摄参数。
接近传感器716,也称距离传感器,通常设置在终端700的前面板。接近传感器716用于采集用户与终端700的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与终端700的正面之间的距离逐渐变小时,由处理器701控制显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与终端700的正面之间的距离逐渐变大时,由处理器701控制显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对终端700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例提供的计算机设备可提供为一种服务器。图8是本申请实施例提供的一种服务器的结构示意图,该服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)801和一个或一个以上的存储器802,其中,该存储器802中存储有至少一条程序代码,该至少一条程序代码由该处理器801加载并执行以实现上述各个方法实施例提供的训练声学转换模型的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括程序代码的存储器,上述程序代码可由终端或服务器中的处理器执行以完成上述实施例中的训练声学转换模型的方法。例如,所述计算机可读存储介质可以是只读内存(read-only memory,ROM)、随机存取存储器(random access memory),RAM)、只读光盘(compact-disc read-onlymemory)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来程序代码相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (11)

1.一种训练声学转换模型的方法,其特征在于,所述方法包括:
获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取所述每个音频帧对应的基准频谱特征信息;
将每个音频帧对应的音素信息和音高信息输入声学转换模型,得到每个音频帧对应的预测频谱特征信息;
根据每个音频帧对应的预测频谱特征信息和基准频谱特征信息,确定每个音频帧对应的初始损失值;
确定每个初始损失值对应的权重值,其中,所述权重值与对应的初始损失值负相关;
根据每个音频帧对应的初始损失值和权重值,计算综合损失值;
根据所述综合损失值,对所述声学转换模型进行训练调整;
使用所述目标对象的其他样本歌曲音频再对训练调整后的声学转换模型进行训练调整,直至基于训练调整后的声学转换模型得到的歌曲音频满足预设条件,得到训练完成的声学转换模型。
2.根据权利要求1所述的方法,其特征在于,所述获取目标对象的样本歌曲音频中每个音频帧对应的音素信息和音高信息,并获取所述每个音频帧对应的基准频谱特征信息,包括:
获取所述目标对象的样本歌曲音频和所述样本歌曲音频对应的样本歌词;
根据所述样本歌曲音频和所述样本歌词,确定所述样本歌曲音频中每个音频帧对应的音素信息和音高信息;
提取所述样本歌曲音频的每个音频帧对应的频谱特征信息,作为基准频谱特征信息。
3.根据权利要求1所述的方法,其特征在于,所述确定每个初始损失值对应的权重值,包括:
根据每个音频帧对应的初始损失值以及公式
Figure FDA0002993167570000021
得到每个初始损失值对应的权重值;
其中,Li为所述样本歌曲音频中第i个音频帧对应的初始损失值,n为所述样本歌曲音频包含的音频帧的帧数,wi为所述样本歌曲音频中第i个音频帧的初始损失值对应的权重值。
4.根据权利要求1所述的方法,其特征在于,所述根据每个音频帧对应的初始损失值和权重值,计算综合损失值,包括:
确定每个音频帧对应的初始损失值和权重值之积;
将每个音频帧对应的初始损失值和权重值之积相加,得到综合损失值。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据每个音频帧对应的权重值,得到损失调整值;
所述根据所述综合损失值,对所述声学转换模型进行训练调整,包括:
根据损失调整值,对所述综合损失值进行调整,得到调整后的综合损失值;
根据所述调整后的综合损失值,对所述声学转换模型进行训练调整。
6.根据权利要求5所述的方法,其特征在于,所述根据损失调整值,对所述综合损失值进行调整,得到调整后的综合损失值,包括:
将所述综合损失值和所述损失调整值相加,得到调整后的综合损失值。
7.根据权利要求5所述的方法,其特征在于,所述根据每个音频帧对应的权重值,确定所述损失调整值,包括:
确定所述样本歌曲音频对应的平均权重值;
确定权重值小于或等于所述平均权重值的音频帧的数目;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例小于或者等于预设比例阈值,则确定所述损失调整值为0;
如果权重值小于或等于平均权重值的音频帧的数目占所有音频帧的总数目的比例大于所述预设比例阈值,则确定所述损失调整值为所述比例和所述预设比例阈值的差值。
8.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取参考歌曲音频和所述参考歌曲音频对应的参考歌词;
根据所述参考歌曲音频和所述参考歌词,得到所述参考歌曲音频中每个音频帧对应的音素信息和音高信息;
将每个音频帧对应的音素信息和音高信息输入训练完成的声学转换模型,得到每个音频帧对应的频谱特征信息;
将每个音频帧对应的频谱特征信息输入声码器,得到所述目标对象的合成歌曲音频。
9.根据权利要求2所述的方法,其特征在于,所述根据所述样本歌曲音频和所述样本歌词,确定所述样本歌曲音频中每个音频帧对应的音素信息和音高信息,包括:
将所述样本歌曲音频和所述样本歌词输入强制对齐模型,得到所述样本歌词对应的音素序列,以及所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点;
根据所述音素序列中每个音素信息在所述样本歌曲音频中对应的起始时间点和终止时间点,得到所述样本歌曲音频的每个音频帧对应的音素信息;
确定所述样本歌曲音频的每个音频帧对应的音高信息。
10.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行以实现如权利要求1至权利要求9任一项所述的训练声学转换模型的方法所执行的操作。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如权利要求1至权利要求9任一项所述的训练声学转换模型的方法所执行的操作。
CN202110321807.5A 2021-03-25 2021-03-25 训练声学转换模型的方法、终端及存储介质 Pending CN112992107A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110321807.5A CN112992107A (zh) 2021-03-25 2021-03-25 训练声学转换模型的方法、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110321807.5A CN112992107A (zh) 2021-03-25 2021-03-25 训练声学转换模型的方法、终端及存储介质

Publications (1)

Publication Number Publication Date
CN112992107A true CN112992107A (zh) 2021-06-18

Family

ID=76333690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110321807.5A Pending CN112992107A (zh) 2021-03-25 2021-03-25 训练声学转换模型的方法、终端及存储介质

Country Status (1)

Country Link
CN (1) CN112992107A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1300267C (en) * 1987-11-18 1992-05-05 Sandra E. Hutchins Method and apparatus for determining articulatory parameters from speech data
KR20050014183A (ko) * 2003-07-30 2005-02-07 주식회사 팬택 상태 확률 보정 방법
CN106971743A (zh) * 2016-01-14 2017-07-21 广州酷狗计算机科技有限公司 用户演唱数据处理方法和装置
WO2019161011A1 (en) * 2018-02-16 2019-08-22 Dolby Laboratories Licensing Corporation Speech style transfer
US20190392859A1 (en) * 2018-12-05 2019-12-26 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for voice activity detection
CN110738980A (zh) * 2019-09-16 2020-01-31 平安科技(深圳)有限公司 歌声合成模型的训练方法、系统及歌声合成方法
CN112017694A (zh) * 2020-08-25 2020-12-01 天津洪恩完美未来教育科技有限公司 语音数据的评测方法和装置、存储介质和电子装置
CN112233655A (zh) * 2020-09-28 2021-01-15 上海声瀚信息科技有限公司 一种提高语音命令词识别性能的神经网络训练方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1300267C (en) * 1987-11-18 1992-05-05 Sandra E. Hutchins Method and apparatus for determining articulatory parameters from speech data
KR20050014183A (ko) * 2003-07-30 2005-02-07 주식회사 팬택 상태 확률 보정 방법
CN106971743A (zh) * 2016-01-14 2017-07-21 广州酷狗计算机科技有限公司 用户演唱数据处理方法和装置
WO2019161011A1 (en) * 2018-02-16 2019-08-22 Dolby Laboratories Licensing Corporation Speech style transfer
US20190392859A1 (en) * 2018-12-05 2019-12-26 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for voice activity detection
CN110738980A (zh) * 2019-09-16 2020-01-31 平安科技(深圳)有限公司 歌声合成模型的训练方法、系统及歌声合成方法
CN112017694A (zh) * 2020-08-25 2020-12-01 天津洪恩完美未来教育科技有限公司 语音数据的评测方法和装置、存储介质和电子装置
CN112233655A (zh) * 2020-09-28 2021-01-15 上海声瀚信息科技有限公司 一种提高语音命令词识别性能的神经网络训练方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JINGWEN SUN等: "End-to-end Tibetan Ando dialect speech recognition based on hybrid CTC/attention architecture", 《PROCEEDINGS OF APSIPA ANNUAL SUMMIT AND CONFERENCE 2019》 *
梁春燕等: "基于邻域保持嵌入算法的语种识别", 《陕西师范大学学报(自然科学版)》, vol. 48, no. 2 *

Similar Documents

Publication Publication Date Title
CN108008930B (zh) 确定k歌分值的方法和装置
CN111326132B (zh) 音频处理方法、装置、存储介质及电子设备
CN108538302B (zh) 合成音频的方法和装置
CN110933330A (zh) 视频配音方法、装置、计算机设备及计算机可读存储介质
CN110688082B (zh) 确定音量的调节比例信息的方法、装置、设备及存储介质
WO2020103550A1 (zh) 音频信号的评分方法、装置、终端设备及计算机存储介质
CN110931053B (zh) 检测录音时延、录制音频的方法、装置、终端及存储介质
CN112487940B (zh) 视频的分类方法和装置
CN111061405B (zh) 录制歌曲音频的方法、装置、设备及存储介质
CN110956971B (zh) 音频处理方法、装置、终端及存储介质
CN109192223B (zh) 音频对齐的方法和装置
CN111081277B (zh) 音频测评的方法、装置、设备及存储介质
CN109065068B (zh) 音频处理方法、装置及存储介质
CN112667844A (zh) 检索音频的方法、装置、设备和存储介质
CN111092991B (zh) 歌词显示方法及装置、计算机存储介质
CN110867194B (zh) 音频的评分方法、装置、设备及存储介质
CN111223475B (zh) 语音数据生成方法、装置、电子设备及存储介质
CN109961802B (zh) 音质比较方法、装置、电子设备及存储介质
CN111048109A (zh) 声学特征的确定方法、装置、计算机设备及存储介质
CN112086102B (zh) 扩展音频频带的方法、装置、设备以及存储介质
CN113963707A (zh) 音频处理方法、装置、设备和存储介质
CN109003627B (zh) 确定音频得分的方法、装置、终端及存储介质
CN112118482A (zh) 音频文件的播放方法、装置、终端及存储介质
CN109036463B (zh) 获取歌曲的难度信息的方法、装置及存储介质
CN111063364B (zh) 生成音频的方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination