CN112634919B - 语音转换方法、装置、计算机设备及存储介质 - Google Patents
语音转换方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112634919B CN112634919B CN202011504843.7A CN202011504843A CN112634919B CN 112634919 B CN112634919 B CN 112634919B CN 202011504843 A CN202011504843 A CN 202011504843A CN 112634919 B CN112634919 B CN 112634919B
- Authority
- CN
- China
- Prior art keywords
- audio
- voice conversion
- conversion model
- source
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 223
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000001228 spectrum Methods 0.000 claims abstract description 83
- 230000004044 response Effects 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000009977 dual effect Effects 0.000 claims abstract description 34
- 230000008451 emotion Effects 0.000 claims abstract description 30
- 238000013145 classification model Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本申请实施例属于人工智能领域,应用于语音转换领域中,涉及一种语音转换方法、装置、计算机设备及存储介质,其中方法包括:接收源音频;将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。第一语音转换模型经训练学习了音频的音色和情绪特征,使语音转换可以兼顾音色和情绪,同时使用对偶训练方式,使第一语音转换模型快速收敛,且保证了转换前后语音内容的一致性。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及语音转换方法、装置、计算机设备及存储介质。
背景技术
随着智能电子设备的普及,用户对信息处理的需求日益多样化,其中对语音也有进一步转换处理的需求。例如将语音卡通化,增加趣味性,或在唱歌时,将声音美化,生成更动听的声音。
目前,大多数语音转换模型都是以分离说话人相关信息和说话人独立信息的语音表示为导向展开研究,这些系统只能分离音色信息,并进行音色的转换,转换特征单一,不能满足用户多样化的声音转换需求。
发明内容
本申请实施例的目的在于提出一种语音转换方法、装置、计算机设备及存储介质,以解决语音转换特征单一,不能满足用户多样化需求的问题。
为了解决上述技术问题,本申请实施例提供一种语音转换方法,采用了如下所述的技术方案:
接收源音频;
将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;
将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;
将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。
进一步的,在所述将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱的步骤之前包括:
获取训练样本,所述训练样本包含源音频样本X和目标音频样本Y;
将所述源音频样本X输入到所述第一语音转换模型进行音频预测,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’;
将所述源音频样本X输入到所述第一语音转换模型进行音频还原,获得所述第二语音转换模型响应所述预测音频样本Y’输出的还原音频样本X’,其中所述第二语音转换模型为所述第一语音转换模型的对偶模型;
基于所述目标音频样本Y和预测音频样本Y’计算目标样本均方差,基于所述源音频样本X和还原音频样本X’计算源样本均方差;
调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直到所述目标样本均方差和源样本均方差最小,得到对偶训练完成的第一语音转换模型。
进一步的,在所述将所述源音频样本X输入到所述第一语音转换模型进行音频预测,得到预测音频样本Y’的步骤之后,所述得到训练完成的第一语音转换模型的步骤之前,所述第一语音转换模型的训练还包括:
将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果;
按照下述公式根据所述分类结果计算风格奖励RS
RS=λP(y')
其中,P(y')为所述分类结果,λ为预设的可调参数;
根据对数似然函数计算所述预测音频样本Y’经所述第二语音转换模型还原为X的内容奖励RC;
根据所述风格奖励和所述内容奖励,计算综合奖励;
调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直至所述综合奖励最大。
进一步的,所述综合奖励按如下公式计算:
其中R为综合奖励,RS为风格奖励,RC为内容奖励RC。
进一步的,所述预先训练的音频风格分类模型,至少包含第一全连接层、第二全连接层和特征提取网络,所述将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果的步骤包括:
将所述预测音频样本Y’输入到所述特征提取网络,提取所述预测音频样本Y’的音频特征;
将所述音频特征输入到所述第一全连接层进行音色分类,获得所述音频特征经所述第一全连接层计算的音色分类结果;
将所述音频特征输入到所述第二全连接层进行情绪分类,获得所述音频特征经所述第二全连接层计算的情绪分类结果;
根据所述音色分类结果和所述情绪分类结果,按照下述公式计算风格奖励Rs:
Rs=σPα(y')+δPβ(y')
σ和δ为预设的可调参数,σ和δ大于0,σ+δ=1,Pα和Pβ分别为所述音色分类结果和所述情绪分类结果。
为了解决上述技术问题,本申请实施例还提供一种语音转换装置,采用了如下所述的技术方案:
接收模块,用于接收源音频;
源转换模块,用于将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;
处理模块,用于将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;
目标转换模块,用于将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。
进一步的,所述语音转换装置还包括:
第一获取子模块,用于获取训练样本,所述训练样本包含源音频样本X和目标音频样本Y;
第一转换子模块,用于将所述源音频样本X输入到所述第一语音转换模型进行音频预测,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’;
第二转换子模块,用于将所述源音频样本X输入到所述第一语音转换模型进行音频还原,获得所述第二语音转换模型响应所述预测音频样本Y’输出的还原音频样本X’,其中所述第二语音转换模型为所述第一语音转换模型的对偶模型;
第一计算子模块,用于基于所述目标音频样本Y和预测音频样本Y’计算目标样本均方差,基于所述源音频样本X和还原音频样本X’计算源样本均方差;
第一调整子模块,用于调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直到所述目标样本均方差和源样本均方差最小,得到对偶训练完成的第一语音转换模型。
进一步的,所述语音转换装置还包括:
第一分类子模块,用于将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果;
第二计算子模块,用于按照下述公式根据所述分类结果计算风格奖励RS:
RS=λP(y')
其中,P(y')为所述分类结果,λ为预设的可调参数;
第三计算子模块,用于根据对数似然函数计算所述预测音频样本Y’经所述第二语音转换模型还原为X的内容奖励RC;
第四计算子模块,用于根据所述风格奖励和所述内容奖励,计算综合奖励;
第一调整子模块,用于调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直至所述综合奖励最大。
进一步的,所述第四计算子模块中,所述综合奖励按如下公式计算:
其中R为综合奖励,RS为风格奖励,RC为内容奖励RC。
进一步的,所述第一分类子模块中,所述预先训练的音频风格分类模型,至少包含第一全连接层、第二全连接层和特征提取网络,所述将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果的步骤包括:
Rs=σPα(y')+δPβ(y')
σ和δ为预设的可调参数,σ和δ大于0,σ+δ=1,Pα和Pβ分别为所述音色分类结果和所述情绪分类结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,处理器执行计算机可读指令时实现如上述语音转换方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时实现如上述语音转换方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:通过接收源音频;将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。第一语音转换模型经训练学习了音频的音色和情绪特征,使语音转换可以兼顾音色和情绪,同时使用对偶训练方式,使第一语音转换模型快速收敛,且保证了转换前后语音内容的一致性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的语音转换方法的一个实施例的流程图;
图3是对偶训练一种具体实施方式的流程图;
图4是根据本申请的语音转换装置的一个实施例的结构示意图;
图5是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的语音转换方法一般由服务器/终端设备执行,相应地,语音转换装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的语音转换的方法的一个实施例的流程图。所述的语音转换方法,包括以下步骤:
步骤S201,接收源音频。
在本实施例中,语音转换方法运行于其上的电子设备(例如图1所示的服务器/终 端设备)可以通过有线连接方式或者无线连接方式接收源音频。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
源音频为用户通过录音设备录制的音频文件,或保存在存储介质上的音频文件。
步骤S202,将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱。
在本实施例中,梅尔频谱是从音频文件中提取的声音特征,可以通过python的librosa库中的melspectrogram()函数提取音频时域信号的梅尔频谱。
步骤S203,将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱。
在本实施例中,对偶模型为结构相同,训练方向相反的两个模型,即源音频输入到第一语音转换模型,经转换后的输出作为第二语音转换模型的输入,第二语音转换模型预期的输出与第一语音转换模型的输入一致。
本申请的第一语音转换模型和第二语言转换模型都为编解码Encoder-Decoder结构,编解码器都采用了6层的Feed Forward Transformer block,在Decoder的输出端分出两个全连接层,神经元分别为80和1,表示一帧梅尔频谱和停止标识stop token,具体地:
Encoder接收源梅尔频谱作为输入,形状为(batchsize,melframes,meldims),其中batchsize=32,melframes按batch内最大帧长做padding补齐,meldims=80,最后一层FFT block的输出即encoder编码后的隐状态矩阵;
在语音转换时,Decoder的输入是Encoder的输出和起始帧,起始帧为80维全为-1的列向量,每次解码得到的一帧作为下次Decoder的输入帧。
使用对偶方式对第一语音转换模型和第二语音转换模型进行训练,第一语音转换模型的输出做为第二语音转换模型的输入,第二语音转换模型的输出又作为第一语音转换模型的输入,一个样本可以循环多次,需要的样本较少,通过多次计算模型输出与预期输出之间的误差,调整模型参数,使误差最小,模型的收敛更快,转换的效果更佳。
步骤S204,将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。
将通过第一语音转换模型转换得到的目标梅尔频谱通过Griffin-lim算法生成目标音频,完成语音转换过程。
Griffin-lim算法的过程为:随机初始化一个相位谱,用该相位谱与已知的目标梅尔频谱经过ISTFT(逆傅里叶变换)合成新的语音波形,用合成语音做STFT(短时傅里叶变换),得到新的幅度谱和新的相位谱,再用已知的目标梅尔频谱与新的相位谱经过ISTFT(逆傅里叶变换)合成新的语音,如此重复多次,直至合成的语音达到满意的效果。
本申请通过接收源音频;将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。第一语音转换模型经训练学习了音频的音色和情绪特征,使语音转换可以兼顾音色和情绪,同时使用对偶训练方式,使第一语音转换模型快速收敛,且保证了转换前后语音内容的一致性。
在本实施例的一些可选的实现方式中,在步骤S203中,上述电子设备还可以执行以下步骤:
获取训练样本,所述训练样本包含源音频样本X和目标音频样本Y;
将所述源音频样本X输入到所述第一语音转换模型进行音频预测,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’;
将所述源音频样本X输入到所述第一语音转换模型进行音频还原,获得所述第二语音转换模型响应所述预测音频样本Y’输出的还原音频样本X’,其中所述第二语音转换模型为所述第一语音转换模型的对偶模型;
基于所述目标音频样本Y和预测音频样本Y’计算目标样本均方差,基于所述源音频样本X和还原音频样本X’计算源样本均方差;
调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直到所述目标样本均方差和源样本均方差最小,得到对偶训练完成的第一语音转换模型。
这里提到的X、X’、Y、Y’都为梅尔频谱,在训练阶段,第一语音转换模型中Encoder接收源音频样本X作为输入,最后一层FFT block的输出即encoder编码后的隐状态矩阵;
Decoder接收两个输入,一个来自源音频样本X经过Encoder编码后的隐状态、另外一个输入是目标音频样本Y,经过6层FFT block后,接一个全连接层,包含80个神经元,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’。计算模型的损失函数,这里采用MSEloss,即均方差损失函数,计算Y和Y’均方差。
再将预测音频样本Y’输入到第二语音转换模型,得到还原音频样本X’,计算X和X’之间的均方差,调整第一语音转换模型和第二语音转换模型中各节点的参数,使Y和Y’均方差以及X和X’均方差最小,训练完成。
本申请通过对偶训练方式,利用少量样本使模型快速收敛,同时计算转换和还原过程均方差,提升了模型预测的效果。
在一些可选的实现方式中,上述电子设备可以执行以下步骤:
将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果;
按照下述公式根据所述分类结果计算风格奖励RS:
RS=λP(y')
其中,P(y')为所述分类结果,λ为预设的可调参数;
根据对数似然函数计算所述预测音频样本Y’经所述第二语音转换模型还原为X的内容奖励RC;
根据所述风格奖励和所述内容奖励,计算综合奖励;
调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直至所述综合奖励最大。
本实施例中,将预测音频样本Y’输入到预先训练的音频风格分类模型中,获得分类结果。预先训练的音频风格分类模型可以是预先进行音色分类训练的模型、也可以为预先进行情绪分类训练的模型、还可以是二者的结合。风格奖励为RS=λP(Y’),λ为预设的参数,取值范围为0-1,P(Y’)为音频风格分类模型的输出。
然后计算预测音频样本Y’经第二语音转换模型还原为X的内容奖励RC,即预测音频样本Y’通过模型重新转为原始音频X的对数似然奖励:
Rc=logPΦ(x|y')
最后根据风格奖励和内容奖励计算综合奖励。
本实施例中,综合奖励按如下公式计算:
为了尽可能保留音频内容和转换后的风格,令综合奖励为内容奖励和风格奖励的调和平均数。
在一些可选的实现方式中,所述预先训练的音频风格分类模型至少包含第一全连接层和第二全连接层,所述将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果的步骤包括:
Rs=σPα(y')+δPβ(y')
σ和δ为预设的可调参数,σ和δ大于0,σ+δ=1,Pα和Pβ分别为所述音色分类结果和所述情绪分类结果。
在训练过程中,通过调节σ和δ,对音色和情感奖励进行定量缩放,实现融合了细粒度特征的语音转换模型,即可以调整σ和δ使训练的第一语音转换模型可以将源音频转换为融合了音色和情绪特征的目标音频。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种语音转换装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的语音转换装置400包括:接收模块401、源转换模块402、处理模块403以及目标转换模块404。其中:
接收模块401,用于接收源音频;
源转换模块402,用于将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;
处理模块403,用于将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;
目标转换模块404,用于将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。
通过接收源音频;将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。第一语音转换模型经训练学习了音频的音色和情绪特征,使语音转换可以兼顾音色和情绪,同时使用对偶训练方式,使第一语音转换模型快速收敛,且保证了转换前后语音内容的一致性。
在本实施例的一些可选的实现方式中,所述语音转换装置还包括:
第一获取子模块,用于获取训练样本,所述训练样本包含源音频样本X和目标音频样本Y;
第一转换子模块,用于将所述源音频样本X输入到所述第一语音转换模型进行音频预测,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’;
第二转换子模块,用于将所述源音频样本X输入到所述第一语音转换模型进行音频还原,获得所述第二语音转换模型响应所述预测音频样本Y’输出的还原音频样本X’,其中所述第二语音转换模型为所述第一语音转换模型的对偶模型;
第一计算子模块,用于基于所述目标音频样本Y和预测音频样本Y’计算目标样本均方差,基于所述源音频样本X和还原音频样本X’计算源样本均方差;
第一调整子模块,用于调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直到所述目标样本均方差和源样本均方差最小,得到对偶训练完成的第一语音转换模型。
在本实施例的一些可选的实现方式中,所述语音转换装置还包括:
第一分类子模块,用于将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果;
第二计算子模块,用于按照下述公式根据所述分类结果计算风格奖励RS:
RS=λP(y')
其中,P(y')为所述分类结果,λ为预设的可调参数;
第三计算子模块,用于根据对数似然函数计算所述预测音频样本Y’经所述第二语音转换模型还原为X的内容奖励RC;
第四计算子模块,用于根据所述风格奖励和所述内容奖励,计算综合奖励;
第一调整子模块,用于调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直至所述综合奖励最大。
在本实施例的一些可选的实现方式中,所述第四计算子模块中,所述综合奖励按如下公式计算:
其中R为综合奖励,RS为风格奖励,RC为内容奖励RC。
在本实施例的一些可选的实现方式中,所述第一分类子模块中,所述预先训练的音频风格分类模型,至少包含第一全连接层、第二全连接层和特征提取网络,所述将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果的步骤包括:
Rs=σPα(y')+δPβ(y')
σ和δ为预设的可调参数,σ和δ大于0,σ+δ=1,Pα和Pβ分别为所述音色分类结果和所述情绪分类结果。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图5,图5为本实施例计算机设备基本结构框图。
所述计算机设备5包括通过系统总线相互通信连接存储器51、处理器52、网络接口53。需要指出的是,图中仅示出了具有组件51-53的计算机设备5,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器51至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器51可以是所述计算机设备5的内部存储单元,例如该计算机设备5的硬盘或内存。在另一些实施例中,所述存储器51也可以是所述计算机设备5的外部存储设备,例如该计算机设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器51还可以既包括所述计算机设备5的内部存储单元也包括其外部存储设备。本实施例中,所述存储器51通常用于存储安装于所述计算机设备5的操作系统和各类应用软件,例如语音转换方法的计算机可读指令等。此外,所述存储器51还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器52在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器52通常用于控制所述计算机设备5的总体操作。本实施例中,所述处理器52用于运行所述存储器51中存储的计算机可读指令或者处理数据,例如运行所述语音转换方法的计算机可读指令。
所述网络接口53可包括无线网络接口或有线网络接口,该网络接口53通常用于在所述计算机设备5与其他电子设备之间建立通信连接。
通过接收源音频;将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。第一语音转换模型经训练学习了音频的音色和情绪特征,使语音转换可以兼顾音色和情绪,同时使用对偶训练方式,使第一语音转换模型快速收敛,且保证了转换前后语音内容的一致性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的语音转换方法的步骤。
通过接收源音频;将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;将所述目标梅尔频谱根据griffin_lim算法转换为目标音频。第一语音转换模型经训练学习了音频的音色和情绪特征,使语音转换可以兼顾音色和情绪,同时使用对偶训练方式,使第一语音转换模型快速收敛,且保证了转换前后语音内容的一致性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (5)
1.一种语音转换方法,其特征在于,包括下述步骤:
接收源音频;
将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;
将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;
将所述目标梅尔频谱根据griffin_lim算法转换为目标音频;
其中,对偶模型为结构相同,训练方向相反的两个模型,即源音频输入到第一语音转换模型,经转换后的输出作为第二语音转换模型的输入,第二语音转换模型预期的输出与第一语音转换模型的输入一致;第一语音转换模型和第二语言转换模型都为编解码Encoder-Decoder结构,编解码器都采用了6层的Feed Forward Transformer block,在Decoder的输出端分出两个全连接层,神经元分别为80和1,表示一帧梅尔频谱和停止标识stop token;Encoder接收源梅尔频谱作为输入,形状为(batchsize, melframes, meldims),其中batchsize=32,melframes按batch内最大帧长做padding补齐,meldims=80,最后一层FFTblock的输出即encoder编码后的隐状态矩阵,其中,batchsize是指数据包大小,melframes是指梅尔数据帧,meldims是指处理维度;在语音转换时,Decoder的输入是Encoder的输出和起始帧,起始帧为80维全为-1的列向量,每次解码得到的一帧作为下次Decoder的输入帧;
其中,在所述将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱的步骤之前包括:
获取训练样本,所述训练样本包含源音频样本X和目标音频样本Y;
将所述源音频样本X输入到所述第一语音转换模型进行音频预测,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’;
将所述源音频样本X输入到所述第一语音转换模型进行音频还原,获得所述第二语音转换模型响应所述预测音频样本Y’输出的还原音频样本X’,其中所述第二语音转换模型为所述第一语音转换模型的对偶模型;
基于所述目标音频样本Y和预测音频样本Y’计算目标样本均方差,基于所述源音频样本X和还原音频样本X’计算源样本均方差;
调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直到所述目标样本均方差和源样本均方差最小,得到对偶训练完成的第一语音转换模型;
其中,在将所述源音频样本X输入到所述第一语音转换模型进行音频预测,得到预测音频样本Y’的步骤之后,得到训练完成的第一语音转换模型的步骤之前,所述第一语音转换模型的训练还包括:
将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果;
按照下述公式根据所述分类结果计算风格奖励RS
RS=λP(y');
其中,P(y')为所述分类结果,λ为预设的可调参数;
根据对数似然函数计算所述预测音频样本Y’经所述第二语音转换模型还原为X的内容奖励RC;
根据所述风格奖励和所述内容奖励,计算综合奖励;
调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直至所述综合奖励最大;
其中,所述预先训练的音频风格分类模型,至少包含第一全连接层、第二全连接层和特征提取网络,所述将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果的步骤包括:
将所述预测音频样本Y’输入到所述特征提取网络,提取所述预测音频样本Y’的音频特征;
将所述音频特征输入到所述第一全连接层进行音色分类,获得所述音频特征经所述第一全连接层计算的音色分类结果;
将所述音频特征输入到所述第二全连接层进行情绪分类,获得所述音频特征经所述第二全连接层计算的情绪分类结果;
根据所述音色分类结果和所述情绪分类结果,按照下述公式计算风格奖励Rs:Rs=σPα(y')+δPβ (y');
σ和δ为预设的可调参数,σ和δ大于0,σ+δ=1,Pα和Pβ分别为所述音色分类结果和所述情绪分类结果。
2.根据权利要求1所述的语音转换方法,其特征在于,所述综合奖励按如下公式计算:
;
其中R为综合奖励,RS为风格奖励,RC为内容奖励RC。
3.一种语音转换装置,其特征在于,包括:
接收模块,用于接收源音频;
源转换模块,用于将所述源音频输入预设的梅尔滤波器转换为源梅尔频谱;
处理模块,用于将所述源梅尔频谱输入到经对偶训练的第一语音转换模型,获得所述第一语音转换模型响应所述源梅尔频谱输出的目标梅尔频谱;
目标转换模块,用于将所述目标梅尔频谱根据griffin_lim算法转换为目标音频;
其中,对偶模型为结构相同,训练方向相反的两个模型,即源音频输入到第一语音转换模型,经转换后的输出作为第二语音转换模型的输入,第二语音转换模型预期的输出与第一语音转换模型的输入一致;第一语音转换模型和第二语言转换模型都为编解码Encoder-Decoder结构,编解码器都采用了6层的Feed Forward Transformer block,在Decoder的输出端分出两个全连接层,神经元分别为80和1,表示一帧梅尔频谱和停止标识stop token;Encoder接收源梅尔频谱作为输入,形状为(batchsize, melframes, meldims),其中batchsize=32,melframes按batch内最大帧长做padding补齐,meldims=80,最后一层FFTblock的输出即encoder编码后的隐状态矩阵,其中,batchsize是指数据包大小,melframes是指梅尔数据帧,meldims是指处理维度;在语音转换时,Decoder的输入是Encoder的输出和起始帧,起始帧为80维全为-1的列向量,每次解码得到的一帧作为下次Decoder的输入帧;
其中,所述语音转换装置还包括:
第一获取子模块,用于获取训练样本,所述训练样本包含源音频样本X和目标音频样本Y;
第一转换子模块,用于将所述源音频样本X输入到所述第一语音转换模型进行音频预测,获得所述第一语音转换模型响应所述源音频样本X输出的预测音频样本Y’;
第二转换子模块,用于将所述源音频样本X输入到所述第一语音转换模型进行音频还原,获得所述第二语音转换模型响应所述预测音频样本Y’输出的还原音频样本X’,其中所述第二语音转换模型为所述第一语音转换模型的对偶模型;
第一计算子模块,用于基于所述目标音频样本Y和预测音频样本Y’计算目标样本均方差,基于所述源音频样本X和还原音频样本X’计算源样本均方差;
第一调整子模块,用于调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直到所述目标样本均方差和源样本均方差最小,得到对偶训练完成的第一语音转换模型;
其中,所述语音转换装置还包括:
第一分类子模块,用于将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果;
第二计算子模块,用于按照下述公式根据所述分类结果计算风格奖励RS:
RS=λP(y');
其中,P(y')为所述分类结果,λ为预设的可调参数;
第三计算子模块,用于根据对数似然函数计算所述预测音频样本Y’经所述第二语音转换模型还原为X的内容奖励RC;
第四计算子模块,用于根据所述风格奖励和所述内容奖励,计算综合奖励;
第一调整子模块,用于调整所述第一语音转换模型和所述第二语音转换模型中各节点的参数,直至所述综合奖励最大;
其中,所述第一分类子模块中,所述预先训练的音频风格分类模型,至少包含第一全连接层、第二全连接层和特征提取网络,所述将所述预测音频样本Y’输入到预先训练的音频风格分类模型进行分类,获得所述音频风格分类模型响应所述预测音频样本Y’输出的分类结果的步骤包括:
将所述预测音频样本Y’输入到所述特征提取网络,提取所述预测音频样本Y’的音频特征;
将所述音频特征输入到所述第一全连接层进行音色分类,获得所述音频特征经所述第一全连接层计算的音色分类结果;
将所述音频特征输入到所述第二全连接层进行情绪分类,获得所述音频特征经所述第二全连接层计算的情绪分类结果;
根据所述音色分类结果和所述情绪分类结果,按照下述公式计算风格奖励Rs:Rs=σPα(y')+δPβ (y');
σ和δ为预设的可调参数,σ和δ大于0,σ+δ=1,Pα和Pβ分别为所述音色分类结果和所述情绪分类结果。
4.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至2中任一项所述的语音转换方法的步骤。
5.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至2中任一项所述的语音转换方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011504843.7A CN112634919B (zh) | 2020-12-18 | 2020-12-18 | 语音转换方法、装置、计算机设备及存储介质 |
PCT/CN2021/083136 WO2022126904A1 (zh) | 2020-12-18 | 2021-03-26 | 语音转换方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011504843.7A CN112634919B (zh) | 2020-12-18 | 2020-12-18 | 语音转换方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634919A CN112634919A (zh) | 2021-04-09 |
CN112634919B true CN112634919B (zh) | 2024-05-28 |
Family
ID=75317205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011504843.7A Active CN112634919B (zh) | 2020-12-18 | 2020-12-18 | 语音转换方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112634919B (zh) |
WO (1) | WO2022126904A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113178200B (zh) * | 2021-04-28 | 2024-03-01 | 平安科技(深圳)有限公司 | 语音转换方法、装置、服务器及存储介质 |
CN113284484B (zh) * | 2021-05-24 | 2022-07-26 | 百度在线网络技术(北京)有限公司 | 模型训练方法及装置、语音识别方法和语音合成方法 |
CN113314102A (zh) * | 2021-05-27 | 2021-08-27 | 武汉大学 | 一种对偶语音转换方法、装置、存储介质和设备 |
CN116310863B (zh) * | 2023-02-18 | 2024-06-14 | 广东技术师范大学 | 一种多尺度差分特征增强的遥感图像变化检测方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09305197A (ja) * | 1996-05-16 | 1997-11-28 | N T T Data Tsushin Kk | 音声変換方法及び装置 |
CN108847249A (zh) * | 2018-05-30 | 2018-11-20 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和系统 |
CN111247585A (zh) * | 2019-12-27 | 2020-06-05 | 深圳市优必选科技股份有限公司 | 语音转换方法、装置、设备及存储介质 |
CN111914115A (zh) * | 2019-05-08 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 一种声音信息的处理方法、装置及电子设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10186251B1 (en) * | 2015-08-06 | 2019-01-22 | Oben, Inc. | Voice conversion using deep neural network with intermediate voice training |
CN108133705A (zh) * | 2017-12-21 | 2018-06-08 | 儒安科技有限公司 | 基于对偶学习的语音识别与语音合成模型训练方法 |
CN109887484B (zh) * | 2019-02-22 | 2023-08-04 | 平安科技(深圳)有限公司 | 一种基于对偶学习的语音识别与语音合成方法及装置 |
-
2020
- 2020-12-18 CN CN202011504843.7A patent/CN112634919B/zh active Active
-
2021
- 2021-03-26 WO PCT/CN2021/083136 patent/WO2022126904A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09305197A (ja) * | 1996-05-16 | 1997-11-28 | N T T Data Tsushin Kk | 音声変換方法及び装置 |
CN108847249A (zh) * | 2018-05-30 | 2018-11-20 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和系统 |
CN111914115A (zh) * | 2019-05-08 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 一种声音信息的处理方法、装置及电子设备 |
CN111247585A (zh) * | 2019-12-27 | 2020-06-05 | 深圳市优必选科技股份有限公司 | 语音转换方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
"基于深度学习的语音转换研究";赖家豪;《中国优秀硕士学位论文全文数据库 信息科技辑》(第1期);I136-344 * |
Also Published As
Publication number | Publication date |
---|---|
WO2022126904A1 (zh) | 2022-06-23 |
CN112634919A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112634919B (zh) | 语音转换方法、装置、计算机设备及存储介质 | |
CN107623614A (zh) | 用于推送信息的方法和装置 | |
JP2019102063A (ja) | ページ制御方法および装置 | |
US11355097B2 (en) | Sample-efficient adaptive text-to-speech | |
CN112466314A (zh) | 情感语音数据转换方法、装置、计算机设备及存储介质 | |
CN110379411B (zh) | 针对目标说话人的语音合成方法和装置 | |
WO2022178969A1 (zh) | 语音对话数据处理方法、装置、计算机设备及存储介质 | |
CN107452378A (zh) | 基于人工智能的语音交互方法和装置 | |
CN112767917B (zh) | 语音识别方法、装置及存储介质 | |
CN113035228B (zh) | 声学特征提取方法、装置、设备及存储介质 | |
CN113450765B (zh) | 语音合成方法、装置、设备及存储介质 | |
WO2022252904A1 (zh) | 基于人工智能的音频处理方法、装置、设备、存储介质及计算机程序产品 | |
CN116737895A (zh) | 一种数据处理方法及相关设备 | |
CN113314096A (zh) | 语音合成方法、装置、设备和存储介质 | |
CN112580669B (zh) | 一种对语音信息的训练方法及装置 | |
JP7113000B2 (ja) | 映像を生成するための方法および装置 | |
CN113421554B (zh) | 语音关键词检测模型处理方法、装置及计算机设备 | |
CN113870887A (zh) | 单通道语音增强方法、装置、计算机设备及存储介质 | |
CN114495896A (zh) | 一种语音播放方法及计算机设备 | |
CN114067840A (zh) | 生成音乐视频的方法、存储介质和电子设备 | |
CN112951256A (zh) | 语音处理方法及装置 | |
US20240320519A1 (en) | Systems and methods for providing a digital human in a virtual environment | |
US20240274120A1 (en) | Speech synthesis method and apparatus, electronic device, and readable storage medium | |
JP7367839B2 (ja) | 音声認識装置、制御方法、及びプログラム | |
CN118609543A (zh) | 一种语音合成方法、装置、设备及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |