CN114882867A - 基于滤波器组频率区分的深度网络波形合成方法及装置 - Google Patents

基于滤波器组频率区分的深度网络波形合成方法及装置 Download PDF

Info

Publication number
CN114882867A
CN114882867A CN202210384563.XA CN202210384563A CN114882867A CN 114882867 A CN114882867 A CN 114882867A CN 202210384563 A CN202210384563 A CN 202210384563A CN 114882867 A CN114882867 A CN 114882867A
Authority
CN
China
Prior art keywords
network
generator
frequency
discriminator
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210384563.XA
Other languages
English (en)
Other versions
CN114882867B (zh
Inventor
黄翔东
王俊芹
甘霖
王文俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202210384563.XA priority Critical patent/CN114882867B/zh
Publication of CN114882867A publication Critical patent/CN114882867A/zh
Application granted granted Critical
Publication of CN114882867B publication Critical patent/CN114882867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种基于滤波器组频率区分的深度网络波形合成方法及装置,方法包括:采用解析方法设计多个任意频率通带的滤波器组;将生成器输出的语音信号并行馈入到滤波器组中,获得多个窄频带的信号;将窄频带的信号分别输入到各个子鉴别器中进行处理,综合子鉴别器的损失函数对生成对抗网络的参数进行训练,将测试文本馈入到给定的声学模型前端网络中,生成测试梅尔谱,再将该测试梅尔谱输入到生成器中,生成语音信号。装置包括:处理器和存储器。本发明提出的语音波形合成GAN网络解决了高频部分混叠失效的问题,大大减轻了高频频段的频谱失真。

Description

基于滤波器组频率区分的深度网络波形合成方法及装置
技术领域
本发明涉及文本转语音技术领域,尤其涉及一种基于滤波器组频率区分的深度网络波形合成方法及装置。
背景技术
文本转语音(TTS,Text-to-Speech)[1-4],长期以来一直是人工智能领域的热门研究课题,旨在让机器像人一样流利自然地说话,该项技术可以在很多语音交互的应用中使用,例如:智能个人助理、机器人、游戏、电子书等。
基于神经网络的端到端TTS模型通常首先将文本转换为声学特征[3,5-7],例如:梅尔谱,这个过程通常分为从文本信息产生发音和语言学信息,以及根据语言学信息产生声学特征两个部分;其次,该模型将梅尔谱转换为音频波形样本[8-11],又称梅尔谱反演。就第二个阶段而言,目前的梅尔谱反演方式依时间先后排序主要有以下四种:纯信号处理技术、自回归神经网络、非自回归神经网络、基于生成对抗网络的波形生成神经网络。
在纯信号处理技术方面,Griffin-Lim[12]算法可以将STFT(短时傅里叶变换)序列有效解码为时间序列,但是会引入极为明显的机器伪影[4]。WORLD(世界)声码器[13]基于对梅尔谱特征进行语音建模而定制了一种中间表示,该声码器已被成功用于文本到语音合成中。这些纯信号处理方法的主要问题是从中间特征到音频的映射会引入明显的伪影。
在基于自回归神经网络的模型方面,WaveNet[8]是一个纯卷积的自回归序列模型,以语言特征和原始音频在时间上对齐为条件,产生逼真的语音样本。SampleRNN[14]是一种无条件的结构,使用多尺度循环神经网络(RNNs,Recurrent Neural Networks)以不同的时间分辨率对原始音频进行显式建模。WaveRNN[15]是一种基于简单单层RNN的自回归模型,提高了合成的速度。这些模型的主要问题是推断速度缓慢且低效,因为音频样本必须按时间先后顺序生成,因此自回归模型不适合实时应用。
在非自回归模型方面,主要有两种不同的方法。第一种是Parallel Wavenet[16]和Clarinet[2],这种方法将训练后的自回归解码器蒸馏提炼为基于流的卷积学生模型,再使用基于Kulback-Leibler散度的概率蒸馏目标对学生模型进行训练。第二种是WaveGlow[9],是一种基于Glow[17]的生成模型,在GPU上的推断速度很快,但是这类模型的尺寸太大,对内存的要求较高。
在基于生成对抗网络(Generative Adversarial Network,GAN)的生成模型方面,Neekhara等人[18]提出了使用GAN网络学习从梅尔谱到简单幅度谱的映射,与相位估计相结合以恢复原始音频波形。MelGAN[10]是一种非自回归的音频波形生成模型,首次成功训练GAN网络以生成原始音频,且在没有额外的蒸馏过程的情况下仍能产生高质量的语音。JKong等人[19]指出,由于语音信号是由具有不同周期的正弦信号所组成的,因此对语音的周期模式进行建模对于提高生成的波形样本质量至关重要,并且在他们的工作中将此观点应用于GAN网络的鉴别器当中,使得生成的语音波形质量得到提升,但在鉴别器当中采用了平均池化的方法对语音波形进行处理,从而导致高频部分混叠失效,高频频段频谱失真。JHKim等人[11]指出,音频是由各种不同频率成分的信号混杂而成,因而在生成器与鉴别当中均加入的不同分辨率波形求和的思想,以此来提高生成语音波形的质量。
参考文献
[1]
Figure BDA0003594365550000022
S
Figure BDA0003594365550000021
Chrzanowski M,Coates A,et al.Deep Voice:Real-time NeuralText-to-Speech[M]//DOINA P,YEE WHYE T.Proceedings of the 34th InternationalConference on Machine Learning.Proceedings of Machine Learning Research;PMLR.2017:195--204.
[2]Ping W,Peng K,Chen J.Clarinet:Parallel wave generation in end-to-end text-to-speech[J].arXiv preprint arXiv:180707281,2018.
[3]Shen J,Pang R,Weiss R J,et al.Natural tts synthesis byconditioning wavenet on mel spectrogram predictions;proceedings of the2018IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),F,2018[C].IEEE.
[4]Wang Y,Skerry-Ryan R,Stanton D,et al.Tacotron:Towards end-to-endspeech synthesis[J].arXiv preprint arXiv:170310135,2017.
[5]Li N,Liu S,Liu Y,et al.Neural speech synthesis with transformernetwork;proceedings of the Proceedings of the AAAI Conference on ArtificialIntelligence,F,2019[C].
[6]Ping W,Peng K,Gibiansky A,et al.Deep voice 3:Scaling text-to-speech with convolutional sequence learning[J].arXiv preprint arXiv:171007654,2017.
[7]Ren Y,Ruan Y,Tan X,et al.Fastspeech:Fast,robust and controllabletext to speech[J].arXiv preprint arXiv:190509263,2019.
[8]Oord A v d,Dieleman S,Zen H,et al.Wavenet:A generative model forraw audio[J].arXiv preprint arXiv:160903499,2016.
[9]Prenger R,Valle R,Catanzaro B.Waveglow:A flow-based generativenetwork for speech synthesis;proceedings of the ICASSP 2019-2019IEEEInternational Conference on Acoustics,Speech and Signal Processing(ICASSP),F,2019[C].IEEE.
[10]Kumar K,Kumar R,de Boissiere T,et al.Melgan:Generativeadversarial networks for conditional waveform synthesis[J].arXiv preprintarXiv:191006711,2019.
[11]Kim J-H,Lee S-H,Lee J-H,et al.Fre-GAN:Adversarial Frequency-consistent Audio Synthesis[J].arXiv preprint arXiv:210602297,2021.
[12]Griffin,D.,Lim J.Signal estimation from modified short-timeFourier transform[J].Acoustics,Speech and Signal Processing,IEEE Transactionson,1984.
[13]Morise M,Yokomori F,Ozawa K.WORLD:A Vocoder-Based High-QualitySpeech Synthesis System for Real-Time Applications[J].Ieice Transactions onInformation&Systems,2016,99(7):1877-84.
[14]Mehri S,Kumar K,Gulrajani I,et al.SampleRNN:An Unconditional End-to-End Neural Audio Generation Model[J].2016.
[15]Kalchbrenner N,Elsen E,Simonyan K,et al.Efficient Neural AudioSynthesis[J].2018.
[16]Oord A,Li Y,Babuschkin I,et al.Parallel wavenet:Fast high-fidelity speech synthesis;proceedings of the International conference onmachine learning,F,2018[C].PMLR.
[17]Kingma D P,Dhariwal P.Glow:Generative flow with invertible 1x1convolutions[J].arXiv preprint arXiv:180703039,2018.
[18]Neekhara P,Donahue C,Puckette M,et al.Expediting TTS synthesiswith adversarial vocoding[J].arXiv preprint arXiv:190407944,2019.
[19]Kong J,Kim J,Bae J.HiFi-GAN:Generative Adversarial Networks forEfficient and High Fidelity Speech Synthesis[J].2020.
发明内容
本发明提供了一种基于滤波器组频率区分的深度网络波形合成方法及装置,本发明使合成的语音尽量逼近人的真实语音波形,在文本转语音中,减轻第二阶段中从中间特征表示梅尔谱到语音波形映射时产生的明显伪影,加快模型的推断速度,使模型更适用于实时的场景,解决已有GAN网络技术中高频部分混叠失效的问题,减轻高频频段频谱失真,详见下文描述:
第一方面,一种基于滤波器组频率区分的深度网络波形合成方法,所述方法包括:
采用解析方法设计多个任意频率通带的滤波器组;将生成器输出的语音信号并行馈入到滤波器组中,获得多个窄频带的信号;
将窄频带的信号分别输入到各个子鉴别器中进行处理,综合子鉴别器的损失函数对生成对抗网络的参数进行训练,将测试文本馈入到给定的声学模型前端网络中,生成测试梅尔谱,再将该测试梅尔谱输入到生成器中,生成语音信号。
其中,所述生成对抗网络包括:生成器网络和鉴别器网络,所述生成器网络包括:转置卷积模块和多感受野融合模块;所述鉴别器网络由若干子鉴别器组成,每个子鉴别器对输入语音波形的某一任意指定的窄频段内的信号进行处理。
进一步地,所述综合子鉴别器的损失函数对生成对抗网络的参数进行训练具体为:
1)随机初始化生成器网络G(θ)与鉴别器网络D(φ)的网络参数;
2)从训练集中采集M条语音样本,{x(m)},1≤m≤M;训练梅尔谱数据集中选出与这M条语音样本对应的梅尔谱样本,{s(m)},1≤m≤M;
3)将{s(m)},1≤m≤M输入到生成器中,得到生成语音{y(m)},1≤m≤M,y(m)=G(s(m));
4)将x(m)与y(m)依次输入到K个长度为2N-1的解析窄带滤波器g1(n),…,gK(n)中,
Figure BDA0003594365550000041
n∈[-N+1,-1]∪[1,N-1]
其中,k=1…K,p、q分别为用于控制滤波器gk(n)的通带起始频点和带宽的整数参数,wc(n)为卷积窗,将x(m)与y(m)各自分为K个窄频段信号,再将窄频段信号分别输入对应的子鉴别器中,根据非消失梯度的迭代策略来最小化鉴别器损失函数LD,更新鉴别器网络D(φ);
5)从训练梅尔谱数据集中采集M条样本,
Figure BDA0003594365550000042
6)将M条样本
Figure BDA0003594365550000043
输入到生成器中,经过转置卷积使输出序列的长度与原始波形x的时间分辨率相匹配;将序列输入到多感受野融合模块中,并行观察各种不同序列长度的模式,输出多个残差模块的总和,作为生成语音
Figure BDA0003594365550000044
进而根据非消失梯度的迭代策略来最小化生成器损失函数LG,更新生成器网络G(θ)。
第二方面,一种基于滤波器组频率区分的深度网络波形合成装置,所述装置包括:所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行第一方面中的任一项所述的方法步骤。
本发明提供的技术方案的有益效果是:
1、本发明合成的语音具有逼近真实语音波形的效果,且合成语音波形的梅尔谱细节部分更加清晰;该模型在推断速度方面得到提高,促进语音波形合成更加适用于实时场景的发展;
2、本发明从实验部分给出的合成语音波形的梅尔谱,也可以看到本发明提出的语音波形合成GAN网络解决了高频部分混叠失效的问题,大大减轻了高频频段的频谱失真。
附图说明
图1为波形生成GAN网络中生成器的简单结构示意图;
图2为波形生成GAN网络中鉴别器的简单结构示意图;
图3为生成对抗网络的流程图;
图4为生成器的具体结构示意图;
其中,生成器将梅尔谱上采样|ksup|次以匹配原始语音波形的分辨率。MRF模块通过|ksres|个具有不同核大小及扩张率的残差块来添加多样化的特征,其中第j个残差块中扩展卷积的核大小及扩张率分别为ksres[j]和Dres[j,n,l]。
图5为鉴别器的具体结构示意图;
其中,MFD是10个子鉴别器的混合结构,每个子鉴别器接收解析滤波器后某一段频段内的波形。每个子鉴别器中的Conv Block均由经过“leaky ReLU”激活的步进卷积和群卷积组成,此外,将权重标准化应用于每一个子鉴别器当中。
图6为解析滤波器组示意图;
图7为原始波形经过Analytic Filter4的实验图;(a)为原始波形;(b)为经过Analytic Filter4滤波后的波形;(c)为原始波形频谱;(d)为经过Analytic Filter4滤波后的波形频谱。
图8为本模型合成句子"I am very happy to see you again!"语音波形的梅尔谱示意图;
图9为HiFiGAN合成句子"I am very happy to see you again!"语音波形的梅尔谱示意图;
图10为本模型合成句子"When I was twenty,I fell in love with a girl."语音波形的梅尔谱示意图;
图11为HiFiGAN合成句子"When I was twenty,I fell in love with a girl."语音波形的梅尔谱示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
基于语音信号是一种多频率成分的结构,并且在文本转语音的后端声码器中,需要由梅尔谱转换为语音波形,因而本发明实施例提出将语音信号波形生成的过程与滤波器组设计相结合,从而对鉴别器网络参数进行优化。
具体来说,首先采用解析方法设计多个任意频率通带的滤波器组;然后将生成器输出的语音信号并行馈入到这些滤波器组中,而获得多个窄频带的信号;进而将这些窄频带的信号分别输入到各个子鉴别器中进行处理,再综合这些子鉴别器的损失函数对网络参数做优化,从而提升声码器中生成器与鉴别器的协同功能,保证了整个语言编码器可合成更高质量的语音。
实施例1
本发明实施例提供了一种基于滤波器组频率区分的深度网络文本转语音波形合成方法,参见图1-图6,该方法包括以下步骤:
101:训练所用语音数据集、与语音所对应的转录文本、测试文本,给定可实现从文本到梅尔谱转换的声学模型前端网络;
102:将数据集中的语音分出训练集,然后依次计算每条语音的梅尔谱,从而构造出训练梅尔谱数据集,实现对数据集的预处理;
103:构建网络:
构建如图1所示的生成器网络,包括:转置卷积(Transposed convolutional)模块和多感受野融合模块(Multi-Receptive Field Fusion,MRF);以及如图2所示的多频率鉴别器网络,该鉴别器由若干子鉴别器组成,每个子鉴别器对输入语音波形的某一任意指定的窄频段内的信号进行处理。
104:网络训练阶段:
其中,该步骤具体为:
1)随机初始化生成器网络G(θ)与鉴别器网络D(φ)的网络参数;
2)从训练集中采集M条语音样本,{x(m)},1≤m≤M;训练梅尔谱数据集中选出与这M条语音样本对应的梅尔谱样本,{s(m)},1≤m≤M;
3)将{s(m)},1≤m≤M输入到生成器中,得到生成语音{y(m)},1≤m≤M,y(m)=G(s(m));
4)将x(m)与y(m)依次输入到K个长度为2N-1的解析窄带滤波器g1(n),…,gK(n)中,
Figure BDA0003594365550000071
n∈[-N+1,-1]∪[1,N-1]
其中,k=1…K(其中p、q分别为用于控制滤波器gk(n)的通带起始频点和带宽的整数参数,wc(n)为卷积窗),从而将x(m)与y(m)各自分为K个窄频段信号,再将这些窄频段信号分别输入对应的子鉴别器中,进而根据非消失梯度的迭代策略来最小化鉴别器损失函数LD,从而更新鉴别器网络D(φ)。
5)从训练梅尔谱数据集中采集M条样本,
Figure BDA0003594365550000072
6)将M条样本
Figure BDA0003594365550000073
输入到生成器中,首先经过转置卷积使输出序列的长度与原始波形x的时间分辨率相匹配;然后将序列输入到多感受野融合模块中,并行观察各种不同序列长度的模式,最终输出多个残差模块的总和,作为生成语音
Figure BDA0003594365550000074
Figure BDA0003594365550000075
进而根据非消失梯度的迭代策略来最小化生成器损失函数LG,从而更新生成器网络G(θ)。
105:网络推断阶段:在完成生成对抗网络的参数训练后,将测试文本馈入到给定的声学模型前端网络中,生成测试梅尔谱,再将该测试梅尔谱输入到生成器中,输出生成语音信号。
其中,声学模型前端网络为FastSpeech(本领域技术人员所公知,本发明实施例对此不做赘述),经过训练后可以将文本转换为梅尔谱声学特征的神经网络。
综上所述,本发明实施例通过上述步骤101-步骤105解决了已有GAN网络技术中高频部分混叠失效的问题,减轻高频频段频谱失真。
实施例2
下面结合具体的计算公式、实例对实施例1中的方案进行进一步地介绍,详见下文描述:
一、基于生成对抗网络的声码器设计
1、网络结构
假设在低维空间
Figure BDA0003594365550000076
中有一个简单容易采样的分布p(z),p(z)通常为标准多元正态分布N(0,I)。用神经网络构建一个映射函数
Figure BDA0003594365550000077
称为生成网络。利用神经网络强大的拟合能力,使得G(z)服从数据分布pr(x)。这种模型就称为隐式密度模型,所谓隐式密度模型就是指并不显式地建模pr(x),而是建模生成过程。
隐式密度模型的一个关键是如何确保生成网络产生的样本一定是服从真实的数据分布。
生成对抗网络就是通过对抗训练的方式来使得生成网络产生的样本服从真实数据分布。在生成对抗网络中,有两个网络进行对抗训练。一个是判别网络,目标是尽量准确地判断一个样本是来自于真实数据还是由生成网络产生;另一个是生成网络,目标是尽量生成判别网络无法区分来源的样本。这两个目标相反的网络不断地进行交替训练。当最后收敛时,如果判别网络再也无法判断出一个样本的来源,那么也就等价于生成网络可以生成符合真实数据分布的样本。生成对抗网络的流程图如图3所示。
判别网络(Discriminator Network)D(x;φ)的目标是区分出一个样本x是来自于真实分布pr(x)还是来自于生成模型pθ(x),因此判别网络实际上是一个二分类的分类器。用标签y=1来表示样本来自真实分布,y=0表示样本来自生成模型,判别网络D(x;φ)的输出为x属于真实数据分布的概率,即:
p(y=1|x)=D(x;φ), (1)
则样本来自生成模型的概率为p(y=0|x)=1-D(x;φ)。给定一个样本(x,y),y={1,0}表示其来自于pr(x)还是pθ(x),判别网络的目标函数为最小化交叉熵,即:
Figure BDA0003594365550000081
假设分布p(x)是由分布pr(x)和分布pθ(x)等比例混合而成,即
Figure BDA0003594365550000082
Figure BDA0003594365550000083
则上式等价于:
Figure BDA0003594365550000084
Figure BDA0003594365550000085
其中,θ和φ分别是生成网络和判别网络的参数。
生成网络(Generator Network)的目标刚好和判别网络相反,即让判别网络将自己生成的样本判别为真实样本。
Figure BDA0003594365550000086
Figure BDA0003594365550000087
上面的这两个目标函数是等价的。但是在实际训练时,一般使用前者,因为其梯度性质更好。函数log(x),x∈(0,1)在x接近1时的梯度要比接近0时的梯度小很多,接近“饱和”区间。这样,当判别网络D以很高的概率认为生成网络G产生的样本是“假”样本,即(1-D(G(z;θ);φ))→1,这时目标函数关于θ的梯度反而很小,从而不利于优化。
2、生成器网络设计
生成器是一个纯卷积的神经网络,使用梅尔谱作为输入,首先通过转置卷积(Transposed convolutional)使输出序列的长度与原始波形的时间分辨率相匹配。然后每一个转置卷积后都设置一个多感受野融合模块(Multi-Receptive Field Fusion,MRF),该结构具体细节见图4。
其中,多感受野融合模块用于并行观察各种长度的模式,最终返回多个残差模块(Resblocks)的总和。通过赋予每个残差模块不同的核大小(Kernel Size)以及扩张率(Dilation Rates)以形成多感受野的结构,如图4所示。
3、基于滤波器组频率区分的鉴别器网络设计
识别实际语音信号波形的长程相关性并对其进行建模是一个关键问题,例如:当一个音素的持续时间大于100ms时,波形样本中就会有2200个相邻样点高度相关。该问题通过在生成器中添加多感受野融合模块进行解决。在鉴别器当中,考虑语音合成中的另一个关键问题,即由于语音音频由不同频率成分的谐波组成,因此需要识别音频波形数据中的各种频率成分的模式。
因此提出了多频率鉴别器(Multi-Frequency Discriminator,MFD),该鉴别器由若干子鉴别器组成。每个子鉴别器只对音频输入的某一任意指定的短频段内的信号进行处理,该过程通过解析滤波器(Analytic Filter)的技术来实现,鉴别器的结构见图5所示。
4、声码器总体损失函数设计
在GAN网络的损失上,使用最小二乘损失函数替换原始GAN所使用的二元交叉熵,以用于非消失梯度流。鉴别器的训练目标是将真实语音样本归类为1,将生成器合成的语音样本归类为0。生成器的训练目标是通过不断更新合成语音样本的质量以“伪造”真实样本,使得鉴别器将此合成语音归类为几乎接近于1的值。第k个支路的鉴别器的损失函数LD(k)和整个生成器的损失函数LG如下所示:
Figure BDA0003594365550000091
Figure BDA0003594365550000092
其中,x代表真实语音样本,s代表真实语音样本的梅尔谱,k表示MFD子鉴别器的编号。
除了GAN损失,还添加了梅尔谱损失(Mel-Spectrogram Loss)来提高生成器的训练效率和生成音频的保真度。考虑到生成器的输入条件为梅尔谱,由于人耳听觉系统的特性,因此该损失函数具有提高感知质量的效果。该损失函数定义为生成器合成语音波形的梅尔谱与真实语音波形的梅尔谱之间的L1范数,如下所示:
Figure BDA0003594365550000101
其中,
Figure BDA0003594365550000102
代表将波形转换为梅尔谱的过程,梅尔谱损失有助于生成器合成与输入条件对应的真实波形,并在训练的早期阶段稳定训练过程。
特征匹配损失(Feature Matching Loss)通过衡量鉴别器中真实样本和合成样本之间特征的差异,来衡量二者之间的相似性。该损失函数是通过提取鉴别器中的每一个中间特征,再去计算特征空间中真实样本和合成样本的中间特征的L1范数来实现的。该函数定义如下:
Figure BDA0003594365550000103
其中,L代表鉴别器中神经网络的层数,Dk i表示第k个鉴别器的神经网络中第i层的特征,Ni表示第i层的特征总个数。
综上所述,最终的生成器损失LG与鉴别器损失LD为:
LG=LGAN_GFMLFMmelLmel(G) (11)
=∑k=1,2,…[LGAN_G(Dk)+λFMLFM(Dk)]+λmelLmel(G) (12)
LD=LD(k) (13)
LGAN_G为生成器损失,λFM为特征匹配损失因子,λmel为梅尔谱损失因子。
滤波器组设计原理不失一般性,为设计带通滤波器,需构造如下长度为N的频率采样向量H:
Figure BDA0003594365550000104
显然式(14)内部元素满足:
H(k)=H(N-k), k=0,...,N-1 (15)
如果对式(14)的各个元素将ω∈[0,2π]内的均匀分割的N个频率采样位置(频率间隔为2π/N)相对应,则可在0、1交界的元素可导出两个截止数字角频率为:
ω1=p2π/N, ω2=(p+q-1)2π/N, (16)
假定系统的采样速率为Fs,则ω1、ω2对应的两个模拟频率为:
fL=pFs/N, fH=(p+q-1)Fs/N, (17)
相应地,两个正整数p、q应配置为:
p=[fLN/Fs], q=[(fH-fL)N/Fs]+1, (18)
其中,“[·]”表示四舍五入取整操作。
进而对式(14)的频率向量H做逆离散傅立叶变换,有:
Figure BDA0003594365550000111
进一步化简,有:
Figure BDA0003594365550000112
Figure BDA0003594365550000113
进一步用欧拉公式对上式进行化简,有:
Figure BDA0003594365550000114
式(22)对n=0时,分母为零,故不适用。将n=0代入式(21),有:
h(0)=2q/N (23)
将(22)、(23)相结合,得到建议滤波系数g(n)的最终公式:
Figure BDA0003594365550000115
其中,wc(n)是一个长度为2N-1的卷积窗口,定义如下:
wc(n)=f(n)*RN(-n), n∈[-N+1,N-1] (25)
在式(25)中,{f(n),n=0,…,N-1}是一个长度为N的汉宁窗,{RN(n),n=0,…,N-1}是一个长度为N的矩形窗,C为卷积窗中心元素C=wc(0)。
6、针对生成器输出语音频带分解的解析滤波器组设计
在鉴别器的解析滤波器组设计当中,鉴于生成器输出语音的基频范围一般为50Hz~500Hz,且语音信号的能量主要集中在30Hz~3400Hz之间,在主要考虑基频成分,次要考虑低次谐波,不考虑较高次谐波的情况下,设置滤波器组的个数为10个。因而具体的滤波器参数设置如表1所示。
表1解析滤波器组的参数设置
Figure BDA0003594365550000121
实施例3
实验中所用音频的采样速率为22.05kHz,设置频率采样向量长度N=512,以滤波器组中的第九个滤波器为例,B=(fL,fH)=[700Hz,1000Hz],将fL=700Hz、fH=1000Hz、Fs=22050Hz、N=512代入式(19),得p=16、q=8,进一步将长度为N的汉明窗和翻转的长度为N的矩型窗进行卷积,生成2N-1个卷积窗元素wc(n),将以上值代入式(25),可得带通滤波器系数g(n),进一步求取该滤波器的频率响应函数G(j2πf),如图6中黑色线所示。以滤波器组中得第四个滤波器为例,图7列出原始语音波形及其频谱、经过Analytic Filter 4滤波后的波形及其频谱。
其次,本发明实施例在模型的端到端方面的整体效果进行了验证,首先利用一个TTS前端模型进行梅尔谱中间表示的生成,然后训练该模型,利用所提出模型进行语音波形的合成,并使用HiFiGAN模型将相同的中间表示作为输入得到生成语音波形作为对比。
图8与图9分别为首先通过TTS前端模型生成英文句子"I am very happy to seeyou again!"的梅尔谱,然后分别利用该模型与HiFiGAN进行语音波形生成,最后绘制生成语音的梅尔谱。
图10与图11所示生成语音波形梅尔谱对应的文本为"When I was twenty,I fellin love with a girl."。从图8与图9的对比、图10与图11的对比,可以明显看出本模型的生成波形梅尔谱细节更清晰,尤其在较高频谐波部分,表明本模型能够减轻高频部分混叠失效的问题。
首先,使用LJSpeech语音数据集对模型进行训练。LJSpeech语音数据集包含13100条大约24小时的语音短片段,均由一个说话人所录制。音频格式为16bit PCM,采样频率是22kHz。设备采用一台NVIDIA GeForce RTX 3080GPU。
FastSpeech是一个非自回归的TTS前端模型,在由文本生成梅尔谱方面是现如今最为成功的模型之一。FastSpeech将文本(音素)作为输入,然后非自回归地生成梅尔谱。该模型采用基于Transformer中的自注意力和一维卷积的前馈网络的结构。此外,为了解决梅尔谱序列和相应的音素序列之间的长度不匹配问题(梅尔谱序列比音素序列长很多),FastSpeech采用了一个长度调节器来根据音素持续时间将音素序列进行上采样,其中音素持续时间就是每一个音素所对应的梅尔谱帧的个数。FastSpeech的训练依赖于一个自回归的教师模型,以为该模型提供1)用来训练“持续时间预测器”的每一个音素的发音持续时间;2)用于知识蒸馏的生成梅尔谱。
生成器结构参数设置,具体如下表2所示。ksup[i],i=1,2,3,4表示上采样模块中转置卷积核的大小,i是上采样的次数;hup表示隐藏维度;ksres[j],j=1,2,3表示MRF中残差连接里扩展卷积核的大小,j是残差块的个数;Dres[j,n,l]表示MRF中残差连接里扩展卷积的扩张率,其中,j是残差块的序号、n是残差块里残差连接的序号、l是每个残差连接里扩展卷积的序号。
表2生成器结构设置
Figure BDA0003594365550000131
其次设置本发明提出模型的细节设置,具体设置如表3所示。
表3模型的细节设置
Figure BDA0003594365550000141
然后将FastSpeech模型和本发明所提出的波形生成GAN网络分别在LJSpeech数据集上进行训练,利用FastSpeech合成给定例句的梅尔谱,再使用该模型将例句的梅尔谱进行语音波形合成。
实验表明:本发明提出的基于滤波器组频率结构区分的深度网络文本转语音波形合成方法,合成的语音波形不仅能够保证各个频率成分都不会衰减,而且可消除现有基于GAN网络声码器的高频混叠的弊端,具体表现为生成语音信号的梅尔谱中谐波结构更加清晰(特别是在高频端,其谱细节更为突出),相比于已有语音声码器,可合成与人类声音更为相近的高质量语音波形。此外,由于本发明只采用一类频率结构鉴别器取代了现有基于GAN网络的模型中的两类鉴别器(多周期鉴别器和多尺度鉴别器),简化了模型结构,加快了模型训练的收敛。
实施例4
一种基于滤波器组频率区分的深度网络波形合成装置,该装置包括:处理器和存储器,存储器中存储有程序指令,处理器调用存储器中存储的程序指令以使装置执行以下的方法步骤:
采用解析方法设计多个任意频率通带的滤波器组;将生成器输出的语音信号并行馈入到滤波器组中,获得多个窄频带的信号;
将窄频带的信号分别输入到各个子鉴别器中进行处理,综合子鉴别器的损失函数对生成对抗网络的参数进行训练,将测试文本馈入到给定的声学模型前端网络中,生成测试梅尔谱,再将该测试梅尔谱输入到生成器中,生成语音信号。
其中,生成对抗网络包括:生成器网络和鉴别器网络,生成器网络包括:转置卷积模块和多感受野融合模块;鉴别器网络由若干子鉴别器组成,每个子鉴别器对输入语音波形的某一任意指定的窄频段内的信号进行处理。
其中,综合子鉴别器的损失函数对生成对抗网络的参数进行训练具体为:
1)随机初始化生成器网络G(θ)与鉴别器网络D(φ)的网络参数;
2)从训练集中采集M条语音样本,{x(m)},1≤m≤M;训练梅尔谱数据集中选出与这M条语音样本对应的梅尔谱样本,{s(m)},1≤m≤M;
3)将{s(m)},1≤m≤M输入到生成器中,得到生成语音{y(m)},1≤m≤M,y(m)=G(s(m));
4)将x(m)与y(m)依次输入到K个长度为2N-1的解析窄带滤波器g1(n),…,gK(n)中,
Figure BDA0003594365550000151
n∈[-N+1,-1]∪[1,N-1]
其中,k=1…K,p、q分别为用于控制滤波器gk(n)的通带起始频点和带宽的整数参数,wc(n)为卷积窗,将x(m)与y(m)各自分为K个窄频段信号,再将窄频段信号分别输入对应的子鉴别器中,根据非消失梯度的迭代策略来最小化鉴别器损失函数LD,更新鉴别器网络D(φ);
5)从训练梅尔谱数据集中采集M条样本,
Figure BDA0003594365550000152
6)将M条样本
Figure BDA0003594365550000153
输入到生成器中,经过转置卷积使输出序列的长度与原始波形x的时间分辨率相匹配;将序列输入到多感受野融合模块中,并行观察各种不同序列长度的模式,输出多个残差模块的总和,作为生成语音
Figure BDA0003594365550000154
进而根据非消失梯度的迭代策略来最小化生成器损失函数LG,更新生成器网络G(θ)。
这里需要指出的是,以上实施例中的装置描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
上述的处理器和存储器的执行主体可以是计算机、单片机、微控制器等具有计算功能的器件,具体实现时,本发明实施例对执行主体不做限制,根据实际应用中的需要进行选择。
存储器和处理器之间通过总线传输数据信号,本发明实施例对此不做赘述。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于滤波器组频率区分的深度网络波形合成方法,其特征在于,所述方法包括:
采用解析方法设计多个任意频率通带的滤波器组;将生成器输出的语音信号并行馈入到滤波器组中,获得多个窄频带的信号;
将窄频带的信号分别输入到各个子鉴别器中进行处理,综合子鉴别器的损失函数对生成对抗网络的参数进行训练,将测试文本馈入到给定的声学模型前端网络中,生成测试梅尔谱,再将该测试梅尔谱输入到生成器中,生成语音信号。
2.根据权利要求1所述的一种基于滤波器组频率区分的深度网络波形合成方法,其特征在于,所述生成对抗网络包括:生成器网络和鉴别器网络,
其中,所述生成器网络包括:转置卷积模块和多感受野融合模块;所述鉴别器网络由若干子鉴别器组成,每个子鉴别器对输入语音波形的某一任意指定的窄频段内的信号进行处理。
3.根据权利要求1所述的一种基于滤波器组频率区分的深度网络波形合成方法,其特征在于,所述综合子鉴别器的损失函数对生成对抗网络的参数进行训练具体为:
1)随机初始化生成器网络G(θ)与鉴别器网络D(φ)的网络参数;
2)从训练集中采集M条语音样本,{x(m)},1≤m≤M;训练梅尔谱数据集中选出与这M条语音样本对应的梅尔谱样本,{s(m)},1≤m≤M;
3)将{s(m)},1≤m≤M输入到生成器中,得到生成语音{y(m)},1≤m≤M,y(m)=G(s(m));
4)将x(m)与y(m)依次输入到K个长度为2N-1的解析窄带滤波器g1(n),....,gK(n)中,
Figure FDA0003594365540000011
其中,k=1...K,p、q分别为用于控制滤波器gk(n)的通带起始频点和带宽的整数参数,wc(n)为卷积窗,将x(m)与y(m)各自分为K个窄频段信号,再将窄频段信号分别输入对应的子鉴别器中,根据非消失梯度的迭代策略来最小化鉴别器损失函数LD,更新鉴别器网络D(φ);
5)从训练梅尔谱数据集中采集M条样本,
Figure FDA0003594365540000012
6)将M条样本
Figure FDA0003594365540000021
输入到生成器中,经过转置卷积使输出序列的长度与原始波形x的时间分辨率相匹配;将序列输入到多感受野融合模块中,并行观察各种不同序列长度的模式,输出多个残差模块的总和,作为生成语音
Figure FDA0003594365540000022
进而根据非消失梯度的迭代策略来最小化生成器损失函数LG,更新生成器网络G(θ)。
4.一种基于滤波器组频率区分的深度网络波形合成装置,其特征在于,所述装置包括:所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行权利要求1-3中的任一项所述的方法步骤。
CN202210384563.XA 2022-04-13 2022-04-13 基于滤波器组频率区分的深度网络波形合成方法及装置 Active CN114882867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210384563.XA CN114882867B (zh) 2022-04-13 2022-04-13 基于滤波器组频率区分的深度网络波形合成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210384563.XA CN114882867B (zh) 2022-04-13 2022-04-13 基于滤波器组频率区分的深度网络波形合成方法及装置

Publications (2)

Publication Number Publication Date
CN114882867A true CN114882867A (zh) 2022-08-09
CN114882867B CN114882867B (zh) 2024-05-28

Family

ID=82669174

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210384563.XA Active CN114882867B (zh) 2022-04-13 2022-04-13 基于滤波器组频率区分的深度网络波形合成方法及装置

Country Status (1)

Country Link
CN (1) CN114882867B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2433800A1 (fr) * 1978-08-17 1980-03-14 Thomson Csf Discriminateur de parole et recepteur comportant un tel discriminateur
JPH08123484A (ja) * 1994-10-28 1996-05-17 Matsushita Electric Ind Co Ltd 信号合成方法および信号合成装置
US20110173006A1 (en) * 2008-07-11 2011-07-14 Frederik Nagel Audio Signal Synthesizer and Audio Signal Encoder
US20130311189A1 (en) * 2012-05-18 2013-11-21 Yamaha Corporation Voice processing apparatus
JP2015206958A (ja) * 2014-04-23 2015-11-19 山本 裕 音声信号処理装置
CN110444224A (zh) * 2019-09-09 2019-11-12 深圳大学 一种基于生成式对抗网络的语音处理方法及装置
US20190355347A1 (en) * 2018-05-18 2019-11-21 Baidu Usa Llc Spectrogram to waveform synthesis using convolutional networks
WO2021179717A1 (zh) * 2020-03-11 2021-09-16 平安科技(深圳)有限公司 一种语音识别的前端处理方法、装置及终端设备
CN113409759A (zh) * 2021-07-07 2021-09-17 浙江工业大学 一种端到端实时语音合成方法
CN113870831A (zh) * 2021-09-26 2021-12-31 平安科技(深圳)有限公司 基于对抗网络的声音样本生成方法、装置、设备及介质
CN114169291A (zh) * 2021-11-29 2022-03-11 天津大学 基于卷积神经和生成对抗网络的文本转语音方法及装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2433800A1 (fr) * 1978-08-17 1980-03-14 Thomson Csf Discriminateur de parole et recepteur comportant un tel discriminateur
JPH08123484A (ja) * 1994-10-28 1996-05-17 Matsushita Electric Ind Co Ltd 信号合成方法および信号合成装置
US20110173006A1 (en) * 2008-07-11 2011-07-14 Frederik Nagel Audio Signal Synthesizer and Audio Signal Encoder
US20130311189A1 (en) * 2012-05-18 2013-11-21 Yamaha Corporation Voice processing apparatus
JP2015206958A (ja) * 2014-04-23 2015-11-19 山本 裕 音声信号処理装置
US20190355347A1 (en) * 2018-05-18 2019-11-21 Baidu Usa Llc Spectrogram to waveform synthesis using convolutional networks
CN110503128A (zh) * 2018-05-18 2019-11-26 百度(美国)有限责任公司 使用卷积生成对抗网络进行波形合成的谱图
CN110444224A (zh) * 2019-09-09 2019-11-12 深圳大学 一种基于生成式对抗网络的语音处理方法及装置
WO2021179717A1 (zh) * 2020-03-11 2021-09-16 平安科技(深圳)有限公司 一种语音识别的前端处理方法、装置及终端设备
CN113409759A (zh) * 2021-07-07 2021-09-17 浙江工业大学 一种端到端实时语音合成方法
CN113870831A (zh) * 2021-09-26 2021-12-31 平安科技(深圳)有限公司 基于对抗网络的声音样本生成方法、装置、设备及介质
CN114169291A (zh) * 2021-11-29 2022-03-11 天津大学 基于卷积神经和生成对抗网络的文本转语音方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YI-CHIN HUANG: ""Personalized Spontaneous Speech Synthesis Using a Small-Sized Unsegmented Semispontaneous Speech"", 《IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》, vol. 25, no. 5, 8 March 2017 (2017-03-08) *
王鹤: ""基于深度学习的中文语音合成方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 01, 15 January 2022 (2022-01-15) *

Also Published As

Publication number Publication date
CN114882867B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
Tachibana et al. An investigation of noise shaping with perceptual weighting for WaveNet-based speech generation
Nguyen et al. Nvc-net: End-to-end adversarial voice conversion
US20230282202A1 (en) Audio generator and methods for generating an audio signal and training an audio generator
Yuliani et al. Speech enhancement using deep learning methods: A review
Tian et al. TFGAN: Time and frequency domain based generative adversarial network for high-fidelity speech synthesis
WO2019163848A1 (ja) 音声変換学習装置、音声変換装置、方法、及びプログラム
Yoneyama et al. Unified source-filter GAN: Unified source-filter network based on factorization of quasi-periodic parallel WaveGAN
CN116994553A (zh) 语音合成模型的训练方法、语音合成方法、装置及设备
Agrawal et al. A review on speech separation in cocktail party environment: challenges and approaches
Ai et al. Knowledge-and-data-driven amplitude spectrum prediction for hierarchical neural vocoders
Kim et al. Audio Super-Resolution With Robust Speech Representation Learning of Masked Autoencoder
CN114882867B (zh) 基于滤波器组频率区分的深度网络波形合成方法及装置
CN115910091A (zh) 引入基频线索的生成式语音分离方法和装置
JP7103390B2 (ja) 音響信号生成方法、音響信号生成装置およびプログラム
Miao et al. A compact transformer-based GAN vocoder.
RU2823015C1 (ru) Генератор аудиоданных и способы формирования аудиосигнала и обучения генератора аудиоданных
Wu et al. Statistical voice conversion with quasi-periodic wavenet vocoder
Hono et al. PeriodGrad: Towards Pitch-Controllable Neural Vocoder Based on a Diffusion Probabilistic Model
Basir et al. Supervised Single Channel Source Separation Using U-Net
RU2823016C1 (ru) Генератор аудиоданных и способы формирования аудиосигнала и обучения генератора аудиоданных
Song et al. Speaker-adaptive neural vocoders for parametric speech synthesis systems
Ouyang Single-Channel Speech Enhancement Based on Deep Neural Networks
Jiang et al. A Complex Neural Network Adaptive Beamforming for Multi-channel Speech Enhancement in Time Domain
McHargue Efficient Multispeaker Speech Synthesis and Voice Cloning
Wang et al. A systematic study of DNN based speech enhancement in reverberant and reverberant-noisy environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Gan Lin

Inventor after: Huang Xiangdong

Inventor after: Wang Wenjun

Inventor after: Wang Junqin

Inventor before: Huang Xiangdong

Inventor before: Wang Junqin

Inventor before: Gan Lin

Inventor before: Wang Wenjun

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant