CN112634859B - 用于文本相关说话人识别的数据增强方法及系统 - Google Patents
用于文本相关说话人识别的数据增强方法及系统 Download PDFInfo
- Publication number
- CN112634859B CN112634859B CN202011583125.3A CN202011583125A CN112634859B CN 112634859 B CN112634859 B CN 112634859B CN 202011583125 A CN202011583125 A CN 202011583125A CN 112634859 B CN112634859 B CN 112634859B
- Authority
- CN
- China
- Prior art keywords
- data
- text
- speech
- training
- spectrogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 38
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 31
- 230000001419 dependent effect Effects 0.000 claims abstract description 31
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 230000008034 disappearance Effects 0.000 claims description 4
- 238000004880 explosion Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 16
- 238000012795 verification Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种用于文本相关说话人识别的数据增强方法。该方法包括:基于多个说话人的文本无关的数据训练得到语音合成模型;将第一真实语音数据对应的文本输入至语音合成模型,生成多个说话人的第二合成语音数据;将第一真实语音数据以及第二合成语音数据作为用于文本相关的说话人识别的训练数据。本发明实施例还提供一种用于文本相关说话人识别的数据增强系统。本发明实施例利用TTS系统生成新说话人的语音,使用该维度训练的数据可以进一步提升模型的性能,在极低资源条件下,该方法显著地提高了说话人识别模型的准确率。
Description
技术领域
本发明涉及智能语音领域,尤其涉及一种用于文本相关说话人识别的数据增强方法及系统。
背景技术
文本相关说话人验证是验证给定的语音是否属于所声称的说话人身份的任务,其中文本被限制在固定的词汇内容中。传统的i-vector系统和基于深度学习的模型,如d-vector、j-vector和x-vector,都得到了广泛的研究。然而,所有这些方法都需要足够的训练数据,而文本相关数据的收集往往是非常困难和昂贵的。
为了增加现有数据的数量和多样性,在构建深度学习模型时,通常将数据扩充作为预处理步骤。例如,通过在干净的音频中添加噪声和混响,可以显著提高x向量系统的性能。SpecAugment的简单语音识别数据增强方法,它也证明了它对说话人验证任务的有效性。与随机擦除策略有着相似的思想,同样适用于说话人验证任务。除了前端嵌入提取器的增强外,还有生成对抗网络(GAN)和变分自动编码器(VAE)在后端PLDA(ProbabilisticLinear Discriminant Analysis,概率线性判别分析)增强中的应用。
在实现本发明过程中,发明人发现相关技术中至少存在如下问题:
然而,上述所有的数据增强方法只提供了声音环境的变化,这只是系统鲁棒性的一个方面。这些新生成的数据没有使用新的说话人数据。只是在已有的说话人数据上增加了变化,因此模型性能提升有限。
发明内容
为了至少解决现有技术中数据增强只提供声音环境的变化,而没有使用新的说话人数据,模型性能提升有限的问题。
第一方面,本发明实施例提供一种用于文本相关说话人识别的数据增强方法,包括:
基于多个说话人的文本无关的数据训练得到语音合成模型;
将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;
将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据。
第二方面,本发明实施例提供一种用于文本相关说话人识别的数据增强系统,包括:
模型训练程序模块,用于基于多个说话人的文本无关的数据训练得到语音合成模型;
数据生成程序模块,用于将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;
数据增强程序模块,用于将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的用于文本相关说话人识别的数据增强方法的步骤。
第四方面,本发明实施例提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现本发明任一实施例的用于文本相关说话人识别的数据增强方法的步骤。
本发明实施例的有益效果在于:利用TTS系统生成新说话人的语音,使用该维度训练的数据可以进一步提升模型的性能,在极低资源条件下,该方法显著地提高了说话人识别模型的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的流程图;
图2是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的结构图;
图3是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的基于条件FastSpeech2的TTS体系结构图;
图4是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的TTS系统为同一个说话人生成的4个实例的Mel光谱图;
图5是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的不同RS015的EER(%)试验数据图;
图6是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的在RSR2015测试集上当合成语音中使用不同数量的扬声器时i-vector的EER(%)曲线图;
图7是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的在RSR2015测试集上,当200个说话人中的每个人合成不同数量的话语时,i-vector系统的EER(%)数据图;
图8是本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的当使用不同的数据扩充方法时,RSR2015测试集上的EER(%);
图9是本发明一实施例提供的一种用于文本相关说话人识别的数据增强系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示为本发明一实施例提供的一种用于文本相关说话人识别的数据增强方法的流程图,包括如下步骤:
S11:基于多个说话人的文本无关的数据训练得到语音合成模型;
S12:将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;
S13:将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据。
在本实施方式中,受合成语音在自动语音识别(ASR)中的成功应用的启发,我们提出了一种新的数据增强方法SynAug(也就是本方法),该方法通过语音合成系统生成新说话人的受控语音,用于文本相关的说话人验证训练。该方法与其他基于tts(Text To Speech,从文本到语音)的语音增强方法的主要区别在于,我们可以使用额外的文本无关语音作为参考来指导合成。
对于步骤S11,我们假设有一个有限的与文本相关的数据集DTD和一个与文本无关的大型数据集DTI。图2展示了数据增强方法的流程。例如,文本相关的数据集中的数据是A、B、C三名用户,文本相关的数据集为与“打开空调”文本相关的语音。而文本无关的大型数据集是可以任意采集的,不需要指定哪些人,也不需要指定特定的文本,因此这类数据在采集时相对简单。我们首先在DTI上训练TTS(Text To Speech,从文本到语音)系统,也就是语音合成模型。训练后的语音合成模型包含了文本无关的数据集中各人物的声音特征。
对于步骤S12,将文本相关的数据集中真实语音对应的文本输入至步骤S11中的训练的语音合成模型中。生成多个说话人的“打开空调”的语音数据。
对于步骤S13,通过在DTI中采样每个说话人的不同语音作为参考,使用真实语音数据以及合成语音数据生成了一个依赖于文本的合成数据集DSTD,其中每个说话人对于每个目标文本都有几种不同的音频。
使用该合成数据集DSTD对说话人识别模型进行训练,训练模型的对于i-vector系统,仅在DTD上训练UBM和PLDA,而在DTD和DSTD的合并数据上对i-vector提取器进行训练。
通过该实施方式可以看出,利用TTS系统生成新说话人的语音,使用该维度训练的数据可以进一步提升模型的性能,在极低资源条件下,该方法显著地提高了说话人识别模型的准确率。
作为一种实施方式,在本实施例中,所述基于多个说话人的文本无关的数据训练得到语音合成模型包括:
通过提取器确定所述文本无关的数据中的各说话人的特征信息,其中,所述特征信息包括:音素、音色、音量、语速;
利用所述特征信息确定预测mel-声谱图;
基于预设参考mel-声谱图与所述预测mel-声谱图对所述语音合成模型的提取器进行训练,直至所述预测mel-声谱图趋近于所述预设参考mel-声谱图为止。
所述提取器的内核大小为3*3,包括6层2D卷积层。
所述提取器还包括:批处理归一化层用于防止梯度爆炸和梯度消失以及ReLU激活函数用于降低计算量。
在本实施方式中,本文的TTS模型基于FastSpeech2,以一个音素序列作为输入,输出320维的mel-声谱图。在本方法中,我们需要合成多个变异性说话人的语音,因此我们使用了条件提取器,从参考语音中提取除输入音素以外的其他信息,包括说话人、说话风格、音量、速度等。这些信息被表示为嵌入条件c,然后广播并添加到快语音的编码器输出进行语音合成。我们的TTS模型的总体架构如图3所示。在训练阶段,参考语音就是训练TTS的目标语音。因此,我们对条件提取器进行了优化,以提取c语言中的有效信息,以便更好地重构mel声谱图,也就是说可以通过预设参考mel-声谱图与所述预测mel-声谱图的差值进行反向训练,这样基于差值进行重构me。
在推理阶段,我们可以随机选择一个mel声谱图作为参考,然后得到一个与给定文本对应的合成语音。
本方法中条件提取器的结构包含6层2D卷积,内核大小为33,每层之后是批处理归一化层和ReLU激活函数。在上述模块之后,设计了隐藏大小为128的双向GRU。来自GRU层的前后状态的串联状态是条件提取器的输出,称为条件嵌入c。
通过该实施方式可以看出,通过该方法训练的语音合成模型可以有效的确定说话人的特征信息。
对本方法进行具体试验,RSR2015-part1语料库的背景集用于训练包含97个说话人的说话人验证系统。利用同一语料库中的评价集对所提出的系统进行评价。评价共1568008个试验,其中靶向试验19052个,冒名冒充试验1548956个。
LibriTTS是一个大型多音箱TTS数据集,其训练集分为“train-clean-460”和“train-other-500”两部分。我们使用train-clean-460作为TTS训练集,包含约245小时的数据。为简便起见,语音被重新采样为16kHz。
对于i-vector系统,我们使用30维MFCC,窗口大小为25ms,帧移为10ms。UBM有512个高斯混合分量,i-vector维数设为700。为了模拟不同数量TD数据可用的情况,我们在实验中分别使用10、20、50和RSR2015中的所有97个扬声器。
数据增强的一个简单想法是直接使用额外的文本无关的数据DTI来训练i-vector提取器。因此,有必要证明在不限制讲话内容的情况下直接引入新的讲话人对于基于文本的讲话人验证来说不是一个好主意。我们将首先说明以所需内容合成语音的重要性,然后分析合成质量对SV系统的影响。
首先,我们从train-clean-460数据集中随机选择200个说话人,直接使用对应的文本无关数据作为扩展的DTI。
然后,我们应用SynAug(也就是本方法),我们在RSR2015中合成30个固定转录本20次,每个相同的200个DTI演讲者。我们使用对应说话人的不同话语作为参考,以生成不同条件下的话语。图4展示了TTS系统使用相同的说话人和文本生成的4个实例的mel声谱图的示例。尽管它们相似,但我们可以发现四种mel声谱图之间存在明显的差异,这说明生成样本的多样性。我们分别使用Griffin-Lim算法和WaveRNN对预测的mel谱图进行重构。合成语音DSTD与原始文本相关的训练数据一起用于i-向量训练。在PLDA阶段,我们只使用原始数据而不进行扩展。
上述系统的结果见图5所示。一般来说,SynAug优于与文本无关的数据增强,这显示了生成文本匹配语音的重要性。我们还发现,神经声码器WaveRNN比Griffin-Lim算法提供了更多的改进,合成语音的音质更好。例如,当RSR2015中97个扬声器全部可用时,SynAug和WaveRNN的EER相对降低了14.1%,当RSR2015中只有10个扬声器可用时,EER相对降低了76.5%。
我们分析合成语音中的说话人数量如何影响SynAug的性能。当可用不同数量的TD数据时,我们仍将模拟上述4种情况。以下实验中的声码器是WaveRNN。然后,我们从train-clean-460数据集中分别随机选择100、200、500和1000个说话人,并使用它们为SynAug合成20次30个固定转录本。
结果如图6所示。我们可以发现,当SynAug使用更多的扬声器时,EER会降低。然而,在合成语音中增加说话人的数量不能与在真实语音中增加说话人的数量匹配。例如,当我们在真实语音中有10个说话人,在合成语音中有200个说话人(总共210个说话人)时,EER为2.18;但是当我们在真实语音中有20个发言者在合成语音中有100个发言者时,总共120个发言者(比以前的组合少),则EER较低,为1.23。RSR2015和train-clean-460中扬声器之间的域差异可以部分解释这一点。此外,可以观察到,将合成语音中的说话人数量从200增加到500或1000所获得的改善要比将语音数量从100增加到200所获得的改善小。因此,在以下实验中,我们仍将200个说话人用于SynAug,以在性能和计算成本。
除了说话人数量之外,我们还研究合成语音中每个说话人的发音数量。在这里,我们分别为每个说话人合成30个转录本5、10和20次,并观察增益。如图7所示,当每个扬声器的发声数增加时,EER减小。这符合常识,即更多的训练数据可以提供更好的性能。
我们首先给出了添加噪声和混响的结果以进行数据扩充。我们遵循KaldiVoxceleb recipe v2并生成原始数据集的增强噪声副本。原始数据和产生的噪声数据都用来训练i-向量提取器。如图8的结果表明,在RSR2015中,当10、20和50个扬声器可用时,添加噪声和混响可以降低EER。
然后,我们结合SynAug方法,加入噪声和混响。利用TTS合成的语音和上述生成的含噪语音进行i-向量训练。我们在图8中展示了结果。与仅使用TTS的系统相比,这种组合在资源较低的情况下产生了进一步的收益。然而,当RSR2015中可以使用更多的扬声器时,这种组合不会带来任何好处。例如,当RSR2015中有10个扬声器时,与不应用数据增强的基准相比,这种组合降低了相对EER的82.2%,与仅使用噪声和混响进行数据增强的系统相比,降低了58.8%。
在本文中,我们提出了一种新的基于综合的数据增强方法SynAug,该方法利用TTS系统生成新说话人的语音,用于文本相关的说话人验证训练。通过使用新说话人的受控语音生成语音,我们证明了SynAug可以极大地改善基于文本的说话人验证系统,特别是在原始训练数据非常有限的情况下。在RSR2015数据集上的实验表明,当RSR2015中97个扬声器全部可用时,使用200个增强扬声器,EER相对降低了14.1%;当RSR2015中只有10个扬声器可用时,EER相对降低了76.5%。此外,与传统的加噪声、混响等增强方法相结合,可以进一步提高系统的性能。在未来,我们将在x-vector等基于深度学习的框架中探索SynAug方法,实现更大的数据集。
如图9所示为本发明一实施例提供的一种用于文本相关说话人识别的数据增强系统的结构示意图,该系统可执行上述任意实施例所述的用于文本相关说话人识别的数据增强方法,并配置在终端中。
本实施例提供的一种用于文本相关说话人识别的数据增强系统10包括:模型训练程序模块11,数据生成程序模块12和数据增强程序模块13。
其中,模型训练程序模块11用于基于多个说话人的文本无关的数据训练得到语音合成模型;数据生成程序模块12用于将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;数据增强程序模块13用于将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据。
进一步地,所述模型训练程序模块用于:
通过提取器确定所述文本无关的数据中的各说话人的特征信息,其中,所述特征信息包括:音素、音色、音量、语速;
利用所述特征信息确定预测mel-声谱图;
基于预设参考mel-声谱图与所述预测mel-声谱图对所述语音合成模型的提取器进行训练,直至所述预测mel-声谱图趋近于所述预设参考mel-声谱图为止。
进一步地,所述提取器的内核大小为3*3,包括6层2D卷积层。
进一步地,所述提取器还包括:批处理归一化层用于防止梯度爆炸和梯度消失以及ReLU激活函数用于降低计算量。
本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的用于文本相关说话人识别的数据增强方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
基于多个说话人的文本无关的数据训练得到语音合成模型;
将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;
将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据。
作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的方法对应的程序指令/模块。一个或者多个程序指令存储在非易失性计算机可读存储介质中,当被处理器执行时,执行上述任意方法实施例中的用于文本相关说话人识别的数据增强方法。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据装置的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的用于文本相关说话人识别的数据增强方法的步骤。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如平板电脑。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器,掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)其他具有数据处理功能的电子装置。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种用于文本相关说话人识别的数据增强方法,包括:
基于多个说话人的文本无关的数据训练得到语音合成模型;
将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;
将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据,其中,所述基于多个说话人的文本无关的数据训练得到语音合成模型包括:
通过提取器确定所述文本无关的数据中的各说话人的特征信息,其中,所述特征信息包括:音素、音色、音量、语速;
利用所述特征信息确定预测mel-声谱图;
基于预设参考mel-声谱图与所述预测mel-声谱图对所述语音合成模型的提取器进行训练,直至所述预测mel-声谱图趋近于所述预设参考mel-声谱图为止。
2.根据权利要求1所述的方法,其中,所述提取器的内核大小为3*3,包括6层2D卷积层。
3.根据权利要求1或2所述的方法,其中,所述提取器还包括:批处理归一化层用于防止梯度爆炸和梯度消失以及ReLU激活函数用于降低计算量。
4.一种用于文本相关说话人识别的数据增强系统,包括:
模型训练程序模块,用于基于多个说话人的文本无关的数据训练得到语音合成模型;
数据生成程序模块,用于将第一真实语音数据对应的文本输入至所述语音合成模型,生成所述多个说话人的第二合成语音数据;
数据增强程序模块,用于将所述第一真实语音数据以及所述第二合成语音数据作为用于文本相关的说话人识别的训练数据,其中,所述模型训练程序模块用于:
通过提取器确定所述文本无关的数据中的各说话人的特征信息,其中,所述特征信息包括:音素、音色、音量、语速;
利用所述特征信息确定预测mel-声谱图;
基于预设参考mel-声谱图与所述预测mel-声谱图对所述语音合成模型的提取器进行训练,直至所述预测mel-声谱图趋近于所述预设参考mel-声谱图为止。
5.根据权利要求4所述的系统,其中,所述提取器的内核大小为3*3,包括6层2D卷积层。
6.根据权利要求4或5所述的系统,其中,所述提取器还包括:批处理归一化层用于防止梯度爆炸和梯度消失以及ReLU激活函数用于降低计算量。
7.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述方法的步骤。
8.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1-3中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011583125.3A CN112634859B (zh) | 2020-12-28 | 2020-12-28 | 用于文本相关说话人识别的数据增强方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011583125.3A CN112634859B (zh) | 2020-12-28 | 2020-12-28 | 用于文本相关说话人识别的数据增强方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634859A CN112634859A (zh) | 2021-04-09 |
CN112634859B true CN112634859B (zh) | 2022-05-03 |
Family
ID=75325969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011583125.3A Active CN112634859B (zh) | 2020-12-28 | 2020-12-28 | 用于文本相关说话人识别的数据增强方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634859B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838450B (zh) * | 2021-08-11 | 2022-11-25 | 北京百度网讯科技有限公司 | 音频合成及相应的模型训练方法、装置、设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190019500A1 (en) * | 2017-07-13 | 2019-01-17 | Electronics And Telecommunications Research Institute | Apparatus for deep learning based text-to-speech synthesizing by using multi-speaker data and method for the same |
US11238843B2 (en) * | 2018-02-09 | 2022-02-01 | Baidu Usa Llc | Systems and methods for neural voice cloning with a few samples |
CN110459204A (zh) * | 2018-05-02 | 2019-11-15 | Oppo广东移动通信有限公司 | 语音识别方法、装置、存储介质及电子设备 |
CN111081259B (zh) * | 2019-12-18 | 2022-04-15 | 思必驰科技股份有限公司 | 基于说话人扩充的语音识别模型训练方法及系统 |
CN111862933A (zh) * | 2020-07-20 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 用于生成合成语音的方法、装置、设备和介质 |
-
2020
- 2020-12-28 CN CN202011583125.3A patent/CN112634859B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112634859A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110211575B (zh) | 用于数据增强的语音加噪方法及系统 | |
CN110709924B (zh) | 视听语音分离 | |
CN108109613B (zh) | 用于智能对话语音平台的音频训练和识别方法及电子设备 | |
US10872602B2 (en) | Training of acoustic models for far-field vocalization processing systems | |
CN110136749B (zh) | 说话人相关的端到端语音端点检测方法和装置 | |
Barker et al. | The third ‘CHiME’speech separation and recognition challenge: Dataset, task and baselines | |
CN111081259B (zh) | 基于说话人扩充的语音识别模型训练方法及系统 | |
CN110706692B (zh) | 儿童语音识别模型的训练方法及系统 | |
CN111862942B (zh) | 普通话和四川话的混合语音识别模型的训练方法及系统 | |
US11823655B2 (en) | Synthetic speech processing | |
CN110600013B (zh) | 非平行语料声音转换数据增强模型训练方法及装置 | |
EP3989217B1 (en) | Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium | |
US11017763B1 (en) | Synthetic speech processing | |
Kadyan et al. | In domain training data augmentation on noise robust Punjabi Children speech recognition | |
Herbig et al. | Self-learning speaker identification for enhanced speech recognition | |
CN110232928B (zh) | 文本无关说话人验证方法和装置 | |
Alam et al. | Speech recognition in reverberant and noisy environments employing multiple feature extractors and i-vector speaker adaptation | |
CN112634859B (zh) | 用于文本相关说话人识别的数据增强方法及系统 | |
Rikhye et al. | Personalized keyphrase detection using speaker and environment information | |
CN112634860B (zh) | 儿童语音识别模型训练语料筛选方法 | |
US20230260501A1 (en) | Synthetic speech processing | |
Koolagudi et al. | Speaker recognition in the case of emotional environment using transformation of speech features | |
Do et al. | A new speaker identification algorithm for gaming scenarios | |
Dey et al. | Content normalization for text-dependent speaker verification | |
Kang et al. | Combining multiple acoustic models in GMM spaces for robust speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Sipic Technology Co.,Ltd. Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: AI SPEECH Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |