CN111445900A - 一种语音识别的前端处理方法、装置及终端设备 - Google Patents
一种语音识别的前端处理方法、装置及终端设备 Download PDFInfo
- Publication number
- CN111445900A CN111445900A CN202010165112.8A CN202010165112A CN111445900A CN 111445900 A CN111445900 A CN 111445900A CN 202010165112 A CN202010165112 A CN 202010165112A CN 111445900 A CN111445900 A CN 111445900A
- Authority
- CN
- China
- Prior art keywords
- voice
- characteristic parameter
- speech
- data
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 238000006243 chemical reaction Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 34
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000033764 rhythmic process Effects 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 79
- 238000012549 training Methods 0.000 claims description 53
- 238000004590 computer program Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 17
- 238000001228 spectrum Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 10
- 230000000737 periodic effect Effects 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 108090000623 proteins and genes Proteins 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000035479 physiological effects, processes and functions Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000001260 vocal cord Anatomy 0.000 description 2
- 241000157282 Aesculus Species 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 241000238558 Eucarida Species 0.000 description 1
- 208000037656 Respiratory Sounds Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000004704 glottis Anatomy 0.000 description 1
- 235000010181 horse chestnut Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请适用于语音识别技术领域,提供了一种语音识别的前端处理方法、装置及终端设备,方法包括:获取原始语音信号,对原始语音信号按预设格式进行预处理,得到源语音数据;对源语音数据进行语音特征提取,得到源语音数据的第一语音特征参量,第一语音特征参量为描述语音音色及韵律的声学特征参量;将第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,第二语音特征参量为目标语音数据的特征参量;根据第二语音特征参量合成目标语音数据,将目标语音数据作为语音识别模型的输入。本申请将带有第一语音特征参量的源语音数据转换为第二语音特征参量的语音数据,实现语音数据的非平行转换,提高了语音识别的鲁棒性和准确性。
Description
技术领域
本申请属于语音识别技术领域,尤其涉及一种语音识别的前端处理方法、装置及终端设备。
背景技术
自动语音识别(Automatic Speech Recognition,ASR)是将人类的语音中的词汇内容转换为计算机可读的输入,不同于说话人识别或说话人确认。随着深度学习技术的发展与应用,自动语音识别技术有了显著的提高,在日常不同领域中得到广泛的应用。
然而,语音信号中存在少量噪声或语音信号发生细微改变时,例如人类语言中的由于心理或生理产生的自然干扰(包括大笑、兴奋、沮丧的不同情绪表达性的语音信号或由不同声音品质产生的附带吱吱声、呼吸声的语音信号),会对自动语音识别的性能产生影响,降低自动语音识别的性能。
发明内容
本申请实施例提供了一种语音识别的前端处理方法、装置及终端设备,可以解决人类语言中的由于心理或生理产生的自然干扰,对自动语音识别的性能产生影响,降低自动语音识别的性能的问题。
第一方面,本申请实施例提供了一种语音识别的前端处理方法,包括:
获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;
对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;
将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;
根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。
在第一方面的一种可能的实现方式中,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据,包括:
对所述原始语音信号进行滤波处理;
对滤波处理后的语音信号进行周期性采样,获取预设频率的语音采样数据;
对所述语音采样数据进行加窗及分帧处理,得到所述源语音数据。
在第一方面的一种可能的实现方式中,对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,包括:
通过梅尔滤波器组提取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量;
获取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量对应的参量分布。
在第一方面的一种可能的实现方式中,所述语音转换模型的训练步骤,包括:
获取语音样本训练数据集中的随机样本与实际样本,分别提取所述随机样本的随机样本特征参量分布以及实际样本的实际样本特征参量分布;
根据所述随机样本特征参量分布及所述实际样本特征参量分布,对待训练的对抗网络模型进行迭代训练;
根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差;
当误差小于或等于预设误差阈值时,停止训练,得到所述语音转换模型。
在第一方面的一种可能的实现方式中,根据所述随机样本特征参量分布及所述实际样本特征参量分布,对所述待训练的对抗网络进行迭代训练,包括:
将所述随机样本特征参量分布输入至待训练的对抗网络模型的生成器网络,生成与实际样本特征参量分布对应的伪样本特征参量分布;
通过待训练的对抗网络模型的鉴别器网络,对所述伪样本特征参量分布与所述实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
将所述鉴别结果特征分布再次输入至所述生成器网络,再次生成与实际样本特征参量分布对应的伪样本特征参量分布,通过所述鉴别器网络再次对伪样本特征参量分布与实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
根据所述随机样本特征参量分布、所述实际样本特征参量分布、所述伪样本特征参量分布及所述鉴别结果特征分布,对所述待训练的对抗网络模型进行循环迭代训练。
在第一方面的一种可能的实现方式中,根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差,包括:
根据第一对抗损失函数和第二对抗损失函数,得出所述对抗网络模型的循环一致性损失函数及身份映射损失函数;其中,所述第一对抗损失函数为计算所述伪样本特征参量分布与所述实际样本特征参量分布的距离的损失函数,所述第二对抗损失函数为计算所述鉴别结果特征分布与所述随机样本特征分布的距离的损失函数;
根据所述循环一致性损失函数及所述身份映射损失函数,得到所述对抗网络模型的所述预设损失函数;
所述对抗网络模型输出通过所述预设损失函数计算的误差,将所述误差作为目标训练值。
在第一方面的一种可能的实现方式中,根据所述第二语音特征参量合成所述目标语音数据,包括:
根据所述第二语音特征参量,采用波形拼接及时域基因同步叠加算法,合成无扰动或扰动特征最小的目标语音数据。
第二方面,本申请实施例提供了一种语音识别的前端处理装置,包括:
获取单元,用于获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;
特征提取单元,用于对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;
数据处理单元,用于将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;
合成单元,用于根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现所述的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的语音识别的前端处理方法。
本申请实施例与现有技术相比存在的有益效果是:通过本申请实施例,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。在进行语音识别之前,对原始语音信号进行预处理及特征语音特征参量的转换,通过语音转换可以将原始语音数据中的自然干扰进行滤除,将带有扰动特征的源语音数据的特征参量转换为无干扰的自然语音数据的特征参量,并合成对应的无干扰语音数据,作为语音识别的输入;将带有扰动特征源语音数据的第一语音特征参量以及转换后的语音数据的第二语音特征参量可视化,实现了语音数据的非平行转换,提高了语音识别的鲁棒性和准确性。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的应用场景系统示意图;
图2是本申请一实施例提供的语音识别的前端处理方法的流程示意图;
图3是本申请另一实施例提供的对抗网络模型迭代训练方法的流程示意图;
图4是本申请一实施例提供的对抗网络模型的网络结构示意图;
图5是本申请实施例提供的语音识别的前端处理装置的结构示意图;
图6是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的语音识别的前端处理方法可以应用于手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
参见图1,是本申请一实施例提供的应用场景系统示意图,如图所示本申请实施例提供的语音识别的前端处理方法可以应用于移动终端或固定设备,例如:智能手机101、笔记本电脑102、台式计算机103等,本申请实施例对终端设备的具体类型不作任何限制,终端设备通过有线或无线的方式与服务器104进行数据的交互;终端设备的语音助手获取外界语音信号,对语音信号进行前端处理,过滤掉语音信号中的一些干扰因素,将带有扰动的语音信号转化为无扰动或扰动最小化的自然语音信号,进而通过有线或无线的方式传输至服务器,由服务器进行语音识别、自然语言处理及相关的业务处理,反馈至终端设备,由终端设备根据业务处理信息执行相应的动作;其中,语音助手如Siri、谷歌Assistant、亚马逊Alexa等,在自动语音识别ASR系统中对语音识别的前端处理方法的应用。无线方式包括互联网、WiFi网络或移动网络,其中移动网络可以包括现有的2G(如全球移动通信系统(英文:Global System for Mobile Communication,GSM))、3G(如通用移动通信系统(英文:Universal Mobile Telecommunications System,UMTS))、4G(如FDD LTE、TDD LTE)以及4.5G、5G等。
图2示出了本申请提供的语音识别的前端处理方法的示意性流程图,所述语音识别的前端处理方法包括:
步骤S201,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据。
在一种可能的实现方式中,本实施例的执行主体可以为具有语音识别功能的终端设备,针对在进行语音识别的应用场景,实现对语音信号的前端处理;即在对语音进行语义识别之前,对带有扰动或杂音的语音信号进行前端处理,获取正常无杂音的语音数据,将正常无杂音的语音数据作为语音识别系统的输入,提高语音识别的准确性和鲁棒性。
其中,原始语音信号可以为带有扰动或杂音的语音信号,例如由于心理或生理产生的带有自然干扰的语音信号,具体的可以包括:以大笑、兴奋、沮丧等不同情绪表达的语音信号,或者由不同声音品质产生的附带吱吱声、呼吸声的语音信号。
在一个实施例中,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据,包括:
A1、对所述原始语音信号进行滤波处理;
A2、对滤波处理后的语音信号进行周期性采样,获取预设频率的语音采样数据;
在一种可能的实现方式中,对原始语音信号进行滤波处理,按16kHz的频率进行采样。
A3、对所述语音采样数据进行加窗及分帧处理,得到所述源语音数据。
在一种可能的实现方式中,对语音采样数据进行加窗处理,由于语音信号在时域上具有较强的时变性,因此将语音信号进行短时划分,得到固定时间长度的短信号,设定一帧短信号的特征在固定时间内保持不变,固定时间可以是10毫秒~30毫秒之间的某一固定时间段,通过加窗实现,例如选择长度为20毫秒的窗函数乘以语音信号,加窗后的语音信号的频谱特征在窗的持续时间(20毫秒)内是平稳的。
另外,在对语音数据进行加窗后,对语音信号进行分帧处理;为了保证语音信号动态变化的信息的连续性及可靠性,设置相邻两帧语音信号之间的重叠部分,保持语音信号的帧与帧之间的平滑过渡。在对语音信号进行分帧处理后,对语音信号进行端点检测,以标记并确定每一帧语音信号的起始点和终止点,降低突发脉冲或语音间断等对语音信号分析的影响。最后将获取的语音数据帧作为待分析的源语音数据。
需要说明的是,原始语音信号还可以是正常无杂音的语音信号,作为语音识别系统的前端处理部分,针对获取的无扰动的正常语音的前端处理,不会影响后续对语音信号的识别。
步骤S202,对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量。
在一种可能的实现方式中,第一语音特征参量为基于语音数据帧提取的描述语音音色的声学特征参数,例如频谱参数;第一语音特征参量还包括用于表征语音的韵律特征的参数,例如基音频率参数。
在一个实施例中,对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,包括:
B1、通过梅尔滤波器组提取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量;
B2、获取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量对应的参量分布。
在一种可能的实现方式中,在每一帧20毫秒的语音数据窗口内,以每5毫秒的长度提取第一语音特征参量,包括基于梅尔滤波器组(MFB)所提取的梅尔频谱特征参量、对数基频(log F0)特征参量以及非周期分量(APs)特征。其中,所述梅尔频谱特征参量和非周期分量(APs)特征分别为24维的语音特征参量。
其中,对于梅尔频谱特征参量,在每一帧20毫秒的语音数据窗口内,以每5毫秒的长度进行特征提取;通过记录每帧源语音数据的时域信号,将时域信号补充至长度与窗宽相同的序列,对序列进行离散傅里叶变换得到每帧语音数据的线性频谱,将线性频谱通过梅尔频率滤波器组,得到梅尔频谱;其中,梅尔滤波器组一般包括24个三角带通滤波器,对所获取的频谱特征进行平滑化,有效地强调了语音数据的低频信息,突出了有用的信息,并且屏蔽了噪声的干扰。
对于对数基频(log F0)特征参量,由于人们在发浊音时,气流通过声门使声带产生张弛振荡式振动,产生一股准周期脉冲气流,这一气流激励声道产生浊音,而这种声带振动的频率为基音频率。具体的,对经过预处理后的每一帧源语音数据进行加窗处理后,计算该帧语音数据的倒谱,设置基音搜索的长度范围,查询该长度范围帧语音数据的倒谱的最大值,若最大值大于窗口的门限值,则根据最大值计算得到浊音的基音频率,通过获取基音频率的对数反应语音数据的特征;若倒谱的最大值小于或等于窗口的门限值,则说明该帧源语音数据为静音或清音。
对于非周期分量特征参量,根据对源语音数据的加窗信号,进行傅里叶逆变换,得到非周期分量的时域特征,根据对源语音数据的加窗信号及频谱特征的最小相位,确定非周期分量的频域特征。
步骤S203,将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量。
在一种可能的实现方式中,语音转换模型为通过对样本训练数据集,采用周期一致的对抗网络模型进行训练获得的模型。将对所述源语音数据提取的第一语音特征参量输入至语音转换模型,经过语音转换后输出第二语音特征参量,第二语音特征参量为与实际正常语音的特征参量最相似的语音特征参量,即目标语音数据的特征参量,所述目标语音数据为扰动最小或无扰动的语音数据。
在一个实施例中,如图3所示,本申请另一实施例提供的对抗网络模型迭代训练方法的流程示意图,所述语音转换模型的训练步骤,包括:
步骤S301,获取语音样本训练数据集中的随机样本与实际样本,分别提取所述随机样本的随机样本特征参量分布以及实际样本的实际样本特征参量分布;
在一种可能的实现方式中,采用两个自发的语音数据集,例如AMI会议语料库和会话性语音的Buckeye语料库来分析自然扰动的影响;从两个语音数据集中,获取了由40名女性演讲者和30名男性演讲者组成的语音数据;将语音数据作为语音样本训练数据集,共210个话语,包括每种性别和每个类型的(正常的语言、大笑的语言和吱吱作响的语言)。在这210个话语中,150个用于训练,60个用于测试;每句话的时长为1-2秒;以训练语音转换模型。
具体的,在对语音转换模型的训练过程中,周期一致的对抗网络模型包括生成器和鉴别器;具体的,通过从语音样本训练数据集中获取随机样本及实际样本,提取随机样本的随机样本特征参量及实际样本中的实际样本特征参量,将随机样本特征参量的分布将作为生成器的输入。
步骤S302,根据所述随机样本特征参量分布及所述实际样本特征参量分布,对待训练的对抗网络模型进行迭代训练;
在一种可能的实现方式中,周期一致的对抗网络模型包括生成器和鉴别器;根据随机样本特征参量,由生成器生成与实际样本特征参量分布类似的伪样本特征参量分布。将所述伪样本特征参量分布输入鉴别器,由鉴别器区分伪样本分布与实际样本特征参量分布。
步骤S303,根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差;
在一种可能的实现方式中,对抗网络模型使用预设损失函数计算在迭代训练过程中的误差,将所述误差作为对抗网络模型的目标训练值。
步骤S304,当误差小于或等于预设误差阈值时,停止训练,得到所述语音转换模型。
在一种可能的实现方式中,当误差小于或等于预设误差阈值时,训练的对抗网络模型符合转换条件,则停止训练,得到所述语音转换模型;通过语音转换模型,将带有扰动语音特征参量转换为实际正常语音特征参量,完成非平行语音的转换。
在一个实施例中,根据所述随机样本特征参量分布及所述实际样本特征参量分布,对所述待训练的对抗网络进行迭代训练,包括:
C1、将所述随机样本特征参量分布输入至待训练的对抗网络模型的生成器网络,生成与实际样本特征参量分布对应的伪样本特征参量分布;
具体的,通过采用周期一致性的对抗网络模型,将扰动语音特征到正常语音特征的转换进行建模;对获取的随机样本进行语音特征参量的提取,将提取的语音特征参量的分布(x∈X)输入至生成器,由生成器生成伪样本特征参量分布GX→Y(x);通过第一对抗损失函数Ladv(GX→Y(x),Y),计算伪样本特征参量分布GX→Y(x)与实际样本特征参量分布(y∈Y)之间的距离,即实现从扰动语音到正常语音的转换。
C2、通过待训练的对抗网络模型的鉴别器网络,对所述伪样本特征参量分布与所述实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
具体的,鉴别器对生成的伪样本特征与实际样本特征进行区分,得到区分后的结果GY→X(y),通过第二对抗性损失函数Ladv(GY→X(y),X)计算鉴别结果与随机样本特征之间的距离。
C3、将所述鉴别结果特征分布再次输入至所述生成器网络,再次生成与实际样本特征参量分布对应的伪样本特征参量分布,通过所述鉴别器网络再次对伪样本特征参量分布与实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
C4、根据所述随机样本特征参量分布、所述实际样本特征参量分布、所述伪样本特征参量分布及所述鉴别结果特征分布,对所述待训练的对抗网络模型进行循环迭代训练。
如图4所示的,本申请一实施例提供的对抗网络模型的网络结构示意图,对抗网络模型包括生成器G和鉴别器D,通过生成器G生成伪样本特征参量分布G(x),将伪样本特征参量分布和实际样本的特征分布输入至鉴别器,通过鉴别器进行鉴别,获得鉴别结果,再将鉴别结果反馈至生成器G或鉴别器D,从而对对抗网络模型进行循环训练。
其中,语音转换模型中的生成器和鉴别器网络分别由卷积块组成。生成器网络由9个卷积块组成;其中,包括一个stride-1卷积块、一个stride-2卷积块、5个残差块、一个1/2stride卷积块和一个stride-1卷积块;为了保持时间结构,所有卷积层都是一维的;门控线性单元作为卷积层的激活函数,在语言和语音建模方面取得了最先进的性能。鉴别器网络由四块二维卷积块组成;门控线性单元作为所有卷积块的激活函数;对于鉴别器网络,使用一个6×6patch GAN来对每个6×6patch进行真假分类。
在一个实施例中,根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差,包括:
D1、根据第一对抗损失函数和第二对抗损失函数,得出所述对抗网络模型的循环一致性损失函数及身份映射损失函数;其中,所述第一对抗损失函数为计算所述伪样本特征参量分布与所述实际样本特征参量分布的距离的损失函数,所述第二对抗损失函数为计算所述鉴别结果特征分布与所述随机样本特征分布的距离的损失函数;
在一种可能的实现方式中,通过第一对抗损失函数Ladv(GX→Y(x),Y),计算伪样本特征参量分布GX→Y(x)与实际样本特征参量分布(y∈Y)之间的距离;通过第二对抗性损失函数Ladv(GY→X(y),X)计算鉴别结果与随机样本特征之间的距离;根据第一对抗损失函数Ladv(GX→Y(x),Y)、第二对抗性损失函数Ladv(GY→X(y),X),得出循环一致性损失函数:Lcyc=Ex||GY→X(GX→Y(x)||1+Ey||GX→Y(GY→X(y)||1,以及身份映射损失函数Lid=Ex||GY→X(x)-x||1+Ey||GX→Y(y)-y||1;通过循环一致性损失函数Lcyc,在计算过程中保留语音特征中的上下文信息,通过身份映射损失函数Lid,在计算过程中保存语音数据在转换过程中的重要语音信息。
D2、根据所述循环一致性损失函数及所述身份映射损失函数,得到所述对抗网络模型的所述预设损失函数;
在一种可能的实现方式中,根据所述循环一致性损失函数及所述身份映射损失函数,得到所述对抗网络模型的所述预设损失函数L=Ladv(GX→Y(x),y)+Ladv(GY→X(y),x)+λcycLcyc+λidLid,其中λcyc和λid为超参数,以控制循环一致性损失函数、所述身份映射损失函数及所述预设损失函数三种损失函数的相对重要性。
D3、所述对抗网络模型输出通过所述预设损失函数计算的误差,将所述误差作为目标训练值。
在一种可能的实现方式中,将所述误差作为目标训练值,使完整损失函数的值最小时,完成语音转换模型的训练,以得到语音转换模型。
步骤S204,根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。
在一个实施例中,根据所述第二语音特征参量合成所述目标语音数据,包括:
根据所述第二语音特征参量,采用波形拼接及时域基因同步叠加算法,合成无扰动或扰动特征最小的目标语音数据。
在一种可能的实现方式中,根据所述第二语音特征参量合成目标语音数据,例如根据第二语音特征参量,采用波形拼接,运用时域基音同步叠加算法合成含有目标特征参量的语音信号。
进一步的,将合成的语音数据作为语音识别模型的输入,以进行语音识别;具体的,在实际的应用过程中,基于具体的语音识别系统,在使用本申请提出的前端处理方法和不使用的情况下,分别用笑声语音(受情绪干扰的语音)和吱吱声(受语音质量干扰的语音)进行测试。通过单词错误率(WER)和句子错误率(SER)来评估性能。较低的WER和SER值表示较好的性能。如下表1实验测试数据可以看出,用谱特征和非周期分量(即MFB+AP)进行建模比在所提出的前端中仅建模MFB有更好的性能。
表1
表1所示的ASR性能受各个ASR系统使用的语言模型的强度的影响。为了在不受语言模型影响的情况下检验ASR性能,将语音转换为英语字符序列的深度语音模型进行测试,如表2所示,使用和不使用该前端语音转换模型的语言模型的字符错误率(CER)性能。通过1000小时的LibriSpeech数据对语言模型进行训练,没有使用语言模型进行解码。从表2可以看出,通过语音转换模型进行前端处理后的深度语言模型,降低了深度语音模型的字符错误率CER。
表2
另外,通过梅尔滤波器组特征的二维t-SNE投影,用于正常语音、笑声扰动语音,以及通过本实施例基于对抗网络模型CycleGANs的前端处理方法,将笑声扰动语音转换为的正常语音;可以得出正常语音和通过转换得到的语音的滤波器组输出的特征非常相似,并且与笑声语音的滤波器组输出的特征显著不同;因此通过本实施例的语音转换模型能够捕获正常和笑声扰动语音的Mel滤波器组输出的分布,并且可以将笑声扰动的语音转换为等效的正常语音。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
通过本实施例,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。在进行语音识别之前,对原始语音信号进行预处理及特征语音特征参量的转换,通过语音转换可以将原始语音数据中的自然干扰进行滤除,将带有扰动特征的源语音数据的特征参量转换为无干扰的自然语音数据的特征参量,并合成对应的无干扰语音数据,作为语音识别的输入;将带有扰动特征源语音数据的第一语音特征参量以及转换后的语音数据的第二语音特征参量可视化,实现了语音数据的非平行转换,提高了语音识别的鲁棒性和准确性。
对应于上文实施例所述的语音识别的前端处理方法,图5示出了本申请实施例提供的语音识别的前端处理装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图5,该装置包括:
获取单元51,用于获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;
特征提取单元52,用于对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;
数据处理单元53,用于将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;
合成单元54,用于根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。
可选的,所述获取单元包括:
滤波模块,用于对所述原始语音信号进行滤波处理;
采样模块,用于对滤波处理后的语音信号进行周期性采样,获取预设频率的语音采样数据;
处理模块,用于对所述语音采样数据进行加窗及分帧处理,得到所述源语音数据。
可选的,所述特征提取单元还用于通过梅尔滤波器组提取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量;获取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量对应的参量分布。
可选的,所述语音识别的前端处理装置还包括:
样本数据获取单元,用于获取语音样本训练数据集中的随机样本与实际样本,分别提取所述随机样本的随机样本特征参量分布以及实际样本的实际样本特征参量分布;
模型训练单元,用于根据所述随机样本特征参量分布及所述实际样本特征参量分布,对待训练的对抗网络模型进行迭代训练;
误差计算单元,用于根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差;
模型生成单元,用于当误差小于或等于预设误差阈值时,停止训练,得到所述语音转换模型。
可选的,所述模型训练单元包括:
生成器网络,用于将所述随机样本特征参量分布输入至待训练的对抗网络模型的生成器网络,生成与实际样本特征参量分布对应的伪样本特征参量分布;
鉴别器网络,用于通过待训练的对抗网络模型的鉴别器网络,对所述伪样本特征参量分布与所述实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
循环训练模块,用于将所述鉴别结果特征分布再次输入至所述生成器网络,再次生成与实际样本特征参量分布对应的伪样本特征参量分布,通过所述鉴别器网络再次对伪样本特征参量分布与实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
迭代训练模块,用于根据所述随机样本特征参量分布、所述实际样本特征参量分布、所述伪样本特征参量分布及所述鉴别结果特征分布,对所述待训练的对抗网络模型进行循环迭代训练。
可选的,所述误差计算单元包括:
第一计算模块,用于根据第一对抗损失函数和第二对抗损失函数,得出所述对抗网络模型的循环一致性损失函数及身份映射损失函数;其中,所述第一对抗损失函数为计算所述伪样本特征参量分布与所述实际样本特征参量分布的距离的损失函数,所述第二对抗损失函数为计算所述鉴别结果特征分布与所述随机样本特征分布的距离的损失函数;
第二计算模块,用于根据所述循环一致性损失函数及所述身份映射损失函数,得到所述对抗网络模型的所述预设损失函数;
目标训练值计算模块,用于所述对抗网络模型输出通过所述预设损失函数计算的误差,将所述误差作为目标训练值。
可选的,所述合成单元还用于根据所述第二语音特征参量,采用波形拼接及时域基因同步叠加算法,合成无扰动或扰动特征最小的目标语音数据。
通过本实施例,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。在进行语音识别之前,对原始语音信号进行预处理及特征语音特征参量的转换,通过语音转换可以将原始语音数据中的自然干扰进行滤除,将带有扰动特征的源语音数据的特征参量转换为无干扰的自然语音数据的特征参量,并合成对应的无干扰语音数据,作为语音识别的输入;将带有扰动特征源语音数据的第一语音特征参量以及转换后的语音数据的第二语音特征参量可视化,实现了语音数据的非平行转换,提高了语音识别的鲁棒性和准确性。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
图6为本申请一实施例提供的终端设备的结构示意图。如图6所示,该实施例的终端设备6包括:至少一个处理器60(图6中仅示出一个)处理器、存储器61以及存储在所述存储器61中并可在所述至少一个处理器60上运行的计算机程序62,所述处理器60执行所述计算机程序62时实现上述任意各个语音识别的前端处理方法实施例中的步骤。
所述终端设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的举例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),该处理器60还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61在一些实施例中可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61在另一些实施例中也可以是所述终端设备6的外部存储设备,例如所述终端设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种语音识别的前端处理方法,其特征在于,包括:
获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;
对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;
将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;
根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。
2.如权利要求1所述的语音识别的前端处理方法,其特征在于,获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据,包括:
对所述原始语音信号进行滤波处理;
对滤波处理后的语音信号进行周期性采样,获取预设频率的语音采样数据;
对所述语音采样数据进行加窗及分帧处理,得到所述源语音数据。
3.如权利要求1所述的语音识别的前端处理方法,其特征在于,对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,包括:
通过梅尔滤波器组提取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量;
获取所述源语音数据的梅尔频谱特征参量、对数基频特征参量及非周期分量特征参量对应的参量分布。
4.如权利要求1所述的语音识别的前端处理方法,其特征在于,所述语音转换模型的训练步骤,包括:
获取语音样本训练数据集中的随机样本与实际样本,分别提取所述随机样本的随机样本特征参量分布以及实际样本的实际样本特征参量分布;
根据所述随机样本特征参量分布及所述实际样本特征参量分布,对待训练的对抗网络模型进行迭代训练;
根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差;
当误差小于或等于预设误差阈值时,停止训练,得到所述语音转换模型。
5.如权利要求4所述的语音识别的前端处理方法,其特征在于,根据所述随机样本特征参量分布及所述实际样本特征参量分布,对所述待训练的对抗网络进行迭代训练,包括:
将所述随机样本特征参量分布输入至待训练的对抗网络模型的生成器网络,生成与实际样本特征参量分布对应的伪样本特征参量分布;
通过待训练的对抗网络模型的鉴别器网络,对所述伪样本特征参量分布与所述实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
将所述鉴别结果特征分布再次输入至所述生成器网络,再次生成与实际样本特征参量分布对应的伪样本特征参量分布,通过所述鉴别器网络再次对伪样本特征参量分布与实际样本特征参量分布进行鉴别,得到鉴别结果特征分布;
根据所述随机样本特征参量分布、所述实际样本特征参量分布、所述伪样本特征参量分布及所述鉴别结果特征分布,对所述待训练的对抗网络模型进行循环迭代训练。
6.如权利要求5所述的语音识别的前端处理方法,其特征在于,根据预设损失函数,计算所述对抗网络模型在迭代训练过程中输出的误差,包括:
根据第一对抗损失函数和第二对抗损失函数,得出所述对抗网络模型的循环一致性损失函数及身份映射损失函数;其中,所述第一对抗损失函数为计算所述伪样本特征参量分布与所述实际样本特征参量分布的距离的损失函数,所述第二对抗损失函数为计算所述鉴别结果特征分布与所述随机样本特征分布的距离的损失函数;
根据所述循环一致性损失函数及所述身份映射损失函数,得到所述对抗网络模型的所述预设损失函数;
所述对抗网络模型输出通过所述预设损失函数计算的误差,将所述误差作为目标训练值。
7.如权利要求1所述的语音识别的前端处理方法,其特征在于,根据所述第二语音特征参量合成所述目标语音数据,包括:
根据所述第二语音特征参量,采用波形拼接及时域基因同步叠加算法,合成无扰动或扰动特征最小的目标语音数据。
8.一种语音识别的前端处理装置,其特征在于,包括:
获取单元,用于获取原始语音信号,对所述原始语音信号按预设格式进行预处理,得到源语音数据;
特征提取单元,用于对所述源语音数据进行语音特征提取,得到所述源语音数据的第一语音特征参量,所述第一语音特征参量为描述语音音色及韵律的声学特征参量;
数据处理单元,用于将所述第一语音特征参量输入至语音转换模型,经过转换后输出得到第二语音特征参量,所述第二语音特征参量为目标语音数据的特征参量;
合成单元,用于根据所述第二语音特征参量合成所述目标语音数据,将所述目标语音数据作为语音识别模型的输入,以进行语音识别。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010165112.8A CN111445900A (zh) | 2020-03-11 | 2020-03-11 | 一种语音识别的前端处理方法、装置及终端设备 |
PCT/CN2020/135511 WO2021179717A1 (zh) | 2020-03-11 | 2020-12-11 | 一种语音识别的前端处理方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010165112.8A CN111445900A (zh) | 2020-03-11 | 2020-03-11 | 一种语音识别的前端处理方法、装置及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111445900A true CN111445900A (zh) | 2020-07-24 |
Family
ID=71650573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010165112.8A Pending CN111445900A (zh) | 2020-03-11 | 2020-03-11 | 一种语音识别的前端处理方法、装置及终端设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111445900A (zh) |
WO (1) | WO2021179717A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112397057A (zh) * | 2020-12-01 | 2021-02-23 | 平安科技(深圳)有限公司 | 基于生成对抗网络的语音处理方法、装置、设备及介质 |
CN112652318A (zh) * | 2020-12-21 | 2021-04-13 | 北京捷通华声科技股份有限公司 | 音色转换方法、装置及电子设备 |
WO2021179717A1 (zh) * | 2020-03-11 | 2021-09-16 | 平安科技(深圳)有限公司 | 一种语音识别的前端处理方法、装置及终端设备 |
CN113555026A (zh) * | 2021-07-23 | 2021-10-26 | 平安科技(深圳)有限公司 | 语音转换方法、装置、电子设备及介质 |
WO2022141868A1 (zh) * | 2020-12-29 | 2022-07-07 | 平安科技(深圳)有限公司 | 一种提取语音特征的方法、装置、终端及存储介质 |
CN115064177A (zh) * | 2022-06-14 | 2022-09-16 | 中国第一汽车股份有限公司 | 基于声纹编码器的语音转换方法、装置、设备及介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882867B (zh) * | 2022-04-13 | 2024-05-28 | 天津大学 | 基于滤波器组频率区分的深度网络波形合成方法及装置 |
CN114912482A (zh) * | 2022-04-30 | 2022-08-16 | 中国人民解放军海军航空大学 | 辐射源的识别方法及装置 |
CN115620748B (zh) * | 2022-12-06 | 2023-03-28 | 北京远鉴信息技术有限公司 | 一种语音合成与鉴伪评价的综合训练方法及装置 |
CN118522290A (zh) * | 2024-07-19 | 2024-08-20 | 北京远鉴信息技术有限公司 | 一种语音对抗样本生成方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671442A (zh) * | 2019-01-14 | 2019-04-23 | 南京邮电大学 | 基于STARGAN与x向量的多对多说话人转换方法 |
CN110148402A (zh) * | 2019-05-07 | 2019-08-20 | 平安科技(深圳)有限公司 | 语音处理方法、装置、计算机设备及存储介质 |
CN110246488A (zh) * | 2019-06-14 | 2019-09-17 | 苏州思必驰信息科技有限公司 | 半优化CycleGAN模型的语音转换方法及装置 |
CN110459232A (zh) * | 2019-07-24 | 2019-11-15 | 浙江工业大学 | 一种基于循环生成对抗网络的语音转换方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9830903B2 (en) * | 2015-11-10 | 2017-11-28 | Paul Wendell Mason | Method and apparatus for using a vocal sample to customize text to speech applications |
CN106782504B (zh) * | 2016-12-29 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN107346659B (zh) * | 2017-06-05 | 2020-06-23 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别方法、装置及终端 |
CN108962217B (zh) * | 2018-07-28 | 2021-07-16 | 华为技术有限公司 | 语音合成方法及相关设备 |
CN109979436B (zh) * | 2019-04-12 | 2020-11-13 | 南京工程学院 | 一种基于频谱自适应法的bp神经网络语音识别系统及方法 |
CN111445900A (zh) * | 2020-03-11 | 2020-07-24 | 平安科技(深圳)有限公司 | 一种语音识别的前端处理方法、装置及终端设备 |
-
2020
- 2020-03-11 CN CN202010165112.8A patent/CN111445900A/zh active Pending
- 2020-12-11 WO PCT/CN2020/135511 patent/WO2021179717A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671442A (zh) * | 2019-01-14 | 2019-04-23 | 南京邮电大学 | 基于STARGAN与x向量的多对多说话人转换方法 |
CN110148402A (zh) * | 2019-05-07 | 2019-08-20 | 平安科技(深圳)有限公司 | 语音处理方法、装置、计算机设备及存储介质 |
CN110246488A (zh) * | 2019-06-14 | 2019-09-17 | 苏州思必驰信息科技有限公司 | 半优化CycleGAN模型的语音转换方法及装置 |
CN110459232A (zh) * | 2019-07-24 | 2019-11-15 | 浙江工业大学 | 一种基于循环生成对抗网络的语音转换方法 |
Non-Patent Citations (1)
Title |
---|
DUMPALA S.H等: "《A Cycle-GAN approach to model natural perturbations in speech for ASR applications》", 《ARXIV》, 18 December 2019 (2019-12-18), pages 1 - 7 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021179717A1 (zh) * | 2020-03-11 | 2021-09-16 | 平安科技(深圳)有限公司 | 一种语音识别的前端处理方法、装置及终端设备 |
CN112397057A (zh) * | 2020-12-01 | 2021-02-23 | 平安科技(深圳)有限公司 | 基于生成对抗网络的语音处理方法、装置、设备及介质 |
CN112652318A (zh) * | 2020-12-21 | 2021-04-13 | 北京捷通华声科技股份有限公司 | 音色转换方法、装置及电子设备 |
CN112652318B (zh) * | 2020-12-21 | 2024-03-29 | 北京捷通华声科技股份有限公司 | 音色转换方法、装置及电子设备 |
WO2022141868A1 (zh) * | 2020-12-29 | 2022-07-07 | 平安科技(深圳)有限公司 | 一种提取语音特征的方法、装置、终端及存储介质 |
CN113555026A (zh) * | 2021-07-23 | 2021-10-26 | 平安科技(深圳)有限公司 | 语音转换方法、装置、电子设备及介质 |
CN113555026B (zh) * | 2021-07-23 | 2024-04-19 | 平安科技(深圳)有限公司 | 语音转换方法、装置、电子设备及介质 |
CN115064177A (zh) * | 2022-06-14 | 2022-09-16 | 中国第一汽车股份有限公司 | 基于声纹编码器的语音转换方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021179717A1 (zh) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111445900A (zh) | 一种语音识别的前端处理方法、装置及终端设备 | |
CN106486131B (zh) | 一种语音去噪的方法及装置 | |
CN112562691B (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
TW201935464A (zh) | 基於記憶性瓶頸特徵的聲紋識別的方法及裝置 | |
EP3156978A1 (en) | A system and a method for secure speaker verification | |
CN111816218A (zh) | 语音端点检测方法、装置、设备及存储介质 | |
CN108597496A (zh) | 一种基于生成式对抗网络的语音生成方法及装置 | |
CN111028845A (zh) | 多音频识别方法、装置、设备及可读存储介质 | |
CN109036437A (zh) | 口音识别方法、装置、计算机装置及计算机可读存储介质 | |
CN112017633B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN112750446A (zh) | 语音转换方法、装置和系统及存储介质 | |
WO2024055752A9 (zh) | 语音合成模型的训练方法、语音合成方法和相关装置 | |
CN112185342A (zh) | 语音转换与模型训练方法、装置和系统及存储介质 | |
CN112750445A (zh) | 语音转换方法、装置和系统及存储介质 | |
CN113782032B (zh) | 一种声纹识别方法及相关装置 | |
CN113112992B (zh) | 一种语音识别方法、装置、存储介质和服务器 | |
CN112397093A (zh) | 一种语音检测方法与装置 | |
Hasija et al. | Recognition of children Punjabi speech using tonal non-tonal classifier | |
CN113409771B (zh) | 一种伪造音频的检测方法及其检测系统和存储介质 | |
CN117935789A (zh) | 语音识别方法及系统、设备、存储介质 | |
CN110838294B (zh) | 一种语音验证方法、装置、计算机设备及存储介质 | |
CN116665649A (zh) | 基于韵律特征的合成语音检测方法 | |
CN114512133A (zh) | 发声对象识别方法、装置、服务器及存储介质 | |
CN112951256A (zh) | 语音处理方法及装置 | |
CN111341298A (zh) | 一种语音识别算法评分方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40032369 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |