CN107274890A - 声纹谱提取方法及装置 - Google Patents
声纹谱提取方法及装置 Download PDFInfo
- Publication number
- CN107274890A CN107274890A CN201710538107.5A CN201710538107A CN107274890A CN 107274890 A CN107274890 A CN 107274890A CN 201710538107 A CN201710538107 A CN 201710538107A CN 107274890 A CN107274890 A CN 107274890A
- Authority
- CN
- China
- Prior art keywords
- vocal print
- content
- factor
- training
- extraction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001755 vocal effect Effects 0.000 title claims abstract description 195
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000000605 extraction Methods 0.000 claims abstract description 138
- 238000001228 spectrum Methods 0.000 claims abstract description 132
- 238000012549 training Methods 0.000 claims abstract description 94
- 239000000284 extract Substances 0.000 claims abstract description 24
- 238000004590 computer program Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 3
- 230000001052 transient effect Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000004069 differentiation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 241000638935 Senecio crassissimus Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明提供一种声纹谱提取方法及装置,其中,方法包括:获取样本语音信号并转换成log域频谱;基于log域频谱,利用预先训练的声纹因子提取模型提取每一帧样本语音信号的声纹因子,利用预先训练的内容因子提取模型提取每一帧样本语音信号的内容因子;基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;将所述内容谱重构模型丢弃,将目标语音信号输入声纹谱重构模型,获得目标语音信号中的声纹谱。本发明能实现从语音信号中精确的提取声纹谱,进而使后续可以根据所提取的声纹谱清晰观察到说话人特性,以帮助提高司法鉴定及身份识别等领域中声纹验证的准确度。
Description
技术领域
本发明涉及语音信号处理技术领域,尤其涉及一种声纹谱提取方法及装置。
背景技术
声纹是判断语音信号中包含的说话人特征。在司法实践中,声纹是对目标进行验证的有效工具之一,在司法鉴定及身份识别等领域具有重要意义。
传统的声纹比对方法一般通过频谱来实现,即先将声音(即语音信号)转换成频谱,再由鉴定专家通过观察两段声音的频谱来判断这两段声音是否来源于同一个说话人。
但是,这两段声音的频谱中不仅包含说话人信息,也包含说话内容信息,通常说话内容的变动更为显著,这意味着鉴定专家通过频谱看到的大多数信息是和发音变异相关的,与说话人其实没有太大关系。这种信息的混杂使得声纹比对非常困难,验证误差较大。特别是在司法鉴定中,这种高误差率导致声纹验证无法列为重要的呈堂证供。为了能够实现精准的声纹验证,声纹谱的提取(即在语音频谱中滤除说话内容信息,只保留说话人信息)具有重要的作用。
鉴于此,如何从语音信号中提取声纹谱成为目前需要解决的技术问题。
发明内容
为解决上述的技术问题,本发明实施例提供一种声纹谱提取方法及装置,能够实现从语音信号中精确的提取声纹谱。
第一方面,本发明实施例提供一种声纹谱提取方法,包括:
获取样本语音信号,将所述样本语音信号转换成log域频谱;
基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;
基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;
将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
可选地,所述将所述样本语音信号转换成log域频谱,包括:
将所述样本语音信号进行傅立叶变换,获得所述样本语音信号的log域频谱。
可选地,在基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子之前,所述方法还包括:
对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,以及对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
可选地,所述对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,包括:
基于Fisher准则,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化;
相应地,所述对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化,包括:
基于Fisher准则,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
可选地,所述对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,包括:
基于交叉熵,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化;
相应地,所述对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化,包括:
基于交叉熵,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
可选地,所述声纹因子提取模型、所述内容因子提取模型、所述声纹谱重构模型和所述内容谱重构模型均是基于深度神经网络来实现的。
第二方面,本发明实施例提供一种声纹谱提取装置,包括:
转换模块,用于获取样本语音信号,将所述样本语音信号转换成log域频谱;
第一提取模块,用于基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;
第一训练模块,用于基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;
第二提取模块,用于将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
可选地,所述装置还包括:
第二训练模块,用于对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,以及对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
第三方面,本发明实施例提供一种电子设备,包括:处理器、存储器、总线及存储在存储器上并可在处理器上运行的计算机程序;
其中,所述处理器,存储器通过所述总线完成相互间的通信;
所述处理器执行所述计算机程序时实现上述方法。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,所述存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述方法。
由上述技术方案可知,本发明实施例的声纹谱提取方法及装置,通过获取样本语音信号,将所述样本语音信号转换成log域频谱,基于所述log域频谱,利用预先训练的声纹因子提取模型提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型提取每一帧样本语音信号的内容因子,基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型,将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱,由此,能够实现从语音信号中精确的提取声纹谱,进而使后续可以根据所提取的声纹谱清晰观察到说话人特性,以帮助提高司法鉴定及身份识别等领域中声纹验证的准确度。
附图说明
图1为本发明一实施例提供的一种声纹谱提取方法的流程示意图;
图2为本发明一实施例提供的一种声纹谱提取装置的结构示意图;
图3为本发明实施例提供的一种电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他的实施例,都属于本发明保护的范围。
图1示出了本发明一实施例提供的声纹谱提取方法的流程示意图,如图1所示,本实施例的声纹谱提取方法如下所述。
101、获取样本语音信号,将所述样本语音信号X(t)转换成log域频谱log(X(t))。
在具体应用中,举例来说,所述步骤101可以将所述样本语音信号X(t)进行傅立叶变换,获得所述样本语音信号的log域频谱log(X(t))。
102、基于所述log域频谱log(X(t)),利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子s(t),以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子v(t)。
可以理解的是,本实施例中,每一帧样本语音信号包含两类因子:内容因子v(t)和声纹因子s(t)(即说话人因子)。其中,内容因子v(t)和说话内容相关,声纹因子s(t)和说话人特征相关。
在具体应用中,所述声纹因子提取模型可用函数g来表示,所述步骤102可通过声纹因子提取模型,提取每一帧样本语音信号的声纹因子s(t),所述声纹因子提取模型为:
s(t)=g(log(X(t))) (1)。
在具体应用中,所述内容因子提取模型可用函数f来表示,所述步骤102可通过内容因子提取模型,提取每一帧样本语音信号的内容因子v(t),所述内容因子提取模型为:
v(t)=f(log(X(t))) (2)。
在具体应用中,在所述步骤102之前,还可以包括:
对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,以及对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
可以理解的是,所述声纹因子提取模型是基于深度神经网络和使声纹因子提取模型对说话人的区分能力最大化准则来训练实现的,使声纹因子提取模型对说话人的区分能力最大化准则可以有多种,举例来说,可以基于Fisher准则,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化;
或者,也可以基于交叉熵,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,即声纹因子提取模型g采用说话人作为区分学习对象,用模型预结果和实际说话人标记的交叉熵作为训练的目标函数。
可以理解的是,所述内容因子提取模型是基于深度神经网络和使内容因子提取模型对音素的区分能力最大化准则来训练实现的,使内容因子提取模型对音素的区分能力最大化准则可以有多种,举例来说,可以基于Fisher准则,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化;
或者,也可以基于交叉熵,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化,即内容因子提取模型f可采用音素作为区分学习的对象,用模型预结果和实际音素标记的交叉熵作为训练的目标函数。
103、基于所提取的内容因子v(t)和声纹因子s(t),训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子s(t)重构成声纹谱S(t)的声纹谱重构模型。
可以理解的是,所述声纹谱重构模型可用函数G来表示,所述声纹谱重构模型是基于深度神经网络来训练实现的,所述声纹谱重构模型为:
S(t)=G(s(t))=G(g(log(X(t)))) (3)。
可以理解的是,所述内容谱重构模型可用函数F来表示,所述内容谱重构模型是基于深度神经网络来训练实现的,所述内容谱重构模型为:
V(t)=F(v(t))=F(f(log(X(t)))) (4)。
需要说明的是,所述步骤103训练时的目标是使重构后的log域频谱与重构前的原log域频谱尽可能相近,在训练时可以通过对下述公式(5)进行优化,进而得到优化的F和G;
L(F,G)=∑tD(V(t)+S(t),log(X(t))) (5)
式中:D为距离度量函数,L为训练目标函数。
在具体应用中,D对距离的度量可以采用平方误差。
104、将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
可以理解的是,所述步骤104是将所述内容谱重构模型丢弃后用X(t)作为目标语音信号,代入上述公式(3),得到所述目标语音信号中的声纹谱S(t)。
本实施例的声纹谱提取方法,通过获取样本语音信号,将所述样本语音信号转换成log域频谱,基于所述log域频谱,利用预先训练的声纹因子提取模型提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型提取每一帧样本语音信号的内容因子,基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型,将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱,由此,能够实现从语音信号中精确的提取声纹谱,进而使后续可以根据所提取的声纹谱清晰观察到说话人特性,以帮助提高司法鉴定及身份识别等领域中声纹验证的准确度。
图2示出了本发明一实施例提供的一种声纹谱提取装置的结构示意图,如图2所示,本实施例的声纹谱提取装置,包括:转换模块21、第一提取模块22、第一训练模块23和第二提取模块24;其中:
转换模块21,用于获取样本语音信号,将所述样本语音信号转换成log域频谱;
第一提取模块22,用于基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;
第一训练模块23,用于基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;
第二提取模块24,用于将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
在具体应用中,举例来说,所述转换模块21可以将所述样本语音信号X(t)进行傅立叶变换,获得所述样本语音信号的log域频谱log(X(t))。
在具体应用中,所述声纹因子提取模型可用函数g来表示,所述第一提取模块22可通过声纹因子提取模型,提取每一帧样本语音信号的声纹因子s(t),所述声纹因子提取模型为:
s(t)=g(log(X(t))) (1)。
在具体应用中,所述内容因子提取模型可用函数f来表示,所述第一提取模块22可通过内容因子提取模型,提取每一帧样本语音信号的内容因子v(t),所述内容因子提取模型为:
v(t)=f(log(X(t))) (2)。
在具体应用中,本实施例所述装置还可以包括图中未示出的:
第二训练模块,用于对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,以及对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
可以理解的是,所述声纹因子提取模型是基于深度神经网络和使声纹因子提取模型对说话人的区分能力最大化准则来训练实现的,其中,使声纹因子提取模型对说话人的区分能力最大化准则可以有多种,举例来说,所述第二训练模块可以基于Fisher准则,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化;
或者,所述第二训练模块也可以基于交叉熵,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,即声纹因子提取模型g采用说话人作为区分学习对象,用模型预结果和实际说话人标记的交叉熵作为训练的目标函数。
可以理解的是,所述内容因子提取模型是基于深度神经网络和使内容因子提取模型对音素的区分能力最大化准则来训练实现的,使内容因子提取模型对音素的区分能力最大化准则可以有多种,举例来说,所述第二训练模块可以基于Fisher准则,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化;
或者,所述第二训练模块也可以基于交叉熵,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化,即内容因子提取模型f可采用音素作为区分学习的对象,用模型预结果和实际音素标记的交叉熵作为训练的目标函数。
可以理解的是,本实施例所述声纹谱重构模型可用函数G来表示,所述声纹谱重构模型是基于深度神经网络来训练实现的,所述声纹谱重构模型为:
S(t)=G(s(t))=G(g(log(X(t)))) (3)。
可以理解的是,所述内容谱重构模型可用函数F来表示,所述内容谱重构模型是基于深度神经网络来训练实现的,所述内容谱重构模型为:
V(t)=F(v(t))=F(f(log(X(t)))) (4)。
需要说明的是,所述第一训练模块22训练时的目标是使重构后的log域频谱与重构前的原log域频谱尽可能相近,在训练时可以通过对下述公式(5)进行优化,进而得到优化的F和G;
L(F,G)=∑tD(V(t)+S(t),log(X(t))) (5)
式中:D为距离度量函数,L为训练目标函数。
在具体应用中,D对距离的度量可以采用平方误差。
可以理解的是,所述第二提取模块24是将所述内容谱重构模型丢弃后用X(t)作为目标语音信号,代入上述公式(2),得到所述目标语音信号中的声纹谱S(t)。
本实施例的声纹谱提取装置,通过转换模块获取样本语音信号,将所述样本语音信号转换成log域频谱,第一提取模块基于所述log域频谱,利用预先训练的声纹因子提取模型提取每一帧样本语音信号的声纹因子,利用预先训练的内容因子提取模型提取每一帧样本语音信号的内容因子,第一训练模块基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型,第二提取模块将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱,由此,能够实现从语音信号中精确的提取声纹谱,进而使后续可以根据所提取的声纹谱清晰观察到说话人特性,以帮助提高司法鉴定及身份识别等领域中声纹验证的准确度。
本实施例的声纹谱提取装置,可以用于执行前述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图3示出了本发明实施例提供的一种电子设备的实体结构示意图,如图3所示,该电子设备可以包括:处理器11、存储器12、总线13及存储在存储器12上并可在处理器11上运行的计算机程序;
其中,所述处理器11,存储器12通过所述总线13完成相互间的通信;
所述处理器11执行所述计算机程序时实现上述各方法实施例所提供的方法,例如包括:获取样本语音信号,将所述样本语音信号转换成log域频谱;基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例所提供的方法,例如包括:获取样本语音信号,将所述样本语音信号转换成log域频谱;基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
本领域内的技术人员应明白,本申请的实施例可提供为方法、装置、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、装置、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置/系统。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
本发明的说明书中,说明了大量具体细节。然而能够理解的是,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。类似地,应当理解,为了精简本发明公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释呈反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。本发明并不局限于任何单一的方面,也不局限于任何单一的实施例,也不局限于这些方面和/或实施例的任意组合和/或置换。而且,可以单独使用本发明的每个方面和/或实施例或者与一个或更多其他方面和/或其实施例结合使用。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (10)
1.一种声纹谱提取方法,其特征在于,包括:
获取样本语音信号,将所述样本语音信号转换成log域频谱;
基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;
基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;
将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
2.根据权利要求1所述的方法,其特征在于,所述将所述样本语音信号转换成log域频谱,包括:
将所述样本语音信号进行傅立叶变换,获得所述样本语音信号的log域频谱。
3.根据权利要求1所述的方法,其特征在于,在基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子之前,所述方法还包括:
对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,以及对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
4.根据权利要求3所述的方法,其特征在于,所述对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,包括:
基于Fisher准则,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化;
相应地,所述对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化,包括:
基于Fisher准则,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
5.根据权利要求3所述的方法,其特征在于,所述对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,包括:
基于交叉熵,对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化;
相应地,所述对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化,包括:
基于交叉熵,对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
6.根据权利要求3所述的方法,其特征在于,所述声纹因子提取模型、所述内容因子提取模型、所述声纹谱重构模型和所述内容谱重构模型均是基于深度神经网络来实现的。
7.一种声纹谱提取装置,其特征在于,包括:
转换模块,用于获取样本语音信号,将所述样本语音信号转换成log域频谱;
第一提取模块,用于基于所述log域频谱,利用预先训练的声纹因子提取模型,提取每一帧样本语音信号的声纹因子,以及利用预先训练的内容因子提取模型,提取每一帧样本语音信号的内容因子;
第一训练模块,用于基于所提取的内容因子和声纹因子,训练得到用于将内容因子重构成内容谱的内容谱重构模型和用于将声纹因子重构成声纹谱的声纹谱重构模型;
第二提取模块,用于将所述内容谱重构模型丢弃,将目标语音信号输入所述声纹谱重构模型,获得所述目标语音信号中的声纹谱。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第二训练模块,用于对声纹因子提取模型进行预先训练,以使所述声纹因子提取模型对说话人的区分能力最大化,以及对内容因子提取模型进行预先训练,以使所述内容因子提取模型对音素的区分能力最大化。
9.一种电子设备,其特征在于,包括:处理器、存储器、总线及存储在存储器上并可在处理器上运行的计算机程序;
其中,所述处理器,存储器通过所述总线完成相互间的通信;
所述处理器执行所述计算机程序时实现如权利要求1-6中任一项所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,该计算机程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710538107.5A CN107274890B (zh) | 2017-07-04 | 2017-07-04 | 声纹谱提取方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710538107.5A CN107274890B (zh) | 2017-07-04 | 2017-07-04 | 声纹谱提取方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107274890A true CN107274890A (zh) | 2017-10-20 |
CN107274890B CN107274890B (zh) | 2020-06-02 |
Family
ID=60071367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710538107.5A Expired - Fee Related CN107274890B (zh) | 2017-07-04 | 2017-07-04 | 声纹谱提取方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107274890B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109285559A (zh) * | 2018-09-14 | 2019-01-29 | 北京京东金融科技控股有限公司 | 角色转换点检测方法及装置、存储介质、电子设备 |
CN109326294A (zh) * | 2018-09-28 | 2019-02-12 | 杭州电子科技大学 | 一种文本相关的声纹密钥生成方法 |
CN111081255A (zh) * | 2019-12-31 | 2020-04-28 | 苏州思必驰信息科技有限公司 | 说话人确认方法和装置 |
CN111883106A (zh) * | 2020-07-27 | 2020-11-03 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法及装置 |
CN113421573A (zh) * | 2021-06-18 | 2021-09-21 | 马上消费金融股份有限公司 | 身份识别模型训练方法、身份识别方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08257216A (ja) * | 1995-03-24 | 1996-10-08 | Ace Denken:Kk | セキュリティ管理装置 |
CN101727905A (zh) * | 2009-11-27 | 2010-06-09 | 江南大学 | 一种得到具有精细时频结构的声纹图的方法 |
CN102194455A (zh) * | 2010-03-17 | 2011-09-21 | 博石金(北京)信息技术有限公司 | 一种与说话内容无关的声纹鉴别认证方法 |
CN104616655A (zh) * | 2015-02-05 | 2015-05-13 | 清华大学 | 声纹模型自动重建的方法和装置 |
CN106898355A (zh) * | 2017-01-17 | 2017-06-27 | 清华大学 | 一种基于二次建模的说话人识别方法 |
-
2017
- 2017-07-04 CN CN201710538107.5A patent/CN107274890B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08257216A (ja) * | 1995-03-24 | 1996-10-08 | Ace Denken:Kk | セキュリティ管理装置 |
CN101727905A (zh) * | 2009-11-27 | 2010-06-09 | 江南大学 | 一种得到具有精细时频结构的声纹图的方法 |
CN102194455A (zh) * | 2010-03-17 | 2011-09-21 | 博石金(北京)信息技术有限公司 | 一种与说话内容无关的声纹鉴别认证方法 |
CN104616655A (zh) * | 2015-02-05 | 2015-05-13 | 清华大学 | 声纹模型自动重建的方法和装置 |
CN106898355A (zh) * | 2017-01-17 | 2017-06-27 | 清华大学 | 一种基于二次建模的说话人识别方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109285559A (zh) * | 2018-09-14 | 2019-01-29 | 北京京东金融科技控股有限公司 | 角色转换点检测方法及装置、存储介质、电子设备 |
CN109326294A (zh) * | 2018-09-28 | 2019-02-12 | 杭州电子科技大学 | 一种文本相关的声纹密钥生成方法 |
CN109326294B (zh) * | 2018-09-28 | 2022-09-20 | 杭州电子科技大学 | 一种文本相关的声纹密钥生成方法 |
CN111081255A (zh) * | 2019-12-31 | 2020-04-28 | 苏州思必驰信息科技有限公司 | 说话人确认方法和装置 |
CN111883106A (zh) * | 2020-07-27 | 2020-11-03 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法及装置 |
CN111883106B (zh) * | 2020-07-27 | 2024-04-19 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法及装置 |
CN113421573A (zh) * | 2021-06-18 | 2021-09-21 | 马上消费金融股份有限公司 | 身份识别模型训练方法、身份识别方法及装置 |
CN113421573B (zh) * | 2021-06-18 | 2024-03-19 | 马上消费金融股份有限公司 | 身份识别模型训练方法、身份识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107274890B (zh) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274890A (zh) | 声纹谱提取方法及装置 | |
CN104036774B (zh) | 藏语方言识别方法及系统 | |
CN105374356B (zh) | 语音识别方法、语音评分方法、语音识别系统及语音评分系统 | |
CN107492382A (zh) | 基于神经网络的声纹信息提取方法及装置 | |
CN107610707A (zh) | 一种声纹识别方法及装置 | |
CN106098068A (zh) | 一种声纹识别方法和装置 | |
CN107680582A (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
CN106228980A (zh) | 数据处理方法和装置 | |
CN105933323B (zh) | 声纹注册、认证方法及装置 | |
CN108711421A (zh) | 一种语音识别声学模型建立方法及装置和电子设备 | |
CN104903954A (zh) | 使用基于人工神经网络的亚语音单位区分的说话人验证及识别 | |
CN106683677A (zh) | 语音识别方法及装置 | |
CN110222841A (zh) | 基于间距损失函数的神经网络训练方法和装置 | |
Jung et al. | Short utterance compensation in speaker verification via cosine-based teacher-student learning of speaker embeddings | |
CN109036467A (zh) | 基于tf-lstm的cffd提取方法、语音情感识别方法及系统 | |
CN109545228A (zh) | 一种端到端说话人分割方法及系统 | |
Nahid et al. | Bengali speech recognition: A double layered LSTM-RNN approach | |
CN110232932A (zh) | 基于残差时延网络的说话人确认方法、装置、设备及介质 | |
CN110491393A (zh) | 声纹表征模型的训练方法及相关装置 | |
CN103456302B (zh) | 一种基于情感gmm模型权重合成的情感说话人识别方法 | |
CN106782603A (zh) | 智能语音评测方法及系统 | |
CN108648766A (zh) | 语音评测方法及系统 | |
CN111128211B (zh) | 一种语音分离方法及装置 | |
CN110265035A (zh) | 一种基于深度学习的说话人识别方法 | |
Abro et al. | Qur'an recognition for the purpose of memorisation using Speech Recognition technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200602 |