CN108564956B - 一种声纹识别方法和装置、服务器、存储介质 - Google Patents
一种声纹识别方法和装置、服务器、存储介质 Download PDFInfo
- Publication number
- CN108564956B CN108564956B CN201810253151.6A CN201810253151A CN108564956B CN 108564956 B CN108564956 B CN 108564956B CN 201810253151 A CN201810253151 A CN 201810253151A CN 108564956 B CN108564956 B CN 108564956B
- Authority
- CN
- China
- Prior art keywords
- voiceprint
- voice
- voice signal
- frequency
- pass filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000000605 extraction Methods 0.000 claims abstract description 43
- 230000004044 response Effects 0.000 claims abstract description 36
- 238000001228 spectrum Methods 0.000 claims description 68
- 238000001914 filtration Methods 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000737 periodic effect Effects 0.000 claims description 5
- 230000008030 elimination Effects 0.000 claims description 4
- 238000003379 elimination reaction Methods 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 17
- 238000005070 sampling Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000009432 framing Methods 0.000 description 5
- 210000003477 cochlea Anatomy 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 239000004576 sand Substances 0.000 description 3
- 206010002953 Aphonia Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000408659 Darpa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例公开了一种声纹识别方法和装置、服务器、存储介质,其中,该方法包括:采集待识别的语音信号;根据至少一个改进的伽马通滤波器,对语音信号进行分频段的声纹特征提取;基于提取的声纹特征,确认语音信号的识别结果。本发明实施例可以解决现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题,可以提高滤波器对语音高频部分的分辨率,提高声纹特征提取的准确性,进而提高对语音的高频部分的识别效果,并且可以降低声纹识别涉及的运算复杂度以及响应时间。
Description
技术领域
本发明实施例涉及声音识别技术领域,尤其涉及一种声纹识别方法和装置、服务器、存储介质。
背景技术
随着用户的安全防范意识不断增加,越来越多的识别方式考虑以用户生理特征作为身份识别特征。声纹识别是一项重要且方便的识别方式。声纹识别涉及的语音特征的常用表征包括线性预测倒谱系数(Linear prediction cestrum coefficient,LPCC)、梅尔频率倒谱系数(Mel frequency cestrum coefficient,MFCC)和耳蜗频率倒谱系数(Gammatone frequency cestrum coefficient,GFCC)。
LPCC特征提取主要基于线性预测原理,认为语音采样点可由过去一段时间的语音采样线性组合来预测,可以表征一定的语音相关信息。考虑到人耳听到的声音与频率并不是线性的关系,基于LPCC特征提取的声纹识别效果往往较差。MFCC特征提取主要基于梅尔刻度,其设计模仿人的听觉,利用了人的听觉对频率的非线性感应,人耳听觉系统比任何自动识别系统更具有可靠性与便捷性,因此,MFCC特征提取是目前主流的声纹特征提取方法,该方法具有一定噪声鲁棒性。MFCC特征提取主要描述声道特征,其中蕴含的语义信息往往要强于说话人信息,在无噪声或低噪声下能作为较好的特征表达,其性能优于LPCC特征提取。然而,对于背景噪声较大,信道失真严重的语音,基于MFCC特征提取的声纹识别的抗噪能力还不够好,影响识别效果。GFCC特征提取模拟了人耳耳蜗听觉模型,利用了人耳对噪声的抗噪能力,在声纹识别方面具有较为不错的表现,鲁棒性更加优异。
但是,通过观察伽马通(Gammatone)滤波器组的频率响应发现,滤波器组在高频部分频率分辨率较低,即基于GFCC特征提取的声纹识别没有完全利用语音的高频部分所含的语音信息,导致语音识别效果较差。
发明内容
本发明实施例提供一种声纹识别方法和装置、服务器、存储介质,以解决现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题。
第一方面,本发明实施例提供了一种声纹识别方法,该方法包括:
采集待识别的语音信号;
根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取;
基于提取的声纹特征,确认所述语音信号的识别结果。
第二方面,本发明实施例还提供了一种声纹识别装置,该装置包括:
声纹采集模块,用于采集待识别的语音信号;
声纹特征提取模块,用于根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取;
声纹识别模块,用于基于提取的声纹特征,确认所述语音信号的识别结果。
第三方面,本发明实施例还提供了一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的声纹识别方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的声纹识别方法。
本发明实施例通过根据至少一个改进的伽马通滤波器,对采集的待识别语音信号进行分频段的声纹特征提取,基于提取的声纹特征,确认语音信号的识别结果,解决了现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题,提高了滤波器对语音高频部分的分辨率,提高了声纹特征提取的准确性,进而提高了对语音的高频部分的识别准确性,并且降低了声纹识别涉及的运算复杂度以及响应时间。
附图说明
图1是本发明实施例一提供的声纹识别方法的流程图;
图2是本发明实施例二提供的声纹识别方法的流程图;
图3是本发明实施例三提供的声纹识别方法的流程图;
图4是本发明实施例四提供的声纹识别装置的结构示意图;
图5是本发明实施例五提供的一种服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一提供的声纹识别方法的流程图,本实施例可适用于进行声纹识别的情况,该方法可以由声纹识别装置来执行,该装置可以采用软件和/或硬件的方式实现,并可集成在服务器上。如图1所示,该方法具体包括:
S110、采集待识别的语音信号。
可以利用麦克风等具有声音采集功能的装置采集待识别的语音信号,并将其存储在任意的具有存储功能的装置中,以等待识别,也可以将采集的语音信号直接输出到进行声纹识别的装置中进行下一步处理。语音信号在采集过程中会进行相应的采样和量化处理,例如,用麦克风采集之后的语音信号便是已经过采样和量化处理的信号。
S120、根据至少一个改进的伽马通滤波器,对语音信号进行分频段的声纹特征提取。
每一段语音信号均对应一定的能量谱,其高频部分和低频部分的频谱响应具有不同特点。伽马通滤波器的原理基于对人耳耳蜗的模拟,而人耳对于高频部分并不敏感,因此,标准的伽马通滤波器对于语音高频部分的分辨率并不高,滤波效果不够明显,导致语音的高频信息丢失。利用改进的伽马通滤波器对语音信号分别进行高频和低频的声纹特征提取,相当于对语音高频部分和低频部分进行差异化滤波,这相比于标准的伽马通滤波器的滤波效果,可以避免语音高频信息的丢失,保证声纹特征提取结果的准确性,为准确的声纹识别奠定基础。其中,涉及的改进伽马通滤波器的具体数量,可以根据声纹特征提取需求进行设置。
可选的,根据至少一个改进的伽马通滤波器,对语音信号进行分频段的声纹特征提取,包括:
根据至少一个改进的伽马通滤波器,利用以下公式得到的滤波器的频率响应对语音信号的能量谱进行滤波,得到语音信号的滤波能量谱,
根据滤波能量谱得到语音信号的声纹特征。
其中,k的取值范围0~NFFT,采样点数NFFT的取值与采样信号的采样频率fs取值存在对应关系,将采样点数NFFT进行四等分即将采样频谱fs进行四等分。示例性的,采样点区间(0,NFFT/4)对应频率区间(0,fs/4)。由于能量频谱的轴对称特性,频率区间(0,fs/4)与(3fs/4,fs)对应低频的语音信号的频率响应,频率区间(fs/4,fs/2)与(fs/2,3fs/4)对应高频的语音信号的频率响应。
由以上公式可以看出,改进后的伽马通滤波器相当于混合滤波器,由标准的伽马通滤波器关于奈奎斯特频率的一半翻转得到。低频语音信号的滤波能量谱依然是标准的伽马通滤波器的频率响应,即充分利用了标准的伽马通滤波器对低频部分的高分辨率优势;而高频语音信号的滤波能量谱是在标准的伽马通滤波器的基础上进行变换得到,改进后得到的滤波频谱更加密集,即改进后的伽马通滤波器对应的高频滤波效果具有明显的提高,对语音高频部分的敏感度以及分辨率更高,声纹特征提取的准确性更高。示例性的,对于采样频率为16k的一段语音进行识别,滤波器通道数设置为8,改进后的伽马通滤波器的频率响应在4000~8000Hz的高频段的频谱明显要密集很多,而标准的伽马通滤波器在该频段的频率则相对稀疏,所以改进后的伽马通滤波器对语音高频部分的频率分辨率得到有效提高。
换言之,对于达到相同的滤波效果,改进后的伽马通滤波器组所需要的通道数要少于标准的伽马通滤波器组所需的通道数,降低了声纹识别涉及的运算复杂度以及响应时间。示例性的,对一段语音进行识别,要达到较好的识别效果,标准的伽马通滤波器组所需的通道数为16,而对于改进后的伽马通滤波器组所需要的通道数设置为8即可。
S130、基于提取的声纹特征,确认语音信号的识别结果。
基于得到的声纹特征,通过在云数据库或者本地语音数据库中进行特征的识别与匹配,便可以确认识别结果。
在上述技术方案的基础上,可选的,根据滤波能量谱得到语音信号的声纹特征包括:
对滤波能量谱取对数,得到对数频谱;
对得到的对数频谱做离散余弦变换(Discrete Cosine Transform,DCT),得到混合耳蜗频率倒谱系数(Mix Gammatone frequency cestrum coefficient,Mix GFCC);
利用语音信号的平均短时对数能量替换混合耳蜗频率倒谱系数中的零阶系数,得到语音信号的声纹特征。
其中,经过离散余弦变换处理,可以去除各个滤波器之间输出的相关性,去除一些不相关的量,保留关键的频谱特征信息。混合耳蜗频率倒谱系数中的零阶系数代表语音信号中的直流分量,对应的是语音信号中声音大与小的能量,直流分量的存在会影响声纹识别的准确性,因此需要将其舍去,同时考虑到语音信号的短时能量带有一定的语音信息,用其代替语音信号的直流分量,构成新的特征,避免了语音信息的丢失。零阶系数替换之后得到的混合耳蜗频率倒谱系数即可用来准确地表征待识别的语音信号的声纹特征。
本实施例的技术方案通过根据至少一个改进的伽马通滤波器,对采集的待识别语音信号进行分频段的差异化声纹特征提取,然后基于提取的声纹特征,确认语音信号的识别结果,解决了现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题,提高了滤波器对语音高频部分的分辨率,提高了声纹特征提取的准确性,进而提高了对语音的高频部分的识别准确性,并且降低了声纹识别涉及的运算复杂度以及响应时间。此外,利用语音信号的平均短时对数能量替换语音信号中的直流分量,避免了语音信息的丢失,保证了语音识别结果的准确。
实施例二
图2是本发明实施例二提供的声纹识别方法的流程图,本实施例是在上述实施例的基础上进一步进行优化。如图2所示,该方法包括:
S210、采集待识别的语音信号。
S220、采用改进的自扰动最小二乘法对语音信号进行自适应地语音加强。
在采集待识别的语音信号之后,采用改进的自扰动最小二乘法(Improved Self-perturbing Recursive Least Squares,ISPRLS)对语音信号进行自适应地语音加强,可以同时达到语音加强和有效消除语音信号背景噪声的目的,提高语音信号的信噪比,为后续准确地提取声纹特征奠定基础。
S230、对语音加强处理后的语音信号进行快速傅里叶变换,并进行归一化处理。
经过快速傅里叶变换,可以将语音信号由时域空间信号转换为频域空间信号,得到的频谱具有周期性和对称性的特点,这在信号的分析处理过程中是非常有用的。
S240、对归一化处理之后得到的频谱取平方,得到语音信号的能量谱,以便进行声纹特征提取。
S250、根据至少一个改进的伽马通滤波器,基于语音信号的能量谱,对语音信号进行分频段的声纹特征提取。
S260、基于提取的声纹特征,确认语音信号的识别结果。
可选的,基于提取的声纹特征,确认语音信号的识别结果,包括:
基于提取的声纹特征,利用预先训练好的隐马尔可夫模型(Hidden MarkovModel,HMM),得到语音信号的识别结果,其中,隐马尔可夫模型是基于训练语音的声纹特征,利用BaumWelch算法训练得到,训练语音的声纹特征是根据至少一个改进的伽马通滤波器,进行分频段的声纹特征提取后得到。
训练语音可以是从云数据库或者本地语音数据库中抽取的语音信号,也可以是定期采集的训练人员的语音信号。根据上述基于改进的伽马通滤波器的声纹提取方法,提取出训练语音的声纹特征,然后进行语音识别模型的训练。从识别模型的训练到语音信号的识别,所使用的语音特征,均是利用基于改进的伽马通滤波器提取的声纹特征,保证了整个声纹识别过程的方法一致性,减少了声纹识别的误差。此外,语音识别模型并不限于隐马尔可夫模型,隐马尔可夫模型是众多模型中比较简单且易实现的一种统计模型,有利于降低语音识别过程的复杂度,可以简化识别过程但并不影响识别结果。
进一步的,语音信号的识别结果包括语音信号的说话人信息。
确定出说话人信息即确定出该语音信号对应的说话人。具体的,利用预先训练好的隐马尔可夫模型进行语音识别,所涉及的算法是维特比(Viterbi)算法,在云数据库或者本地语音数据库中进行特征的识别与匹配,得到的概率最大的说话人对应于语音信号的说话人,即待识别的语音是该说话人发出的语音。需要说明的是,训练模型之前,需要首先采集训练语音,同时记录每一段训练语音的说话人信息,判别确定语音信号说话人的过程,也是在已记录的说话人中进行判别,即待识别语音的说话人可能是已采集的训练语音对应的说话人之一。如果根据维特比算法得出的待识别的语音属于训练模型的语音库的某个说话人的概率最大值,低于预设阈值,则表示待识别的语音不属于训练模型的语音库里的所有说话人,其中预设阈值可以根据识别需求进行适应性设置。此外,语音信号的具体语义信息可以通过基于改进的伽马通滤波器提取的训练语音中的声韵母、音素和音节等语音识别基元的语音特征预先训练好的隐马尔可夫模型对语音信号进行识别得到。
示例性的,为了进一步验证改进的伽马通滤波器的有效性,将基于混合耳蜗频率倒谱系数(Mix GFCC)和传统的基于梅尔频率倒谱系数(MFCC)与标准耳蜗频率倒谱系数(GFCC)的声纹识别结果进行对比。选取由德州仪器(TI)、麻省理工学院(MIT)和坦福研究院(SRI)合作构建的声学-音素连续语音语料库(The DARPA TIMIT Acoustic-PhoneticContinuous Speech Corpus,TIMIT)中10个人进行测试,其中每个人10段语音,每段语音4s~10s,语音格式为16kHz采样率,16比特(bit)的量化位数,wav格式,分别从音素紧凑句子(Phonetically compact sentences,SX)、方言句子(Dialect sentences,SA)和音素发散句子(Phonetically diverse sentences,SI)中选一段作为待识别的语音信号,另外的7段用于语音识别模型的预先训练,最后统计识别的准确率。识别模型采用为经典的高斯混合模型(Gaussian mixture model,GMM)-隐马尔可夫模型(HMM),高斯混合数设置为64,隐马尔可夫模型状态数设置为6。结果表明,基于标准耳蜗频率倒谱系数的识别准确率为82.7%,要优于基于梅尔频率倒谱系数的识别准确率75.5%,基于混合耳蜗频率倒谱系数的识别准确率为85.8%,又高于标准耳蜗频率倒谱系数的识别准确率,这表明本实施例改进的伽马通滤波器有效地提高了声纹识别的识别准确率。
本实施例的技术方案通过对采集的待识别语音信号进行自适应地语音加强,提高语音信号的信噪比,然后得到语音信号的能量谱,根据至少一个改进的伽马通滤波器,进行分频段的声纹特征提取,最后基于提取的声纹特征,确认语音信号的识别结果,解决了现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题,提高了滤波器对语音高频部分的分辨率,提高了对语音的高频部分的识别准确率,并且降低了声纹识别涉及的运算复杂度。此外,利用基于改进的伽马通滤波器提取的声韵母、音速和音节等语音基元的语音特征预先训练好的隐马尔可夫模型进行语音识别,可以得到较好的语音识别效果。
实施例三
图3是本发明实施例三提供的声纹识别方法的流程图,本实施例是在上述实施例的基础上进一步进行优化。如图3所示,该方法包括:
S310、采集待识别的语音信号,并进行包括预加重、分帧、加窗、端点检测和自适应语音加强的预处理。
采集的语音信号是原始语音信号,对原始语音信号预加重处理,提升其高频部分以使得整个频谱平坦,再进行语音分帧使得可以进行短时平稳处理,接着加汉明窗避免遗漏帧与帧之间的信息,然后进行端点检测,减少需要处理的数据量,最后通过自适应滤波进行背景噪声消除同时实现语音加强。
其中,对采集的语音信号进行预处理的过程具体如下:
(1)使用一阶高通滤波器滤波对原始语音信号进行预加重处理,传递函数为:
H(z)=1-μz-1,
式中,μ为预加重系数,是介于0.95~0.97之间的常数,可选的,μ取值为0.97。
(2)对预加重处理过的信号进行分帧,得到语音帧。可选的,按帧长512点、帧移为256点(对应16k采样率的每帧32毫秒)进行分帧。
(3)对语音帧使用汉明窗加窗处理,窗函数为:
其中,NH为汉明窗长度。
(4)对加窗处理过后的语音帧采用双门限检测法进行端点检测。
(5)采用改进的自扰动最小二乘法对端点检测处理过的语音帧,进行自适应语音噪声消除,达到语音加强和降噪的目的,其自适应滤波器权值系数W(n)的更新公式为:
W(n)=W(n-1)+k(n)[d(n)-uT(n)W(n-1)],
式中,粗体字母表示对应的矩阵,n为时间序列,d(n)为端点检测处理过后的语音帧信号d(n)的第n个点的值,是一个标量;
u(n)=[u(1),u(2),u(3)…,u(n)]为参考噪声信号,在录音环境下会同步采集背景噪声,T表示矩阵转置;
式中,λ为遗忘因子,λ越大,则越早时间的语音信号数据对当前语音信号数据的影响越小,可选的,λ取值为0.95;
P(n)为参考信号的自相关矩阵的逆矩阵,其迭代式为:
P(n)=[I-k(n)uT(n)]P(n-1)+Q(n),
式中,I为单位矩阵,Q(n)为自扰动项,其表达式如下:
式中,NINT为取整函数,β与γ为常数,可选的,在仿真实验中,取β=0.9,
γ=0.8;e(n)=d(n)-uT(n)W(n),E[e2(n)]与E[u2(n)]分别为:
E[e2(n)]={(n-1)·E[e2(n-1)]+e(n)}/n,
E[u2(n)]={(n-1)·E[u2(n-1)]+u(n)}/n,
经过上述自适应滤波输出信号为e(n),也就是预处理后得到的语音信号,将其记为x(n),其中n为信号抽样时第n个采样点。
S320、对预处理后的语音信号进行快速傅里叶变换。
预处理之后的语音信号记为x(n),对其进行快速傅里叶变换后得到的频谱记为X(k),其中k代表在周期频谱(0,fs)上的第k个采样点,对应的频率为NFFT为快速傅里叶变换点数,k的取值范围是0~NFFT,fs是采样信号的采样频率。
S330、对快速傅里叶变换后的频谱取平方,得到语音信号的能量谱,再利用改进的伽马通滤波器组进行能量谱滤波。
伽马通滤波器组的时域脉冲响应为:
式中,A为滤波器增益,可选的,A取值为1;p为滤波器个数,下标i表示第i个滤波器;ng为滤波器阶数,可选的,取ng=4;φi为滤波器的初始相位,因为人耳对相位不敏感,为了简化模型,可选的,取φi=0;fc(i)为每个滤波器的中心频率;bi为衰减因子,Ui(t)为阶跃函数。
听觉临界频带用等效矩形带宽表示为:
EBR(f)=24.7(4.37f/1000+1),
滤波器中心频率由以下公式给定:
式中,Q为渐进因子,B0为最小带宽,f1、fu分别表示滤波器组的最小中心频率与最大中心频率。
对于中心频率fc(i),可得对应的衰减因子bi:
bi=1.019EBR(fc(i)),
根据以上滤波器的特性,可以得到改进的伽马通滤波器的频率响应。
具体步骤如下:
可选的,给定渐进因子Q=9.26449,最小带宽B0=24.7,滤波器组的最小中心频率f1=80,最大中心频率fu=fs/2,fs为采样信号的采样频率。需要说明的是,参数的具体取值,在此并不限定,在可以得到满足要求的滤波结果的情况下,参数值可根据需要进行适应性更改。
对于第i个(i=1,2……,p)滤波器:
计算第i个滤波器的中心频率fc(i):
计算其等效矩形带宽EBR:
EBR(fc(i))=24.7(4.37fc(i)/1000+1);
计算第i个衰减因子bi:bi=1.019EBR(fc(i));
进一步得到第i个4阶滤波器的时域脉冲响应:
对伽马通滤波器的时域冲击响应在时间(0,wlen/fs)上以fs采样成离散冲激响应,并进行快速傅里叶变换,得到其频率响应Gi(k),其中wlen表示帧长,可选的,wlen取值为512点。
对每个滤波器幅频进行归一化处理:Gi(k)=Gi(k)/max(Gi(k)),
进一步的,对于每个滤波器,如果采样点k大于NFFT/4且k小于等于NFFT/2,则第k个采样点上的频率响应调整为:即将滤波器频率区间(0,fs/4)内的频率响应关于fs/4翻转并覆盖原有频谱;如果k大于NFFT/2且k小于等于3NFFT/4,则第k个采样点上的频率响应调整为:即将滤波器频率区间(3fs/4,fs)内的频率响应关于3fs/4翻转并覆盖原有频谱。原有频谱是指根据标准伽马通滤波器进行滤波得到的频谱Gi(k)。其中,傅里叶变换后的频谱是轴对称的频谱,频率区间(0,fs/4)与(3fs/4,fs)对应低频的语音信号的频率响应,频率区间(fs/4,fs/2)与(fs/2,3fs/4)对应高频的语音信号的频率响应。具体的,根据改进的伽马通滤波器进行分频段滤波的信号输出如下:
采样点数NFFT的取值与采样信号的采样频率fs取值存在对应关系,将采样点数NFFT进行四等分即将采样频谱fs进行四等分。
标准的伽马通滤波器组在语音高频部分的频率分辨率较低,是因为滤波器的等效矩形带宽正比于其中心频率,对于高频区域,滤波器的中心频率较高,导致滤波器间间隙较大,滤波分辨率便较低,因此,对语音的高频部分的识别效果较差。改进后的伽马通滤波器组对于高频区域的频谱分布比较密集,滤波器间间隙减小,恰好可以解决标准的伽马通滤波器组的低分辨问题。
S340、对滤波后的能量谱取对数,得到对数频谱。
其中,X(k)是对预处理之后的语音信号进行快速傅里叶变换后得到的频谱形式。
S350、对得到的对数频谱做离散余弦变换,得到混合耳蜗频率倒谱系数。
式中,j表示第j阶系数,j的取值0,1,2,……,p-1,p为滤波器个数或者滤波器通道数。在实际的语音识别系统中,并不是取全部阶数的系数,实验表明最前若干阶和最后若干阶的系数对语音的区分性能较大,因此,可选的,混合耳蜗频率倒谱系数取前26阶系数。其中,混合耳蜗频率倒谱系数的零阶系数GF0,即表征语音帧的直流分量可表示为:
S360、利用语音帧的平均短时对数能量替换混合耳蜗频率倒谱系数中的零阶系数,便得到语音信号的声纹特征。
计算每一帧语音信号的平均短时对数能量:
S370、利用预先训练好的隐马尔可夫模型对声纹特征进行识别,得到语音信号的识别结果。
本实施例的技术方案通过对采集的语音信号进行预加重、分帧、加窗、端点检测和自适应语音加强的预处理,然后得到语音帧信号的能量谱,根据至少一个改进的伽马通滤波器,进行分频段的差异化声纹特征提取,并利用语音帧的平均短时对数能量替换语音帧的直流分量,得到准确的声纹特征,最后基于此声纹特征,确认语音信号的识别结果,解决了现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题,提高了滤波器对语音高频部分的分辨率,提高了声纹特征提取的准确性,进而提高了对语音的高频部分的识别准确性,保证了语音识别效果,并且降低了声纹识别涉及的运算复杂度以及响应时间。
实施例四
图4是本发明实施例四提供的声纹识别装置的结构示意图,本实施例可适用于进行声纹识别的情况。本发明实施例所提供的声纹识别装置可执行本发明任意实施例所提供的声纹识别方法,具备执行方法相应的功能模块和有益效果。如图4所示,该装置包括声纹采集模块410、声纹特征提取模块420和声纹识别模块430,其中:
声纹采集模块410,用于采集待识别的语音信号。
声纹特征提取模块420,用于根据至少一个改进的伽马通滤波器,对语音信号进行分频段的声纹特征提取。
可选的,声纹特征提取模块420包括信号滤波单元和声纹特征确定单元,其中:
信号滤波单元,用于根据至少一个改进的伽马通滤波器,利用以下公式得到的滤波器的频率响应对语音信号的能量谱进行滤波,得到语音信号的滤波能量谱,
声纹特征确定单元,用于根据滤波能量谱得到语音信号的声纹特征。
可选的,声纹特征确定单元包括对数频谱确定子单元、倒谱系数确定子单元和直流替换子单元,其中:
对数频谱确定子单元,用于对滤波能量谱取对数,得到对数频谱;
倒谱系数确定子单元,用于对得到的对数频谱做离散余弦变换,得到混合耳蜗频率倒谱系数;
直流替换子单元,用于利用语音信号的平均短时对数能量替换混合耳蜗频率倒谱系数中的零阶系数,得到语音信号的声纹特征。
声纹识别模块430,用于基于提取的声纹特征,确认语音信号的识别结果。
可选的,声纹识别模块430具体用于:基于提取的声纹特征,利用预先训练好的隐马尔可夫模型,得到语音信号的识别结果,其中,隐马尔可夫模型是基于训练语音的声纹特征训练得到,训练语音的声纹特征是根据至少一个改进的伽马通滤波器,进行分频段的声纹特征提取后得到。
可选的,声纹识别模块430具体用于:基于提取的声纹特征,利用预先训练好的隐马尔可夫模型,得到语音信号的说话人信息。
可选的,该装置还包括:傅里叶变换模块和能量谱确定模块,其中:
傅里叶变换模块,用于对语音信号进行快速傅里叶变换,并进行归一化处理;
能量谱确定模块,用于对归一化处理之后得到的频谱取平方,得到语音信号的能量谱,以便进行声纹特征提取。
可选的,该装置还包括噪声消除模块,用于采用改进的自扰动最小二乘法对语音信号进行自适应地语音加强。
本实施例的技术方案通过根据至少一个改进的伽马通滤波器,对采集的待识别语音信号进行分频段的差异化声纹特征提取,然后基于提取的声纹特征,确认语音信号的识别结果,解决了现有技术中由于语音的高频部分信息丢失导致的识别效果较差的问题,提高了滤波器对语音高频部分的分辨率,提高了声纹特征提取的准确性,进而提高了对语音的高频部分的识别准确性,并且降低了声纹识别涉及的运算复杂度以及响应时间。
实施例五
图5是本发明实施例五提供的一种服务器的结构示意图。图5示出了适于用来实现本发明实施方式的示例性服务器512的框图。图5显示的服务器512仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,服务器512以通用服务器的形式表现。服务器512的组件可以包括但不限于:一个或者多个处理器516,存储装置528,连接不同系统组件(包括存储装置528和处理器516)的总线518。
总线518表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry SubversiveAlliance,ISA)总线,微通道体系结构(Micro Channel Architecture,MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
服务器512典型地包括多种计算机系统可读介质。这些介质可以是任何能够被服务器512访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置528可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)530和/或高速缓存存储器532。服务器512可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统534可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘,例如只读光盘(Compact Disc Read-Only Memory,CD-ROM),数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线518相连。存储装置528可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块542的程序/实用工具540,可以存储在例如存储装置528中,这样的程序模块542包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块542通常执行本发明所描述的实施例中的功能和/或方法。
服务器512也可以与一个或多个外部设备514(例如键盘、指向终端、显示器524等)通信,还可与一个或者多个使得用户能与该服务器512交互的终端通信,和/或与使得该服务器512能与一个或多个其它计算终端进行通信的任何终端(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口522进行。并且,服务器512还可以通过网络适配器520与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(Wide AreaNetwork,WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器520通过总线518与服务器512的其它模块通信。应当明白,尽管图中未示出,可以结合服务器512使用其它硬件和/或软件模块,包括但不限于:微代码、终端驱动器、冗余处理器、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of Independent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器516通过运行存储在存储装置528中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的声纹识别方法,该方法包括:
采集待识别的语音信号;
根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取;
基于提取的声纹特征,确认所述语音信号的识别结果。
实施例六
本发明实施例六还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的声纹识别方法,该方法包括:
采集待识别的语音信号;
根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取;
基于提取的声纹特征,确认所述语音信号的识别结果。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种声纹识别方法,其特征在于,包括:
采集待识别的语音信号;
采用改进的自扰动最小二乘法对所述语音信号进行自适应地语音加强和消除语音信号背景噪声,其自适应滤波器权值系数W(n)的更新公式为:W(n)=W(n-1)+k(n)[d(n)-uT(n)W(n-1)];其中,粗体字母表示对应的矩阵,n为时间序列,d(n)为端点检测处理过后的语音帧信号d(n)的第n个点的值;u(n)=[u(1),u(2),u(3)...,u(n)]为参考噪声信号,T表示矩阵转置;在k(n)公式中,λ为遗忘因子,P(n)=[I-k(n)uT(n)]P(n-1)+Q(n),I为单位矩阵,Q(n)为自扰动项,且 在Q(n)公式中,NINT为取整函数,β与γ为常数,e(n)=d(n)-uT(n)W(n),E[e2(n)]={(n-1)·E[e2(n-1)]+e(n)}/n,E[u2(n)]={(n-1)·E[u2(n-1)]+u(n)}/n;
根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取;
基于提取的声纹特征,确认所述语音信号的识别结果;
其中,所述根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取,包括:
根据所述至少一个改进的伽马通滤波器,利用以下公式得到的滤波器的频率响应对所述语音信号的能量谱进行滤波,得到所述语音信号的滤波能量谱,
根据所述滤波能量谱得到所述语音信号的声纹特征。
2.根据权利要求1所述的方法,其特征在于,所述根据所述滤波能量谱得到所述语音信号的声纹特征包括:
对所述滤波能量谱取对数,得到对数频谱;
对所述对数频谱做离散余弦变换,得到混合耳蜗频率倒谱系数;
利用所述语音信号的平均短时对数能量替换所述混合耳蜗频率倒谱系数中的零阶系数,得到所述语音信号的声纹特征。
3.根据权利要求1所述的方法,其特征在于,在所述根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取之前,所述方法还包括:
对所述语音信号进行快速傅里叶变换,并进行归一化处理;
对所述归一化处理之后得到的频谱取平方,得到所述语音信号的能量谱,以便进行所述声纹特征提取。
4.根据权利要求1所述的方法,其特征在于,所述基于提取的声纹特征,确认所述语音信号的识别结果,包括:
基于所述提取的声纹特征,利用预先训练好的隐马尔可夫模型,得到所述语音信号的识别结果,其中,所述隐马尔可夫模型是基于训练语音的声纹特征训练得到,所述训练语音的声纹特征是根据所述至少一个改进的伽马通滤波器,进行分频段的声纹特征提取后得到。
5.根据权利要求4所述的方法,其特征在于,所述识别结果包括所述语音信号的说话人信息。
6.一种声纹识别装置,其特征在于,包括:
声纹采集模块,用于采集待识别的语音信号;
噪声消除模块,用于采用改进的自扰动最小二乘法对语音信号进行自适应地语音加强和消除语音信号背景噪声,其自适应滤波器权值系数W(n)的更新公式为:W(n)=W(n-1)+k(n)[d(n)-uT(n)W(n-1)];其中,粗体字母表示对应的矩阵,n为时间序列,d(n)为端点检测处理过后的语音帧信号d(n)的第n个点的值;u(n)=[u(1),u(2),u(3)...,u(n)]为参考噪声信号,T表示矩阵转置;k(n)式中,λ为遗忘因子,P(n)=[I-k(n)uT(n)]P(n-1)+Q(n),I为单位矩阵,Q(n)为自扰动项,且 式中,NINT为取整函数,β与γ为常数,e(n)=d(n)-uT(n)W(n),E[e2(n)]={(n-1)·E[e2(n-1)]+e(n)}/n,E[u2(n)]={(n-1)·E[u2(n-1)]+u(n)}/n;
声纹特征提取模块,用于根据至少一个改进的伽马通滤波器,对所述语音信号进行分频段的声纹特征提取;
声纹识别模块,用于基于提取的声纹特征,确认所述语音信号的识别结果;
所述声纹特征提取模块包括信号滤波单元和声纹特征确定单元,其中:
信号滤波单元,用于根据至少一个改进的伽马通滤波器,利用以下公式得到的滤波器的频率响应对语音信号的能量谱进行滤波,得到语音信号的滤波能量谱,
声纹特征确定单元,用于根据滤波能量谱得到语音信号的声纹特征。
7.一种服务器,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1~5中任一所述的声纹识别方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~5中任一所述的声纹识别方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810253151.6A CN108564956B (zh) | 2018-03-26 | 2018-03-26 | 一种声纹识别方法和装置、服务器、存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810253151.6A CN108564956B (zh) | 2018-03-26 | 2018-03-26 | 一种声纹识别方法和装置、服务器、存储介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN108564956A CN108564956A (zh) | 2018-09-21 |
| CN108564956B true CN108564956B (zh) | 2021-04-20 |
Family
ID=63533279
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201810253151.6A Active CN108564956B (zh) | 2018-03-26 | 2018-03-26 | 一种声纹识别方法和装置、服务器、存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN108564956B (zh) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110189757A (zh) * | 2019-06-27 | 2019-08-30 | 电子科技大学 | 一种大熊猫个体识别方法、设备及计算机可读存储介质 |
| CN111477235B (zh) * | 2020-04-15 | 2023-05-05 | 厦门快商通科技股份有限公司 | 一种声纹采集方法和装置以及设备 |
| CN111951783B (zh) * | 2020-08-12 | 2023-08-18 | 北京工业大学 | 一种基于音素滤波的说话人识别方法 |
| CN114974256A (zh) * | 2021-02-24 | 2022-08-30 | 华为技术有限公司 | 一种声纹识别方法及装置 |
| CN113490115A (zh) * | 2021-08-13 | 2021-10-08 | 广州市迪声音响有限公司 | 一种基于声纹识别技术的声反馈抑制方法及系统 |
| CN113567969B (zh) * | 2021-09-23 | 2021-12-17 | 江苏禹治流域管理技术研究院有限公司 | 一种基于水下声信号的非法采砂船自动监控方法及系统 |
| CN115331657A (zh) * | 2022-08-03 | 2022-11-11 | 山东中衡光电科技有限公司 | 一种带式输送机语音识别急停保护系统 |
| CN115662408A (zh) * | 2022-09-20 | 2023-01-31 | 中国电子科技集团公司信息科学研究院 | 基于伽马通缩放基向量的噪声鲁棒声学特征提取方法 |
| CN117935826B (zh) * | 2024-03-22 | 2024-07-05 | 深圳市东微智能科技股份有限公司 | 音频升采样方法、装置、设备及存储介质 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102438189A (zh) * | 2011-08-30 | 2012-05-02 | 东南大学 | 基于双通路声信号的声源定位方法 |
| CN103557925A (zh) * | 2013-10-17 | 2014-02-05 | 西北工业大学 | 水下目标gammatone离散小波系数听觉特征提取方法 |
| CN106782565A (zh) * | 2016-11-29 | 2017-05-31 | 重庆重智机器人研究院有限公司 | 一种声纹特征识别方法及系统 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1536412B1 (en) * | 2003-11-27 | 2006-01-18 | Alcatel | Speech recognition enhancer |
| CN103325381B (zh) * | 2013-05-29 | 2015-09-02 | 吉林大学 | 一种基于模糊隶属函数的语音分离方法 |
| CN104978507B (zh) * | 2014-04-14 | 2019-02-01 | 中国石油化工集团公司 | 一种基于声纹识别的智能测井评价专家系统身份认证方法 |
| CN103985390A (zh) * | 2014-05-20 | 2014-08-13 | 北京安慧音通科技有限责任公司 | 一种基于伽马通相关图语音特征参数提取方法 |
| CN105679321B (zh) * | 2016-01-29 | 2020-05-19 | 宇龙计算机通信科技(深圳)有限公司 | 语音识别方法、装置及终端 |
-
2018
- 2018-03-26 CN CN201810253151.6A patent/CN108564956B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102438189A (zh) * | 2011-08-30 | 2012-05-02 | 东南大学 | 基于双通路声信号的声源定位方法 |
| CN103557925A (zh) * | 2013-10-17 | 2014-02-05 | 西北工业大学 | 水下目标gammatone离散小波系数听觉特征提取方法 |
| CN106782565A (zh) * | 2016-11-29 | 2017-05-31 | 重庆重智机器人研究院有限公司 | 一种声纹特征识别方法及系统 |
Non-Patent Citations (2)
| Title |
|---|
| Efficient Text Independent Speaker Identification Based on GFCC and CMN methods;El Bachir Tazi et. al.;《2012 International Conference on Multimedia Computing and Systems》;20121231;正文第1-6页 * |
| 一种改进型MEL滤波器混合特征参数提取方法研究;黄锐 等;《通信技术》;20141231;第47卷(第12期);第1388-1391页 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN108564956A (zh) | 2018-09-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108564956B (zh) | 一种声纹识别方法和装置、服务器、存储介质 | |
| Kingsbury et al. | Robust speech recognition using the modulation spectrogram | |
| CN113823293B (zh) | 一种基于语音增强的说话人识别方法及系统 | |
| US8160877B1 (en) | Hierarchical real-time speaker recognition for biometric VoIP verification and targeting | |
| Nehe et al. | DWT and LPC based feature extraction methods for isolated word recognition | |
| Biswas et al. | Admissible wavelet packet features based on human inner ear frequency response for Hindi consonant recognition | |
| CN106486131A (zh) | 一种语音去噪的方法及装置 | |
| CN109256138A (zh) | 身份验证方法、终端设备及计算机可读存储介质 | |
| CN103236260A (zh) | 语音识别系统 | |
| CN108305639B (zh) | 语音情感识别方法、计算机可读存储介质、终端 | |
| Pawar et al. | Review of various stages in speaker recognition system, performance measures and recognition toolkits | |
| Sharma et al. | Study of robust feature extraction techniques for speech recognition system | |
| Missaoui et al. | Stationary wavelet Filtering Cepstral coefficients (SWFCC) for robust speaker identification | |
| Zhang et al. | A hierarchical framework approach for voice activity detection and speech enhancement | |
| Maganti et al. | Auditory processing-based features for improving speech recognition in adverse acoustic conditions | |
| Nirjon et al. | sMFCC: exploiting sparseness in speech for fast acoustic feature extraction on mobile devices--a feasibility study | |
| Tzudir et al. | Low-resource dialect identification in Ao using noise robust mean Hilbert envelope coefficients | |
| Han et al. | Reverberation and noise robust feature compensation based on IMM | |
| Aggarwal et al. | Implementing a speech recognition system interface for indian languages | |
| Shome et al. | Non-negative frequency-weighted energy-based speech quality estimation for different modes and quality of speech | |
| Kocer et al. | Turkish Speech recognition using Mel-frequency cepstral coefficients (MFCC) and Hidden Markov Model (HMM) | |
| Pickersgill et al. | Investigation of dnn prediction of power spectral envelopes for speech coding & asr | |
| Abka et al. | Speech recognition features: Comparison studies on robustness against environmental distortions | |
| CN110797011A (zh) | 基于支持向量机的语音识别方法、装置、设备及存储介质 | |
| Alrouqi | Additive noise subtraction for environmental noise in speech recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |





























