CN104900235A - 基于基音周期混合特征参数的声纹识别方法 - Google Patents

基于基音周期混合特征参数的声纹识别方法 Download PDF

Info

Publication number
CN104900235A
CN104900235A CN201510268390.5A CN201510268390A CN104900235A CN 104900235 A CN104900235 A CN 104900235A CN 201510268390 A CN201510268390 A CN 201510268390A CN 104900235 A CN104900235 A CN 104900235A
Authority
CN
China
Prior art keywords
particle
dimension
value
represent
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510268390.5A
Other languages
English (en)
Other versions
CN104900235B (zh
Inventor
李勇明
谢文宾
王品
刘玉川
徐莎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Zhijun Technology Co ltd
Xiaovo Technology Co ltd
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201510268390.5A priority Critical patent/CN104900235B/zh
Publication of CN104900235A publication Critical patent/CN104900235A/zh
Application granted granted Critical
Publication of CN104900235B publication Critical patent/CN104900235B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

本发明提供了一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、ΔLPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法对多维特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别。与单一的语音信号特征参数进行声纹识别相比,采用组合特征参数并使用GMM-UBM模型的声纹识别系统,有效地提高了声纹识别的识别准确率和系统稳定性。

Description

基于基音周期混合特征参数的声纹识别方法
技术领域
本发明涉及语音信号处理领域,具体涉及一种基于基音周期混合特征参数的声纹识别方法。
背景技术
在当今信息时代的前提下,作为信息安全的重要组成部分之一的身份识别技术引来了新的挑战。传统的密码识别由于算法的局限性与硬软件解密技术的上升已经展现出了它的弊端。作为身份识别的新技术之一,声纹识别技术,因其独特的方便性、经济性及准确性等优点,受到人们越来越多的重视。
声纹识别,就是从说话人的一段语音中提取出说话人的个性特征,通过对个人特征的分析与识别,从而达到对说话人进行辨认或者确认的目的。说话人识别并不注意语音信号的内容,而是希望从语音信号中提取个人的特征,由于每个人独特的声道特性和发音特点,使得说话人的语音信号具有区别于其他说话人的特征,这就是声纹识别的基本依据。
声纹识别的关键技术,主要是语音信号的特征参数提取和识别模型的建立。最常用的语音信号的特征参数有两种:一种是根据语音信号的检测周期,基音周期是语音信号处理中最重要的参数之一,它携带着非常重要的语音信息在噪声环境中能体现优势;另一种是根据语音信号的全极点模型得到的线性预测倒谱系数(LPCC),反映了说话人声道的生理结构差异。LPCC特征参数的提取,是基于语音信号为自回归信号的假设,利用线性预测分析从而获得倒谱参数。LPCC参数的最大优点是它能够极为精确地估计语音参数,用很少的参数有效而又正确地表现语音波形机器频谱的性质,而且计算效率高,且对元音有较好的表示能力,它缺点在于不能体现辅音的个性特征,抗噪声性能较差,识别率容易受环境的影响。GFCC参数是根据人耳耳蜗的听觉响应特性模拟而来, 通过Gammatone滤波器模拟人耳处理声音的过程,即Gammatone滤波器倒谱系数,在说话人识别系统中的表现要优于LPCC。因此,采用基音周期、LPCC、GFCC组合特征参数,能够有效地取长补短,使得声纹识别系统具有较好的识别率和稳定性。
目前声纹识别系统中的模式匹配方法主要有概率统计方法、动态时间规整(DTW)、矢量量化(VQ)、隐马尔可夫模型(HMM)、人工神经网络方法(ANN)、支持向量机(SVM)、动态贝叶斯网络(DBN)技术以及这些方法的组合技术等。
目前在文本无关说话人识别中,概率统计方法使用较为普遍,特别是高斯组合模型(GMM),利用语音中的说话人信息在短时间内较为平稳,通过对稳态特征如基音、声门增益等的统计分析,可以利用均值、方差等统计量和概率密度函数进行分类判决。但是训练语音不足时,基于GMM的声纹识别系统的识别率急剧下降。为了克服因训练语音不够的而不能够很好的刻画说话人的语音特征的缺陷,而引入了通用背景模型(UBM),从而产生了基于GMM-UBM的说话人识别。
发明内容
本申请通过提供一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、△LPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法BPSO对语音信号组合特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别,以解决现有技术中利用单一语音参数进行声纹识别的识别准确率不高以及声纹识别系统不稳定的技术问题。
为解决上述技术问题,本申请采用以下技术方案予以实现:
一种基于基音周期混合特征参数的声纹识别方法,包括如下步骤:
S1:语音信号的采集输入;
S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;
S3:语音信号组合特征参数提取:提取基音周期、LPCC、△LPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM-UBM识别过程中等错误率作为评价函数,选取使得等错误率最小的特征向量作为声纹识别的特征向量,其中所述GMM-UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;
S5:使用GMM-UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;
S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM-UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人。
其中步骤S1中利用录音软件Cool Edit录制小语音库,去除静音段,并将噪声衰减10dB,其中采用频率为16KHz,量化比特为16bit的wav文件,语音与文本无关的连续语音。
步骤S2中的语音信号的预处理,主要包括预加重、分帧和加窗处理。
1、预加重:由于语音信号的平均功率谱受声门激励和口鼻辐射的影响,高倍频大约在800Hz以上按6dB/倍频跌落,所以求语音信号频谱,频率越高对应的成分越小,高频部分的频谱也越难求,为此要进行预加重处理。其目的是要提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中, 能用同样的信噪比求频谱。预加重一般在语音信号数字化之后,且预加重滤波器是一阶的,其滤波器的实现形式:H(z)=1-u*z-1,其中u一般在(0.9,1)之间。截取一段语音信号,其中采样频率为16Khz,量化比特位为16,随意选取256个采样值。
2、分帧、加窗:由于语音信号具有短时平稳性,预处理完成后需对语音信号进行分帧、加窗处理,便于用短时分析技术对语音信号进行处理。通常情况下,每秒钟的帧数约为33~100帧,分帧既可采用连续分段的方法,也可采用交叠分段的方法,但后者可以使帧与帧之间平滑过渡,保持其连续性。前一帧和后一帧的交叠部分称为帧移,帧移和帧长的比值一般取为(0~1/2)。一边将语音信号用可移动有限长度的窗口进行截取即分帧,通常采用的窗函数有矩形窗(Rectangular)、汉明窗(Hamming)和汉宁窗(Hanning)等。
语音信号经过预处理之后,将提取特征参数,特征参数的选择应当满足几个原则:第一,易于从语音信号中提取特征参数;第二,不容易被模仿;第三,不随时间和空间变化,具有相对的稳定性;第四,能够有效识别不同的说话人。目前说话人确认系统主要依靠语音的低层次声学特征来进行识别,这些特征可分为时域特征和变换域特征。在本发明的步骤S3中,语音信号组合特征参数提取:即提取提取1维基音周期,12维LPCC,12维△LPCC,1维能量参数,1维一阶差分能量参数,22维GFCC参数,共同组成的49维特征向量。
1、基音周期特征参数提取的具体步骤如下:
(1)令语音信号表示为s(n),语音的归一化自相关函数的表示为
ρ ( τ ) = Σ n = 0 N - 1 s ( n ) s ( n - τ ) Σ n = 0 N - 1 s 2 ( n ) Σ n = 0 N - 1 s 2 ( n - τ ) - - - ( 1 )
(2)去均值
当语音信号在分析窗里有非零均值或有非常低的低频噪声出现时,归一化 自相关函数在所要求的所有延迟上都产生高的相关。于是,在计算ρ(τ)时首先减掉均值,减去均值的信号为s'(n)=s(n)-μ               (2) 
μ = 1 N Σ n = 0 N - 1 s ( n ) - - - ( 3 )
(3)时域基音周期粗估计及基音平滑
由于语音信号呈现准周期性,在与该帧波形具有较强相似性的地方,R(τ)会出现峰值,但是这些峰值中还需要进一步判断才能确定基音周期。于是获得的语音帧的点数为m,以m/N为步长对语音帧抽样,同时以生成在[1,2]之间的随机数作为抽样点值的倍数矩阵K相乘,获得新的语音帧,对语音信号的每一帧作相应的处理。
由于语音信号的平稳性,基音周期曲线也是平滑的,相邻之间的基音周期也是连续的。由于基音周期一般不会发生突变,在度量转移时,周期的值越接近,转移的概率就越大。两个备选基音周期之间的路径转移权值为
W i j = a b s ( R 1 ( τ i ) - R 2 ( τ j ) ) R 1 ( τ i ) - - - ( 4 )
采用遗传算法,使得两个备选基音周期之间的路径转移权值作为适应度值,通过不断的改变倍数矩阵K的值,使得适应度值最大,然后获得该语音帧信号对应的峰值大小为R(τ),然后获得基音周期T0
2、短时归一化能量特征参数提取的具体步骤如下:
(1)给定语音段中的长度为N的一帧{Si(n),n=1,2,…,N},计算该帧的短时对数能量的公式如下,其中L是语音段的帧数。
E L = l o g Σ n = 1 N S i 2 ( n ) i = 1 , 2 , ... , L - - - ( 5 )
(2)由于不同语音段不同语音帧的能量差别比较大,为了使其能够于前 面的倒谱系数一起作为向量计算,需要进行归一化处理。其中Emax=maxEl,即语音段中最大的对数能量。
3、LPCC特征参数提取的具体步骤如下:
(1)求解线性预测LPC:在线性预测(LPC)分析中,声道模型表示为式(6)的全极点模型, H ( z ) = G 1 - E k = 1 p a k z - k = G A ( z ) - - - ( 6 )
式中p是LPC分析的阶数,ak为线性预测系数(k=1,2,…,p),A(z)为逆滤波器。LPC的分析就是求解线性预测系数ak,本发明采用基于自相关的递推求解公式法(即Durbin算法)。
(2)求LPC的倒谱系数LPCC:已预处理的语音信号x(n)复倒谱定义为x(n)的Z变换的对数反Z变换,即为:
X ^ ( z ) = log ( | X ( z ) | × e - j arg X ( z ) ) = log | X ( z ) | - j arg X ( z ) - - - ( 7 )
只考虑X(z)的模,忽略它的相位,就得到信号的倒谱c(n)为:
c(n)=Z-1(log|X(z)|)                              (8) 
LPCC不是由输入语音信号x(n),而是由LPC系数an得到的。LPCC参数Cn的递推公式: 
C n = a n + E k = 1 n - 1 kc k a n - k / n , n < p + 1 a n + E k = n - p n - 1 kc k a n - k / n , n > p + 1 - - - ( 9 )
4、动态特征参数:△LPCC、一阶差分能量参数提取的具体步骤如下:
前面介绍的LPCC、能量特征参数只表征了语音谱的及时信息,属于静态参数。实验表明,语音谱的动态信息中也包含有与说话人有关的信息,可以用来提高说话人识别系统的识别率。
(1)语音倒谱的动态信息是表征语音特征参数随时间变化的规律。语音倒谱随时间的变化可用下式表达:
&part; c m ( t ) &part; t &ap; &Delta;c m ( n ) = &Sigma; k = - K K k h ( k ) c m ( n + k ) &Sigma; k = - K K k 2 h ( k ) - - - ( 10 )
公式中,cm表示第m阶倒谱系数,n和k表示倒谱系数在时间轴上的序号。h(k)(k=-K,-K+1,…,K-1,K)为长度是2K+1的窗函数,它通常是对称的。正交多项式的一阶系数Δcm(n)如式(10)所示。
(2)实际应用中窗函数多采用矩形窗,K通常取2,此时动态参数就称为当前帧的前两帧和后两帧参数的线性组合。所以按照式(10)可以得到LPCC、能量的一阶动态参数。
5、GFCC特征参数提取的具体步骤如下:
(1)对预处理后的语音信号进行短时傅里叶变换,得到其频谱。这里采用快速傅里叶变换FFT来对每一帧语音信号进行离散余弦变换DCT。先将每一帧时域信号x(n)后补若干个0以形成长度为N(本发明中取N=256)的序列,然后对其进行快速傅立叶变换,最后得到线性频谱X(k)。X(k)与x(n)之间的转换公式为: X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; n k / N ( 0 &le; n , k &le; N - 1 ) - - - ( 11 )
(2)获得Gammatone滤波器组,Gammatone滤波器是一个标准的耳蜗听觉滤波器,该滤波器的时域脉冲响应为:
g(t)=Atn-1e-2πbtcos(2πfii)U(t),t≥0,1≤i≤N    (12) 
式中,A为滤波器增益,fi是滤波器的中心频率,U(t)是阶跃函数,φi是相位,为了简化模型,令φi为0,n是滤波器的阶数,实验表明n=4时能够很好的模拟人耳耳蜗的滤波特性。
bi是滤波器的衰减因子,它决定了脉冲响应的衰减速度,并与滤波器的带宽有关,bi=1.019ERB(fi),在听觉心理学中,
E R B ( f i ) = 24.7 &times; ( 4.37 &times; f i 1000 + 1 ) - - - ( 13 )
式中,N为滤波器的个数,本发明采用的是N=64,即由64个Gammatone滤波器叠加成的带通滤波器组实现耳蜗模型。各滤波器组的中心频率在ERB域上等间距分布,整个滤波器组的频率覆盖范围为80Hz-8000Hz,每个中心频率的计算公式如下:
f i = ( f H + 228.7 ) &times; exp ( - v i 9.26 ) - 228.7 1 &le; i &le; N - - - ( 14 )
其中fH为滤波器截止频率,vi是滤波器重叠因子,用来指定相邻滤波器之间重叠百分比。每个滤波器中心频率确定后,相应的带宽可由式(14)获得。
(3)Gammatone滤波器组滤波。对步骤(1)得到的功率谱X(k)取平方得到能量谱,然后用Gammatone滤波组Gm(k)进行滤波处理。得到对数频谱s(m),用来压缩语音谱的动态范围,并将频域中噪声的乘性成分转化成加性成分。
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 G m ( k ) ) , 0 &le; m < M - - - ( 15 )
(4)对对数频谱s(m)进行离散余弦变换DCT,得到GFCC参数G(n)。
G ( n ) = &Sigma; m = 1 M - 1 s ( m ) c o s ( &pi; n ( m + 0.5 ) M ) 0 &le; m &le; M - - - ( 16 )
步骤S3中提取的组合特征参数可能含有说话人个性特征、话语信息特征等较大的冗余量,所以采用离散粒子群优化算法筛选出能够表征说话人语音个性特征的特征向量,同时也减少了特征量的维度,提高了系统运行的效率和识别率。
进一步地,利用离散粒子群优化算法算法对组合特征进行筛选的具体步骤 如下:
A1:装载训练数据集,设置初始化参数;
A2:随机产生初始群体,并为每个粒子生成随机初始化速度,设置粒子个体极值和群体的全局极值;
A3:评价每个粒子的适应值;
A4:对每个粒子,将其适应值与粒子个体极值的适应值进行比较,如果其适应值优于粒子个体极值的适应值,则将当前粒子的位置作为粒子个体极值;
A5:对每个粒子,将其适应值与群体全局极值的适应值进行比较,如果其适应值优于群体全局极值的适应值,则将当前粒子的位置作为群体全局极值;
A6:更新粒子速度和位置;
A7:判断迭代次数是否达到最大值,如果达到,则进入步骤A8,否则跳转到步骤A3;
A8:把最终的群体全局极值转换为对应的特征子集。
步骤A3的每个粒子的适应度按照以下方式计算:
f ( A , C ) = ( &Sigma; j F 1 ( A j , C ) ) / ( &Sigma; i &Sigma; j F 2 ( A i , A j ) ) - - - ( 17 )
其中函数: F 1 ( A j , C ) = 2 &times; H 1 ( A j ) - H 1 ( A j | C ) H 1 ( A j ) + H 1 ( C ) , F 2 ( A i , A j ) = 2 &times; H 2 ( A i ) - H 2 ( A i | A j ) H 2 ( A i ) + H 2 ( A j ) ; Ai表示多维特征向量中的第i维参量,Aj表示多维特征向量中的第j维参量,C是说话人的类别,i和j遍历于多维特征向量中的所有维数,H1(Aj)表示确定C之前Aj的熵,H1(C)表示确定Aj之前C的熵,H1(Aj|C)表示确定C之后Aj的熵,H2(Ai)表示确定Aj之前Ai的熵,H2(Aj)表示确定Ai之前Aj的熵,H2(Ai|Aj)表示确定Aj之后Ai的熵。
步骤A6中更新粒子速度按照以下公式进行:
v i d n + 1 = wv i d n + c 1 r 1 ( p i d n - x i d n ) + c 2 r 2 ( p g d n - x i d n ) - - - ( 18 )
x i d n + 1 = x i d n + &eta;v i d n + 1 - - - ( 19 )
式中:表示第n次迭代时第i个粒子第d维的速度,表示第n+1次迭代时第i个粒子第d维的速度,表示第n次迭代时第i个粒子第d维的值,表示第n次迭代时第i个粒子的粒子个体极值第d维的值,表示第n次迭代时群体全局极值在第d维的值,d=1,2,...,D表示粒子的维度,总共D维,i=1,2,...,m,m为种群规模,w为惯性权重,c1是粒子跟踪自己历史最优值的权重系数,c2是粒子跟踪群体最优值的权重系数,r1、r2是[0,1]之间的随机数。
步骤A6中更新粒子位置按照以下方法进行:
针对第n+1次迭代时第i个粒子第d维的值而言,先按照计算位置状态改变概率;然后随机产生一个(0,1)之间的随机数rand(),如果  r a n d ( ) < s ( v i d n ) , x i d n + 1 = 1 ; 否则 x i d n + 1 = 0 ;
其中表示第n次迭代时第i个粒子第d维的速度,表示第n+1次迭代时第i个粒子第d维的值。
进一步地,在训练语音不足时,基于GMM的声纹识别系统的识别率急剧下降。为了克服因训练语音不够的而不能够很好的刻画说话人的语音特征的缺陷,而引入了通用背景模型(UBM),从而产生了基于GMM-UBM的说话人识别。用GMM-UBM模型对测试语音进行识别。步骤S5中具体包括:
高斯组合模型GMM是单一的高斯密度函数的扩展,设有M个单一高斯概率分布函数,一个高斯组合概率分布的定义为:  p ( x ) = &Sigma; m = 1 M p ( m ) p ( x | m ) = &Sigma; m = 1 M &pi; m N ( x ; &mu; m , &Sigma; m ) - - - ( 20 )
单一的高斯概率密度函数表示为:
N ( x ; &mu; , &sigma; 2 ) = ( 2 &pi; ) - D / 2 &sigma; - D exp ( ( x - &mu; ) &prime; ( x - &mu; ) 2 &sigma; 2 ) - - - ( 21 )
首先根据每个说话人的语音进行训练得到一组参数:权值,均值,协方差矩阵用来表征说话人的身份,这就需要对各个参数进行估计,也称为模型训练;
UBM训练过程:只用一个UBM代表所以说话人统计的平均语音特征,UBM训练过程是一个自适应的阶段,实际的应用中可以不断的扩充语音库,用不断增加的语音库来训练得到UBM,似然率计算如下式:
其中为高斯对角矩阵的均值和方差参数;
UBM自适应过程:使用最大后验概率MAP对UBM模型的均值μi进行自适应:给定一个UBM模型和说话人X={x1,x2,....xt},得到
p r ( i | x t ) = w i p i ( x t | &lambda; ) &Sigma; j = 1 K w j p j ( x t | &lambda; )
n i = &Sigma; t = 1 T p r ( i | x t )
E I ( X ) = 1 n &Sigma; t = 1 T p r ( i | x t ) x t - - - ( 23 )
由上式得高斯模型均值自适应公式为:μi=αEi(x)+(1-α)μi,每个说话人的模型是在UBM上根据说话人的训练语音自适应得到的。
进一步地,说话人的识别过程可看作一个假设检验问题,步骤S6具体包括:通过测试说话人的语音,与语音库中建立的语音模板进行匹配,来获得测试语音的身份,假设H0为输入语音,X为目标说话人,H1为冒充者语音,一 个对数似然比分数定义为:
S(X)=log{p(H0)/p(H1)}                     (24) 
通过计算似然得分,最大似然得分即为目标说话人。
与现有技术相比,本申请提供的技术方案,具有的技术效果或优点是:有效地提高了声纹识别的识别准确率和系统稳定性。
附图说明
图1为本发明的工作流程
图2为本发明的离散二进制粒子群优化算法的工作流程
具体实施方式
本申请实施例通过提供一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、△LPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法BPSO对语音信号组合特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别,以解决现有技术中利用单一语音参数进行声纹识别的识别准确率不高以及声纹识别系统不稳定的技术问题。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式,对上述技术方案进行详细的说明。
实施例
一种基于基音周期混合特征参数的声纹识别方法,包括如下步骤:
S1:语音信号的采集输入;
S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;
S3:语音信号组合特征参数提取:提取基音周期、LPCC、△LPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC 为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM-UBM识别过程中等错误率EER作为评价函数,选取使得等错误率EER最小的特征向量作为声纹识别的特征向量,其中所述GMM-UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;
S5:使用GMM-UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;
S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM-UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人。
如图1所示,为本发明的工作流程
其中步骤S1中利用录音软件Cool Edit录制小语音库,去除静音段,并将噪声衰减10dB,其中采用频率为16KHz,量化比特为16bit的wav文件,语音与文本无关的连续语音。为提高语音质量,用Cool Edit软件去除静音段,并将噪声衰减10dB。
步骤S2中的语音信号的预处理,主要包括预加重、分帧和加窗处理。
1、预加重:由于语音信号的平均功率谱受声门激励和口鼻辐射的影响,高倍频大约在800Hz以上按6dB/倍频跌落,所以求语音信号频谱,频率越高对应的成分越小,高频部分的频谱也越难求,为此要进行预加重处理。其目的是要提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱。预加重一般在语音信号数字化之后,且预加重滤波器是一阶的,其滤波器的实现形式:H(z)=1-u*z-1,其中u一般在(0.9,1)之间。本实施例中u=0.95。截取一段语音信号,其中采样频率为16KHz,量化 比特位为16,随意选取256个采样值。
2、分帧、加窗:由于语音信号具有短时平稳性,预处理完成后需对语音信号进行分帧、加窗处理,便于用短时分析技术对语音信号进行处理。通常情况下,每秒钟的帧数约为33~100帧,分帧既可采用连续分段的方法,也可采用交叠分段的方法,但后者可以使帧与帧之间平滑过渡,保持其连续性。前一帧和后一帧的交叠部分称为帧移,帧移和帧长的比值一般取为(0~1/2)。本实施例中帧长为256(32ms),帧移为100。一边将语音信号用可移动有限长度的窗口进行截取即分帧,本例中采用的窗函数为汉明窗。
语音信号经过预处理之后,将提取特征参数,特征参数的选择应当满足几个原则:第一,易于从语音信号中提取特征参数;第二,不容易被模仿;第三,不随时间和空间变化,具有相对的稳定性;第四,能够有效识别不同的说话人。目前说话人确认系统主要依靠语音的低层次声学特征来进行识别,这些特征可分为时域特征和变换域特征。在本实施例的步骤S3中,语音信号组合特征参数提取:即提取1维基音周期,12维LPCC,12维△LPCC,1维能量参数,1维一阶差分能量参数,22维GFCC参数,共同组成的49维特征向量。
1、基音周期特征参数提取的具体步骤如下:
(1)令语音信号表示为s(n),语音的归一化自相关函数的表示为
&rho; ( &tau; ) = &Sigma; n = 0 N - 1 s ( n ) s ( n - &tau; ) &Sigma; n = 0 N - 1 s 2 ( n ) &Sigma; n = 0 N - 1 s 2 ( n - &tau; ) - - - ( 24 )
(2)去均值
当语音信号在分析窗里有非零均值或有非常低的低频噪声出现时,归一化自相关函数在所要求的所有延迟上都产生高的相关。于是,在计算ρ(τ)时首先减掉均值,减去均值的信号为s'(n)=s(n)-μ            (25) 
&mu; = 1 N &Sigma; n = 0 N - 1 s ( n ) - - - ( 26 )
(3)时域基音周期粗估计及基音平滑
由于语音信号呈现准周期性,在与该帧波形具有较强相似性的地方,R(τ)会出现峰值,但是这些峰值中还需要进一步判断才能确定基音周期。于是获得的语音帧的点数为m,以m/N为步长对语音帧抽样,同时以生成在[1,2]之间的随机数作为抽样点值的倍数矩阵K相乘,获得新的语音帧,对语音信号的每一帧作相应的处理。
由于语音信号的平稳性,基音周期曲线也是平滑的,相邻之间的基音周期也是连续的。由于基音周期一般不会发生突变,在度量转移时,周期的值越接近,转移的概率就越大。两个备选基音周期之间的路径转移权值为
W i j = a b s ( R 1 ( &tau; i ) - R 2 ( &tau; j ) ) R 1 ( &tau; i ) - - - ( 27 )
采用遗传算法,使得两个备选基音周期之间的路径转移权值作为适应度值,通过不断的改变倍数矩阵K的值,使得适应度值最大,然后获得该语音帧信号对应的峰值大小为R(τ),然后获得基音周期T0
2、短时归一化能量特征参数提取的具体步骤如下:
(1)给定语音段中的长度为N的一帧{Si(n),n=1,2,…,N},计算该帧的短时对数能量的公式为其中L是语音段的帧数。
(2)由于不同语音段不同语音帧的能量差别比较大,为了使其能够于前面的倒谱系数一起作为向量计算,需要进行归一化处理。其中Emax=maxEl,即语音段中最大的对数能量。
3、LPCC特征参数提取的具体步骤如下:
(1)求解线性预测LPC:在线性预测(LPC)分析中,声道模型表示为式(33)的全极点模型, H ( z ) = G 1 - E k = 1 p a k z - k = G A ( z ) - - - ( 28 )
式中p是LPC分析的阶数,ak为线性预测系数(k=1,2,…,p),A(z)为逆滤波器。LPC的分析就是求解线性预测系数ak,本发明采用基于自相关的递推求解公式法(即Durbin算法)。
(2)求LPC的倒谱系数LPCC:已预处理的语音信号x(n)复倒谱定义为x(n)的Z变换的对数反Z变换,即为:
X ^ ( z ) = log ( | X ( z ) | &times; e - j arg X ( z ) ) = log | X ( z ) | - j arg X ( z ) - - - ( 29 )
只考虑X(z)的模,忽略它的相位,就得到信号的倒谱c(n)为:
c(n)=Z-1(log|X(z)|)                        (30) 
LPCC不是由输入语音信号x(n),而是由LPC系数an得到的。LPCC参数Cn的递推公式: 
C n = a n + E k = 1 n - 1 kc k a n - k / n n < p + 1 a n + E k = n - p n - 1 kc k a n - k / n n > p + 1 - - - ( 31 )
4、动态特征参数:△LPCC、一阶差分能量参数提取的具体步骤如下:
前面介绍的基音周期、LPCC、能量特征参数只表征了语音谱的及时信息,属于静态参数。实验表明,语音谱的动态信息中也包含有与说话人有关的信息,可以用来提高说话人识别系统的识别率。
(1)语音倒谱的动态信息是表征语音特征参数随时间变化的规律。语音倒谱随时间的变化可用下式表达:
&part; c m ( t ) &part; t &ap; &Delta;c m ( n ) = &Sigma; k = - K K k h ( k ) c m ( n + k ) &Sigma; k = - K K k 2 h ( k ) - - - ( 32 )
公式中,cm表示第m阶倒谱系数,n和k表示倒谱系数在时间轴上的序号。h(k)(k=-K,-K+1,…,K-1,K)为长度是2K+1的窗函数,它通常是对称的。正交多项式的一阶系数Δcm(n)如式(32)所示。
(2)实际应用中窗函数多采用矩形窗,K通常取2,此时动态参数就称为当前帧的前两帧和后两帧参数的线性组合。所以按照式(32)可以得到基音周期、LPCC、能量的一阶动态参数。
5、GFCC特征参数提取的具体步骤如下:
(1)对预处理后的语音信号进行短时傅里叶变换,得到其频谱。这里采用快速傅里叶变换FFT来对每一帧语音信号进行离散余弦变换DCT。先将每一帧时域信号x(n)后补若干个0以形成长度为N(本发明中取N=256)的序列,然后对其进行快速傅立叶变换,最后得到线性频谱X(k)。X(k)与x(n)之间的转换公式为: X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; n k / N ( 0 &le; n , k &le; N - 1 ) - - - ( 33 )
(2)获得Gammatone滤波器组,Gammatone滤波器是一个标准的耳蜗听觉滤波器,该滤波器的时域脉冲响应为:
g(t)=Atn-1e-2πbtcos(2πfii)U(t),t≥0,1≤i≤N      (34) 
式中,A为滤波器增益,fi是滤波器的中心频率,U(t)是阶跃函数,φi是相位,为了简化模型,令φi为0,n是滤波器的阶数,实验表明n=4时能够很好的模拟人耳耳蜗的滤波特性。
bi是滤波器的衰减因子,它决定了脉冲响应的衰减速度,并与滤波器的带宽有关,bi=1.019ERB(fi),在听觉心理学中,
E R B ( f i ) = 24.7 &times; ( 4.37 &times; f i 1000 + 1 ) - - - ( 35 )
式中,N为滤波器的个数,本发明采用的是N=64,即由64个Gammatone滤波器叠加成的带通滤波器组实现耳蜗模型。各滤波器组的中心频率在ERB域上等间距分布,整个滤波器组的频率覆盖范围为80Hz-8000Hz,每个中心频率的计算公式如下:
f i = ( f H + 228.7 ) &times; exp ( - v i 9.26 ) - 228.7 1 &le; i &le; N - - - ( 36 )
其中fH为滤波器截止频率,vi是滤波器重叠因子,用来指定相邻滤波器之间重叠百分比。每个滤波器中心频率确定后,相应的带宽可由式(35)获得。
(3)Gammatone滤波器组滤波。对步骤(1)得到的功率谱X(k)取平方得到能量谱,然后用Gammatone滤波组Gm(k)进行滤波处理。得到对数频谱s(m),用来压缩语音谱的动态范围,并将频域中噪声的乘性成分转化成加性成分。
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 G m ( k ) ) , 0 &le; m < M - - - ( 37 )
(4)对对数频谱s(m)进行离散余弦变换DCT,得到GFCC参数G(n)。
G ( n ) = &Sigma; m = 1 M - 1 s ( m ) c o s ( &pi; n ( m + 0.5 ) M ) 0 &le; m &le; M - - - ( 38 )
进一步地,步骤S3中提取得到的组合特征参数,可能含有说话人个性特征、话语信息特征等较大的冗余量,所以采用离散粒子群优化算法筛选出能够表征说话人语音个性特征的特征参量,同时也减少了特征量的维度,提高了系统运行的效率和识别率。
1、离散二进制粒子群优化(BPSO)算法
粒子群优化算法(PSO算法)是Kennedy和Eberhart受到鸟群捕食行为的研究结果启发得到。PSO算法具有执行速度快,受维数变化影响小等优点。
离散二进制粒子群优化算法更新粒子速度按照以下公式进行:
v i d n + 1 = wv d n + c 1 r 1 ( p i d n - x i d n ) + c 2 r 2 ( p g d n - x i d n ) - - - ( 39 )
x i d n + 1 = x i d n + &eta;v i d n + 1 - - - ( 40 )
式中,表示第n次迭代时第i个粒子第d维的速度,表示第n+1次迭代时第i个粒子第d维的速度,表示第n次迭代时第i个粒子第d维的值,表示第n次迭代时第i个粒子的粒子个体极值第d维的值,表示第n次迭代时群体全局极值在第d维的值,d=1,2,...,D表示粒子的维度,总共D维,i=1,2,...,m,m为种群规模,w为惯性权重,c1是粒子跟踪自己历史最优值的权重系数,c2是粒子跟踪群体最优值的权重系数,r1、r2是[0,1]之间的随机数。
离散二进制粒子群优化算法采用二进制编码的形式,将每一维的xi和pi限制为1或者0,而速度vi不作这种限制。用速度的Sigmoid函数表示位置状态改变的可能性:
s(v)=1/(1+e-v)                              (41) 
更新粒子位置按照以下方法进行:
针对第n+1次迭代时第i个粒子第d维的值而言,先按照计算位置状态改变概率;然后随机产生一个(0,1)之间的随机数rand(),如果  r a n d ( ) < s ( v i d n ) , x i d n + 1 = 1 ; 否则 x i d n + 1 = 0 ;
其中表示第n次迭代时第i个粒子第d维的速度,表示第n+1次迭代时第i个粒子第d维的值。
2、编码模式 
特征选择的实质就是从M个特征中,选出N个特征构成子集。因此可以把每一个特征定义为粒子的一维离散二进制变量,M个特征构成粒子的M维离散 二进制空间。对于每一个粒子,如果第i位为1,表示第i个特征被选中,反之表示该特征没有被选中。因此,每个粒子代表了一个不同的特征子集,也就是一个候选集。比如,粒子i=100110,那么表明特征1、特征3和特征5被选中,特征子集为{1,3,5}。
3、适应度函数 
在特征选择中,适应度评价函数的选择至关重要。虽然人们提出了距离评测、相关性评测等几种不同的建议,但目前还没有能被一致接纳的度量标准。本发明采用相关性评测方法,其核心思想在于选择一个属性子集,属性各自与类属性有较大关联,但几乎没有内部关联,以此达到消除无关属性,同时也消除重复属性的目的。两属性A和B之间关系可用对称不确定性(symmetric uncertainty)来度量:
F ( A , B ) = 2 &times; H ( A ) - H ( A | B ) H ( A ) + H ( B ) - - - ( 42 )
基于相关性的属性选择决定了一个属性集的优良,用公式(43)度量:
f ( A , C ) = ( &Sigma; j F ( A j , C ) ) / ( &Sigma; i &Sigma; j F ( A i , A j ) ) - - - ( 43 )
其中,C是类属性,i和j包括属性集里的所有属性。公式(43)也就是粒子群的适应度函数,显然值越大,粒子的适应度越高。
因此,在具体实施过程中,步骤A3的每个粒子的适应度的计算公式为:  f ( A , C ) = ( &Sigma; j F 1 ( A j , C ) ) / ( &Sigma; i &Sigma; j F 2 ( A i , A j ) ) , 其中函数:
F 1 ( A j , C ) = 2 &times; H 1 ( A j ) - H 1 ( A j | C ) H 1 ( A j ) + H 1 ( C ) , F 2 ( A i , A j ) = 2 &times; H 2 ( A i ) - H 2 ( A i | A j ) H 2 ( A i ) + H 2 ( A j ) ; Ai表示多维特征向量中的第i维参量,Aj表示多维特征向量中的第j维参量,C是说话人的类别,i和j遍历于多维特征向量中的所有维数,H1(Aj)表示确定C之前Aj的熵, H1(C)表示确定Aj之前C的熵,H1(Aj|C)表示确定C之后Aj的熵,H2(Ai)表示确定Aj之前Ai的熵,H2(Aj)表示确定Ai之前Aj的熵,H2(Ai|Aj)表示确定Aj之后Ai的熵。
如图2所示,步骤S4的离散二进制粒子群优化算法具体包括如下步骤:
A1:装载训练数据集,设置初始化参数;
A2:随机产生初始群体,并为每个粒子生成随机初始化速度,设置粒子个体极值和群体的全局极值;
A3:评价每个粒子的适应值;
A4:对每个粒子,将其适应值与粒子个体极值的适应值进行比较,如果其适应值优于粒子个体极值的适应值,则将当前粒子的位置作为粒子个体极值;
A5:对每个粒子,将其适应值与群体全局极值的适应值进行比较,如果其适应值优于群体全局极值的适应值,则将当前粒子的位置作为群体全局极值;
A6:更新粒子速度和位置;
A7:判断迭代次数是否达到最大值,如果达到,则进入步骤A8,否则跳转到步骤A3;
A8:把最终的群体全局极值转换为对应的特征子集。
进一步地,在训练语音不足时,基于GMM的声纹识别系统的识别率急剧下降。为了克服因训练语音不够的而不能够很好的刻画说话人的语音特征的缺陷,而引入了通用背景模型(UBM),从而产生了基于GMM-UBM的说话人识别。用GMM-UBM模型对测试语音进行识别。步骤S5中具体包括:
高斯组合模型GMM是单一的高斯密度函数的扩展,设有M个单一高斯概率分布函数,一个高斯组合概率分布的定义为:  p ( x ) = &Sigma; m = 1 M p ( m ) p ( x | m ) = &Sigma; m = 1 M &pi; m N ( x ; &mu; m , &Sigma; m ) - - - ( 44 )
单一的高斯概率密度函数表示为:
N ( x ; &mu; , &sigma; 2 ) = ( 2 &pi; ) - D / 2 &sigma; - D exp ( ( x - &mu; ) &prime; ( x - &mu; ) 2 &sigma; 2 ) - - - ( 45 )
首先根据每个说话人的语音进行训练得到一组参数:权值,均值,协方差矩阵用来表征说话人的身份,这就需要对各个参数进行估计,也称为模型训练;
UBM训练过程:只用一个UBM代表所以说话人统计的平均语音特征,UBM训练过程是一个自适应的阶段,实际的应用中可以不断的扩充语音库,用不断增加的语音库来训练得到UBM,似然率计算如下式:
其中为高斯对角矩阵的均值和方差参数;
UBM自适应过程:使用最大后验概率MAP对UBM模型的均值μi进行自适应:给定一个UBM模型和说话人X={x1,x2,....xt},得到
p r ( i | x t ) = w i p i ( x t | &lambda; ) &Sigma; j = 1 K w j p j ( x t | &lambda; )
n i = &Sigma; t = 1 T p r ( i | x t )
E I ( X ) = 1 n &Sigma; t = 1 T p r ( i | x t ) x t - - - ( 47 )
由上式得高斯模型均值自适应公式为:μi=αEi(x)+(1-α)μi,每个说话人的模型是在UBM上根据说话人的训练语音自适应得到的。
进一步地,说话人的识别过程可看作一个假设检验问题,步骤S6具体包括:通过测试说话人的语音,与语音库中建立的语音模板进行匹配,来获得测 试语音的身份,假设H0为输入语音,X为目标说话人,H1为冒充者语音,一个对数似然比分数定义为:
S(X)=log{p(H0)/p(H1)}                    (48) 
通过计算似然得分,最大似然得分即为目标说话人。
本申请的上述实施例中,通过提供一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、△LPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法BPSO对语音信号组合特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别。与单一的语音信号特征参数进行声纹识别相比,采用组合特征参数并使用GMM-UBM模型的声纹识别系统,有效地提高了声纹识别的识别准确率和系统稳定性。
应当指出的是,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改性、添加或替换,也应属于本发明的保护范围。

Claims (8)

1.一种基于基音周期混合特征参数的声纹识别方法,其特征在于,包括如下步骤:
S1:语音信号的采集输入;
S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;
S3:语音信号组合特征参数提取:提取基音周期、LPCC、ΔLPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM-UBM识别过程中等错误率作为评价函数,选取使得等错误率最小的特征向量作为声纹识别的特征向量,其中所述GMM-UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;
S5:使用GMM-UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;
S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM-UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人。
2.根据权利要求1所述的基于基音周期混合特征参数的声纹识别方法,其特征在于,步骤S3中提取1维基音周期,12维LPCC,12维△LPCC,1维能量参数,1维一阶差分能量参数,22维GFCC参数,共同组成的49维特征向量。
3.根据权利要求1或2所述的基于基音周期混合特征参数的声纹识别方 法,其特征在于,步骤S4中离散二进制粒子群优化算法的具体步骤包括:
A1:装载训练数据集,设置初始化参数;
A2:随机产生初始群体,并为每个粒子生成随机初始化速度,设置粒子个体极值和群体的全局极值;
A3:评价每个粒子的适应值;
A4:对每个粒子,将其适应值与粒子个体极值的适应值进行比较,如果其适应值优于粒子个体极值的适应值,则将当前粒子的位置作为粒子个体极值;
A5:对每个粒子,将其适应值与群体全局极值的适应值进行比较,如果其适应值优于群体全局极值的适应值,则将当前粒子的位置作为群体全局极值;
A6:更新粒子速度和位置;
A7:判断迭代次数是否达到最大值,如果达到,则进入步骤A8,否则跳转到步骤A3;
A8:把最终的群体全局极值转换为对应的特征子集。
4.根据权利要求3所述的基于基音周期混合特征参数的声纹识别方法,其特征在于,步骤A3的每个粒子的适应度按照以下方式计算: 其中函数:
Ai表示多维特征向量中的第i维参量,Aj表示多维特征向量中的第j维参量,C是说话人的类别,i和j遍历于多维特征向量中的所有维数,H1(Aj)表示确定C之前Aj的熵,H1(C)表示确定Aj之前C的熵,H1(Aj|C)表示确定C之后Aj的熵,H2(Ai)表示确定Aj之前Ai的熵,H2(Aj)表示确定Ai之前Aj的熵,H2(Ai|Aj)表示确定Aj之后Ai的熵。
5.根据权利要求3所述的基于基音周期混合特征参数的声纹识别方法,其特征在于,步骤A6中更新粒子速度按照以下公式进行:
式中:
表示第n次迭代时第i个粒子第d维的速度,表示第n+1次迭代时第i个粒子第d维的速度,表示第n次迭代时第i个粒子第d维的值,表示第n次迭代时第i个粒子的粒子个体极值第d维的值,表示第n次迭代时群体全局极值在第d维的值,d=1,2,...,D表示粒子的维度,总共D维,i=1,2,...,m,m为种群规模,w为惯性权重,c1是粒子跟踪自己历史最优值的权重系数,c2是粒子跟踪群体最优值的权重系数,r1、r2是[0,1]之间的随机数。
6.根据权利要求3所述的基于基音周期混合特征参数的声纹识别方法,其特征在于,更新粒子位置按照以下方法进行:
针对第n+1次迭代时第i个粒子第d维的值而言,先按照计算位置状态改变概率;然后随机产生一个(0,1)之间的随机数rand(),如果 否则
其中表示第n次迭代时第i个粒子第d维的速度,表示第n+1次迭代时第i个粒子第d维的值。
7.根据权利要求1所述的基于多类型组合特征参数的声纹识别方法,其特征在于,步骤S2中预加重滤波器的参数u取0.95,分帧采用的帧长为256,帧移为100,窗函数采用汉明窗。
8.根据权利要求1所述的基于多类型组合特征参数的声纹识别方法,其特征在于,步骤S1中利用录音软件Cool Edit录制小语音库,去除静音段,并将噪声衰减10dB,其中采用频率为16KHz,量化比特为16bit的wav文件。
CN201510268390.5A 2015-05-25 2015-05-25 基于基音周期混合特征参数的声纹识别方法 Active CN104900235B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510268390.5A CN104900235B (zh) 2015-05-25 2015-05-25 基于基音周期混合特征参数的声纹识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510268390.5A CN104900235B (zh) 2015-05-25 2015-05-25 基于基音周期混合特征参数的声纹识别方法

Publications (2)

Publication Number Publication Date
CN104900235A true CN104900235A (zh) 2015-09-09
CN104900235B CN104900235B (zh) 2019-05-28

Family

ID=54032865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510268390.5A Active CN104900235B (zh) 2015-05-25 2015-05-25 基于基音周期混合特征参数的声纹识别方法

Country Status (1)

Country Link
CN (1) CN104900235B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782500A (zh) * 2016-12-23 2017-05-31 电子科技大学 一种基于基音周期和mfcc的融合特征参数提取方法
CN107039051A (zh) * 2016-02-03 2017-08-11 重庆工商职业学院 基于蚁群优化的基音频率检测方法
CN107045875A (zh) * 2016-02-03 2017-08-15 重庆工商职业学院 基于遗传算法的基音频率检测方法
CN107704969A (zh) * 2017-10-18 2018-02-16 南京邮电大学 一种基于加权朴素贝叶斯算法的物流需求预测方法
CN107945807A (zh) * 2016-10-12 2018-04-20 厦门雅迅网络股份有限公司 基于静音游程的语音识别方法及其系统
CN108257592A (zh) * 2018-01-11 2018-07-06 广州势必可赢网络科技有限公司 一种基于长短期记忆模型的人声分割方法及系统
CN108564967A (zh) * 2018-03-14 2018-09-21 南京邮电大学 面向哭声检测系统的Mel能量声纹特征提取方法
CN108922556A (zh) * 2018-07-16 2018-11-30 百度在线网络技术(北京)有限公司 声音处理方法、装置及设备
CN109102813A (zh) * 2017-06-21 2018-12-28 北京搜狗科技发展有限公司 声纹识别方法、装置、电子设备和存储介质
CN109816144A (zh) * 2018-12-18 2019-05-28 广东电网有限责任公司 分布式内存并行计算优化深度信念网络的短期负荷预测方法
CN110336637A (zh) * 2019-07-15 2019-10-15 北京航空航天大学 一种无人机干扰信号特征选择方法
CN110415707A (zh) * 2019-04-12 2019-11-05 杭州电子科技大学 一种基于语音特征融合和gmm的说话人识别方法
CN111341327A (zh) * 2020-02-28 2020-06-26 广州国音智能科技有限公司 一种基于粒子群算法的说话人语音识别方法、装置和设备
CN111489763A (zh) * 2020-04-13 2020-08-04 武汉大学 一种基于gmm模型的复杂环境下说话人识别自适应方法
WO2020181824A1 (zh) * 2019-03-12 2020-09-17 平安科技(深圳)有限公司 声纹识别方法、装置、设备以及计算机可读存储介质
CN113129918A (zh) * 2021-04-15 2021-07-16 浙江大学 联合波束形成和深度复数U-Net网络的语音去混响方法
CN113160836A (zh) * 2021-03-29 2021-07-23 安徽理工大学 矿用排水泵噪声多时域特征联合分析方法
CN116705036A (zh) * 2023-08-08 2023-09-05 成都信息工程大学 一种基于多层次特征融合的短语音说话人识别方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048058A (ja) * 2004-08-06 2006-02-16 Motorola Inc 多言語による名称の音声認識のための方法とシステム
CN101178897A (zh) * 2007-12-05 2008-05-14 浙江大学 利用基频包络剔除情感语音的说话人识别方法
CN102324232A (zh) * 2011-09-12 2012-01-18 辽宁工业大学 基于高斯混合模型的声纹识别方法及系统
CN102543073A (zh) * 2010-12-10 2012-07-04 上海上大海润信息系统有限公司 一种沪语语音识别信息处理方法
CN102800316A (zh) * 2012-08-30 2012-11-28 重庆大学 基于神经网络的声纹识别系统的最优码本设计方法
CN103219998A (zh) * 2013-03-27 2013-07-24 哈尔滨工业大学 一种多通道压缩感知框架下的混合参数估计方法
CN103236260A (zh) * 2013-03-29 2013-08-07 京东方科技集团股份有限公司 语音识别系统
CN104112165A (zh) * 2014-05-19 2014-10-22 浙江工业大学 基于多目标离散粒子群的智能配电网故障恢复方法
CN104157290A (zh) * 2014-08-19 2014-11-19 大连理工大学 一种基于深度学习的说话人识别方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048058A (ja) * 2004-08-06 2006-02-16 Motorola Inc 多言語による名称の音声認識のための方法とシステム
CN101178897A (zh) * 2007-12-05 2008-05-14 浙江大学 利用基频包络剔除情感语音的说话人识别方法
CN102543073A (zh) * 2010-12-10 2012-07-04 上海上大海润信息系统有限公司 一种沪语语音识别信息处理方法
CN102324232A (zh) * 2011-09-12 2012-01-18 辽宁工业大学 基于高斯混合模型的声纹识别方法及系统
CN102800316A (zh) * 2012-08-30 2012-11-28 重庆大学 基于神经网络的声纹识别系统的最优码本设计方法
CN103219998A (zh) * 2013-03-27 2013-07-24 哈尔滨工业大学 一种多通道压缩感知框架下的混合参数估计方法
CN103236260A (zh) * 2013-03-29 2013-08-07 京东方科技集团股份有限公司 语音识别系统
CN104112165A (zh) * 2014-05-19 2014-10-22 浙江工业大学 基于多目标离散粒子群的智能配电网故障恢复方法
CN104157290A (zh) * 2014-08-19 2014-11-19 大连理工大学 一种基于深度学习的说话人识别方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
FENGHUA WANG,LI YANG: ""SPEAKER VERIFICATION SYSTEM USING THE COMBINATION OF FEATURE PARAMETERS BASED ON C#"", 《BROADBAND NETWORK AND MULTIMEDIA TECHNOLOGY 2010 3RD IEEE INTERNATIONAL CONFERENCE》 *
ZHIFENG WANG ET AL: ""A GMM-UBM based algorithm for Identifying Recording Device"", 《IEEE》 *
周国鑫,高勇: ""基于GMM-UBM模型的说话人辨识研究"", 《无线电工程》 *
曹红兵 等: ""无线传感网中多传感器特征融合算法研究"", 《电子与信息学报》 *
杨瑞请,刘光远: ""基于BPSO的四种生理信号的情感状态识别"", 《计算机科学》 *
郭慧娟: "声纹识别的特征参数提取", 《太原师范学院学报(自然科学版)》 *
鲍焕军 郑方: ""基于GMM-UBM和SVM说话人辨认系统及融合的分析"", 《清华大学学报(自然科学版)》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045875B (zh) * 2016-02-03 2019-12-06 重庆工商职业学院 基于遗传算法的基音频率检测方法
CN107039051A (zh) * 2016-02-03 2017-08-11 重庆工商职业学院 基于蚁群优化的基音频率检测方法
CN107045875A (zh) * 2016-02-03 2017-08-15 重庆工商职业学院 基于遗传算法的基音频率检测方法
CN107945807A (zh) * 2016-10-12 2018-04-20 厦门雅迅网络股份有限公司 基于静音游程的语音识别方法及其系统
CN106782500A (zh) * 2016-12-23 2017-05-31 电子科技大学 一种基于基音周期和mfcc的融合特征参数提取方法
CN109102813B (zh) * 2017-06-21 2021-06-22 北京搜狗科技发展有限公司 声纹识别方法、装置、电子设备和存储介质
CN109102813A (zh) * 2017-06-21 2018-12-28 北京搜狗科技发展有限公司 声纹识别方法、装置、电子设备和存储介质
CN107704969A (zh) * 2017-10-18 2018-02-16 南京邮电大学 一种基于加权朴素贝叶斯算法的物流需求预测方法
CN108257592A (zh) * 2018-01-11 2018-07-06 广州势必可赢网络科技有限公司 一种基于长短期记忆模型的人声分割方法及系统
CN108564967A (zh) * 2018-03-14 2018-09-21 南京邮电大学 面向哭声检测系统的Mel能量声纹特征提取方法
CN108564967B (zh) * 2018-03-14 2021-05-18 南京邮电大学 面向哭声检测系统的Mel能量声纹特征提取方法
CN108922556B (zh) * 2018-07-16 2019-08-27 百度在线网络技术(北京)有限公司 声音处理方法、装置及设备
CN108922556A (zh) * 2018-07-16 2018-11-30 百度在线网络技术(北京)有限公司 声音处理方法、装置及设备
CN109816144A (zh) * 2018-12-18 2019-05-28 广东电网有限责任公司 分布式内存并行计算优化深度信念网络的短期负荷预测方法
WO2020181824A1 (zh) * 2019-03-12 2020-09-17 平安科技(深圳)有限公司 声纹识别方法、装置、设备以及计算机可读存储介质
CN110415707A (zh) * 2019-04-12 2019-11-05 杭州电子科技大学 一种基于语音特征融合和gmm的说话人识别方法
CN110415707B (zh) * 2019-04-12 2021-11-26 杭州电子科技大学 一种基于语音特征融合和gmm的说话人识别方法
CN110336637A (zh) * 2019-07-15 2019-10-15 北京航空航天大学 一种无人机干扰信号特征选择方法
CN111341327A (zh) * 2020-02-28 2020-06-26 广州国音智能科技有限公司 一种基于粒子群算法的说话人语音识别方法、装置和设备
CN111489763A (zh) * 2020-04-13 2020-08-04 武汉大学 一种基于gmm模型的复杂环境下说话人识别自适应方法
CN111489763B (zh) * 2020-04-13 2023-06-20 武汉大学 一种基于gmm模型的复杂环境下说话人识别自适应方法
CN113160836A (zh) * 2021-03-29 2021-07-23 安徽理工大学 矿用排水泵噪声多时域特征联合分析方法
CN113129918A (zh) * 2021-04-15 2021-07-16 浙江大学 联合波束形成和深度复数U-Net网络的语音去混响方法
CN116705036A (zh) * 2023-08-08 2023-09-05 成都信息工程大学 一种基于多层次特征融合的短语音说话人识别方法
CN116705036B (zh) * 2023-08-08 2023-10-27 成都信息工程大学 一种基于多层次特征融合的短语音说话人识别方法

Also Published As

Publication number Publication date
CN104900235B (zh) 2019-05-28

Similar Documents

Publication Publication Date Title
CN104900235A (zh) 基于基音周期混合特征参数的声纹识别方法
CN104835498B (zh) 基于多类型组合特征参数的声纹识别方法
EP3719798B1 (en) Voiceprint recognition method and device based on memorability bottleneck feature
CN107610707B (zh) 一种声纹识别方法及装置
CN102800316B (zh) 基于神经网络的声纹识别系统的最优码本设计方法
US8160877B1 (en) Hierarchical real-time speaker recognition for biometric VoIP verification and targeting
EP3594940B1 (en) Training method for voice data set, computer device and computer readable storage medium
CN101923855A (zh) 文本无关的声纹识别系统
CN104021789A (zh) 一种利用短时时频值的自适应端点检测方法
Das et al. Bangladeshi dialect recognition using Mel frequency cepstral coefficient, delta, delta-delta and Gaussian mixture model
Jiao et al. Convex weighting criteria for speaking rate estimation
Su et al. Convolutional neural network for robust pitch determination
Besbes et al. Multi-class SVM for stressed speech recognition
Pati et al. Speaker information from subband energies of linear prediction residual
Aroon et al. Speaker recognition system using Gaussian Mixture model
Zhao et al. Spoofing Detection Using Adaptive Weighting Framework and Clustering Analysis.
CN116665649A (zh) 基于韵律特征的合成语音检测方法
Rodman et al. Forensic speaker identification based on spectral moments
Herrera-Camacho et al. Design and testing of a corpus for forensic speaker recognition using MFCC, GMM and MLE
Islam et al. Neural-Response-Based Text-Dependent speaker identification under noisy conditions
Blok et al. IFE: NN-aided instantaneous pitch estimation
Shanmugapriya et al. Deep neural network based speaker verification system using features from glottal activity regions
Srinivas LFBNN: robust and hybrid training algorithm to neural network for hybrid features-enabled speaker recognition system
Lipeika Optimization of formant feature based speech recognition
Vasudev et al. Speaker identification using FBCC in Malayalam language

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210202

Address after: Room 801, 85 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province

Patentee after: Yami Technology (Guangzhou) Co.,Ltd.

Address before: 400044 No. 174 Shapingba street, Shapingba District, Chongqing

Patentee before: Chongqing University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231201

Address after: 1701, No. 688 Dalian Road, Yangpu District, Shanghai, 200082 (nominal floor is 20 floors)

Patentee after: XIAOVO TECHNOLOGY CO.,LTD.

Address before: 200120 4th floor, building 1, no.1-9, Lane 99, Shenmei Road, Pudong New Area, Shanghai

Patentee before: Shanghai Zhijun Technology Co.,Ltd.

Effective date of registration: 20231201

Address after: 200120 4th floor, building 1, no.1-9, Lane 99, Shenmei Road, Pudong New Area, Shanghai

Patentee after: Shanghai Zhijun Technology Co.,Ltd.

Address before: Room 801, 85 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province

Patentee before: Yami Technology (Guangzhou) Co.,Ltd.