CN106340298A - 融合内容识别和话者识别的声纹解锁方法 - Google Patents

融合内容识别和话者识别的声纹解锁方法 Download PDF

Info

Publication number
CN106340298A
CN106340298A CN201510391231.4A CN201510391231A CN106340298A CN 106340298 A CN106340298 A CN 106340298A CN 201510391231 A CN201510391231 A CN 201510391231A CN 106340298 A CN106340298 A CN 106340298A
Authority
CN
China
Prior art keywords
voice
frame
speech
key
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510391231.4A
Other languages
English (en)
Inventor
郭逾
李千目
许小强
李德强
陈晗婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201510391231.4A priority Critical patent/CN106340298A/zh
Publication of CN106340298A publication Critical patent/CN106340298A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

本发明公开了一种融合内容识别和话者识别的声纹解锁方法。该方法包括以下步骤:步骤1,建立密钥语音样本库和话者语音样本库,并建立相应的密钥样本识别模板和话者样本识别模板;步骤2,设定密钥,系统根据设定密钥组合密钥样本,形成当前密钥识别模板;步骤3,解锁时,通过麦克风采集语音信号,对输入语音信号进行预处理,并分别提取语音的内容识别特征参数和话者识别特征参数;步骤4,将输入语音的内容识别特征参数与当前密钥模板比对,同时将输入语音的话者识别特征参数与话者样本库模板比对,并综合两项比对结果进行判决是否授权解锁。本发明的方法具备较高的安全性能,同时包含了文本密钥和生理密钥的安全性,且计算简单,易于实现,移植性强。

Description

融合内容识别和话者识别的声纹解锁方法
技术领域
本发明涉及的是一种声纹解锁方法,特别是一种融合内容识别和话者识别的复合声纹解锁方法。
背景技术
声纹锁是将声纹识别技术应用于门禁系统而形成的一种锁。声纹解锁建立在声纹识别技术的基础之上,是声纹识别技术的一个具体的应用。在日本等国家的使用已经比较普遍,他们将声纹解锁在较为关键的门禁系统,实现隐私保护。
声纹解锁方法主要基于声纹识别技术实现。声纹识别主要分为说话人识别以及语音识别,由于说话人发音器官的生理差异及后天的行为差异,可以通过说话人识别能够对语音的话者是否为指定说话人进行判别。由于汉字(字母、数字)发音具有固定性和规律性,通过语音识别能够对语音所包含内容是否为指定内容进行判别。
识别系统一般由预处理、特征提取、模型建模、特征匹配判决四部分组成。
(1)预处理
语音信号的预处理主要包括预加重、加窗分帧以及有效语音帧提取。
(2)语音信号的预处理和特征提取
特征提取就是提取能够有效表征语音内容特征或说话人特征的参数。大部分采用的特征都是从语音信号模型中得到,这些特征既包含语音内容特征,又包含说话人的个性特征。
(3)模型建模
模型的建立包括模型结构的表示和模型参数的最优化算法。常用的建模模型包括矢量量化,模板匹配法,隐马尔可夫模型,高斯混合马尔可夫模型,人工神经网络方法等。
(4)特征匹配判决
对于输入的语音信号提取特征后,与实现建立的模型进行匹配识别,以判断输入信号是否为样本语音内容或样本说话人。
当前的声纹解锁主要集中在说话人确认方面,即单一确认输入语音的话者是否为样本语音库中的话者。由于说话人的语音信息可复制性较强,切获得较为容易,大部分声纹解锁并未取得很好的效果。
发明内容
本发明的目的在于提供一种安全性能高的融合语音内容识别和说话人确认的声纹解锁方法。
实现本发明目的的技术解决方案为:一种融合内容识别和话者识别的声纹解锁方法,包括以下步骤:
步骤1、建立密钥语音样本库和话者语音样本库,其中密钥语音样本库包括孤立的汉字语音、英文语音和数字语音,话者语音样本库存储授权解锁人的语音;所述话者语音样本库中每个话者语音样本均超过60s。
步骤2、建立样本库中密钥语音样本的识别模板和话者语音样本的识别模板;具体为:
步骤2-1、对语音数据进行预加重处理以提升语音的高频部分,具体采用一阶滤波器实现预加重,预加重函数为:
H(z)=1-αz-1
其中α为预加重系数,z为变量;
步骤2-2、对语音数据进行分帧、加窗处理,所述语音帧长为512点,帧移256点,窗函数采用汉明窗,窗函数为:
其中N为语音帧帧长;
步骤2-3、对密钥样本语音端点进行检测,提取有效语音帧,密钥样本语音端点检测采用短时TEO能量算法进行有效语音帧检测,短时TEO能量函数为:
E i = Σ n = 0 N - 1 ψ 2 [ x ( n ) ]
其中i为帧序号,N为语音帧帧长,x(n)为语音信号采样值,ψ[x(n)]为短时TEO能量算子,它的具体形式为
ψ[x(n)]=x2(n)-x(n-1)·x(n+1)
设定检测阈值ThrE,公式为
ThrE=α1·Eavg
其中Eavg为所有帧的平均TEO能量,α1为端点检测阈值的系数;
当Ei>ThrE时,判定为语音帧,否则判定为非语音帧;
步骤2-4、对话者样本语音进行端点进行检测,提取有效语音帧;具体采用频域能量特性检测,仅提取语音的元音帧作为有效语音帧;
采用频域能量特性检测,提取语音的元音帧作为有效语音帧的具体步骤为:
步骤2-4-1、将提取的帧信号x(n)进行快速傅立叶变换得到频谱X(k),具体函数为:
X ( k ) = Σ n = 0 N - 1 x ( n ) e - j 2 π k n / N
其中N为语音帧帧长,x(n)为语音信号采样值,k为频谱X(k)对应的频点;
步骤2-4-2、确定每帧频谱X(k)在290-4000Hz频率范围内的频域能量,记做FEi
FE i = Σ f = 290 4000 | P ( f ) | 2
其中i为帧号,P(f)为X(k)对应的幅度谱;
步骤2-4-3、设定检验阀值ThrSbec,公式为
ThrFE=α2·FEavg
其中FEavg所有帧的平均频域能量,α2为端点检测阈值的系数;
当FEk>ThrFE时,判定为语音帧,否则判定为非语音帧。
步骤2-5、特征参数提取,利用步骤2-3判定的有效语音帧提取语音的内容识别特征参数,利用步骤2-4判定的有效语音帧提取语音的话者识别特征参数,两者特征参数均采用梅尔频率倒谱系数进行提取;特征参数提取的具体步骤为:
步骤2-5-1、对每帧语音信号x(n)进行快速傅立叶变换得到频谱X(k),具体函数为:
X ( k ) = Σ n = 0 N - 1 x ( n ) e - j 2 π k n / N
其中N为语音帧帧长,x(n)为语音信号采样值,k为频谱X(k)对应的频点;
步骤2-5-2、把得到的X(k)通过Mel三角滤波器组得到Mel频率并进行对数处理,得到对数频谱S(m),具体函数为:
S ( m ) = l n ( Σ k = 0 N - 1 | X ( k ) | 2 H m ( k ) ) , 0 ≤ m ≤ M
其中M为滤波器组中三角滤波器个数,Hm(k)为滤波器函数,其具体形式为
H m ( k ) 0 , k < f ( m - 1 ) 2 ( k - f ( m - 1 ) ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m - 1 ) &le; k &le; f ( m ) 2 ( f ( m + 1 ) - k ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m ) &le; k &le; f ( m + 1 ) 0 , k &GreaterEqual; f ( m + 1 )
其中f(m)为三角滤波器的中心频率;
步骤2-5-3、将得到的对数谱S(m)经过离散余弦变换得到梅尔频率倒谱系数,函数为:
c m f c c ( t ) = &Sigma; m = 0 M S ( m ) c o s ( &pi; t ( m + 1 / 2 ) / M )
其中t为梅尔频率倒谱系数的阶数,所述梅尔频率倒谱系数即为所要提取的特征参数。
步骤2-6、对特征参数进行建模,根据步骤2-5提取的语音内容识别特征参数和话者识别特征参数,分别建立密钥识别模型和话者识别模型。
密钥识别模型和话者识别模型均采用矢量量化模型进行参数建模,参数建模采用基于分裂的LBG算法设计矢量量化码本,具体步骤为:
步骤2-6-1、设定码本和迭代训练参数:设全部输入训练矢量X的集合为S,M1为全部输入训练矢量X的个数;设置码本的尺寸J、迭代算法的最大迭代次数Lmax、畸变改进阈值δ;
步骤2-6-2、提取出所有帧的特征矢量的均值作为第一个码字矢量将码本根据分裂规则,形成J个码字,分裂函数为:
Y 1 ( 2 ) = Y 1 ( 0 ) ( 1 + &epsiv; ) Y 1 ( 1 ) = Y 1 ( 0 ) ( 1 - &epsiv; )
其中ε为分裂函数的扰乱系数;
步骤2-6-3、根据步骤2-6-2的码本,求出平均失真最小条件下的所有区域边界Si(i=1,2,......,J),根据最邻近准则将训练序列S分成J个子集即当下式成立:
d ( X , Y i ( m - 1 ) ) &le; d ( X , Y i ( m - 1 ) ) &ForAll; i , i &NotEqual; 1
其中X为输入的训练矢量,m代表输入的第m个特征矢量,表示第m个特征矢量的第i个码字;
步骤2-6-4、确定总畸变Dm,所用公式为:
D m = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) )
步骤2-6-5、确定畸变改进量ΔDm的相对值δ(m),所用公式为:
&delta; ( m ) = &Delta;D ( m ) D ( m ) = | D ( m - 1 ) - D ( m ) | D ( m )
步骤2-6-6、确定新码本的码字所用公式为:
Y J ( m ) = 1 N i &Sigma; X &Element; S i ( m ) X
步骤2-6-7、判断δ(m)<δ,若是,转入执行步骤2-6-9;否则,转入执行步骤2-6-8;
步骤2-6-8、判断m<Lmax,若否,转入执行步骤2-6-9;否则m=m+1,转入执行步骤2-6-4;
步骤2-6-9、迭代终止,输出作为最终的码字矢量,作为VQ模板。
步骤3、设定当前密钥,当前密钥由密钥语音样本库中n个样本构成,并将该n个样本线性组合形成当前密钥的识别模型,n为正整数;
步骤4、利用麦克风采集输入的语音信号,判断输入信号是否有效,无效则提示重新输入,有效则执行步骤5;具体为:
步骤4-1、麦克风采集语音信号;
步骤4-2、判断输入语音时长,时长高于1s则输入语音判定有效,进入步骤4-3,否则判定无效,提示重新输入语音;
步骤4-3、判断输入语音是否存在振幅变化,若有变化,则认为存在有效语音输入,判定有效,进入步骤5,若无变化则判定无效,提示重新输入语音;
步骤4-4、判断提示重新输入语音的次数是否达到n次,如果达到则进行强制锁死,需要n秒后自动解除锁死或管理员进入系统解除锁死;如果没有达到n次,则不处理。
步骤5、对有效的输入的语音信号进行预处理,并分别提取说话人特征参数和语音内容特征参数;具体步骤为:
步骤5-1、对输入语音数据进行预加重处理以提升语音的高频部分,具体采用一阶滤波器实现预加重,预加重函数为:
H(z)=1-αz-1
步骤5-2、对经过步骤5-1处理后的语音数据进行分帧、加窗处理,所述语音帧长为512点,帧移256点,窗函数采用汉明窗,窗函数为:
步骤5-3、对经过步骤5-2的语音数据进行端点进行检测,提取用于内容识别的有效语音帧,针对语音内容识别特性,采用短时TEO能量测算法进行有效语音帧检测,短时TEO能量函数为:
E i = &Sigma; n = 0 N - 1 &psi; 2 &lsqb; x ( n ) &rsqb;
ψ[x(n)]为短时TEO能量算子,它的具体形式为
ψ[x(n)]=x2(n)-x(n-1)·x(n+1)
设定检测阈值ThrE,公式为
ThrE=α1·Eavg
其中Eavg所有帧的平均TEO能量;
当Ek>ThrE时,判定为语音帧,否则判定为非语音帧;
步骤5-4、对经过步骤5-2的语音数据进行端点进行检测,提取用于话者识别的有效语音帧,采用频域能量特性检测,仅提取语音的元音帧作为有效语音帧;具体步骤为:
步骤5-4-1、将帧信号x(n)进行快速傅立叶变换得到频谱X(k)具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤5-4-2、计算每帧频谱X(k)在290-4000Hz频率范围内的频域能量,记做FEi
FE i = &Sigma; f = 290 4000 | P ( f ) | 2
步骤5-4-3、设定检验阀值ThrSbec,公式为
ThrFE=α2·FEavg
其中FEavg为所有帧的平均频域能量,当FEk>ThrFE时,判定为语音帧,否则判定为非语音帧;
步骤5-5、特征参数提取,利用步骤5-3判定的有效语音帧提取语音的内容识别特征参数,利用步骤5-4判定的有效语音帧提取语音的话者识别特征参数,两者特征参数均采用梅尔频率倒谱系数,具体步骤为:
步骤5-5-1、对每帧语音信号x(n)进行快速傅立叶变换(FFT)得到频谱X(k),具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤5-5-2、把得到X(k)的通过Mel三角滤波器组得到Mel频率并通过对数处理,得到对数频谱S(m),具体函数为:
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 H m ( k ) ) , 0 &le; m &le; M
Hm(k)为滤波器函数,其具体形式为:
H m ( k ) 0 , k < f ( m - 1 ) 2 ( k - f ( m - 1 ) ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m - 1 ) &le; k &le; f ( m ) 2 ( f ( m + 1 ) - k ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m ) &le; k &le; f ( m + 1 ) 0 , k &GreaterEqual; f ( m + 1 )
步骤5-5-3、将得到的对数谱S(m)经过离散余弦变换得到梅尔频率倒谱系数,函数为:
c m f c c ( t ) = &Sigma; m = 0 M S ( m ) c o s ( &pi; t ( m + 1 / 2 ) / M )
梅尔频率倒谱系数即为所要提取的特征参数。
步骤6、将输入语音的内容识别特征参数与当前密钥模板进行匹配识别,并给出匹配结果;并将输入语音的话者识别特征参数与话者样本库中话者模板进行匹配识别,并给出匹配结果;具体步骤为:
步骤6-1、进行话者识别,设X={x1,x2......xT}是根据步骤5提取的说话人特征参数,共T帧,在步骤2中说话人样本库训练得到的码书为:{B1,B2......BN},N为样本库中说话人的个数,每个码书包含J个码本;
步骤6-1-1、依次计算输入特征矢量与每个码书的失真距离D
D ( n ) = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) ) ( n &le; N )
步骤6-1-2、判断D(n)是否达到确认阈值,若达到则话者识别结果返回确认成功;若未达到,则结果返回确认失败;
步骤6-2、进行语音内容识别,设X={x1,x2......xT}是根据步骤5提取语音内容特征参数,共T帧;在步骤2中密钥样本库训练得到的码书为:{B1,B2......BK},K为样本密钥的个数,每个码书包含J个码本;根据步骤3组合成当前密钥,提取当前密钥的码书{B1,B2......BC},C为当前密钥包含的密钥样本数;
步骤6-2-1、依次计算输入特征矢量与每个码书的失真距离D,所用公式为:
D ( o ) = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) ) ( o &le; C )
步骤6-2-2、判断D(o)是否达到确认阈值,若达到则内容确认结果返回确认成功;若未达到,则结果返回确认失败。
步骤7、对内容识别结果和话者识别结果进行综合判决,如果判决失效则提示重新输入语音并转到步骤4,如果判决有效则解锁。具体为:
1)当话者识别反馈D(n)和内容确认反馈D(o)同时为成功确认,则解锁;否则提示输入错误,提示重新输入;
2)提示重新输入语音达到n次,则进行强制锁死,需要n秒后自动解除锁死或管理员进入系统解除锁死;否则不处理。
本发明与现有技术相比,其显著优点为:(1)本发明的方法安全性强,相对于指纹、虹膜、语音等不可变且可复制特征,增加了可变的语音内容密钥,管理人员能够根据样本库中的文字样本,自主设定并周期性更新声纹解锁需要的语音内容密钥;(2)本发明的方法合理利用说话人信息特征和语音结构特征,在提高该技术安全性和实用性的同时,减小了系统消耗;(3)本发明的方法应用面广,系统构架简单且易于实现,可以用于身份鉴定、智能家居控制等领域;(4)本发明的方法使用简便,可以通过远程控制实现加(解)锁。
附图说明
图1是本发明融合内容识别和话者识别的声纹解锁方法的流程图。
图2是建立样本库中密钥样本识别模板的流程图。
图3是建立样本库中话者样本识别模板的流程图。
图4是输入信号判断流程图。
图5是提取适用于说话人识别和语音内容识别的特征参数流程图。
图6是语音内容确认匹配识别流程图。
图7是话者识别匹配流程图。
图8是综合判决流程图。
图9是MFCC特征参数提取流程图。
图10是矢量量化模型建模流程图。
具体实施方式
结合图1,本发明融合内容识别和话者识别的声纹解锁方法包括以下步骤:
步骤1、建立密钥语音样本库和话者语音样本库,其中密钥语音样本库包括孤立的汉字语音、英文语音和数字语音,话者语音样本库存储授权解锁人的语音,每个话者语音样本均超过60s;
步骤2、建立样本库中密钥语音样本的识别模板和话者语音样本的识别模板,结合图2和图3,建立样本库中密钥语音样本的识别模板和话者语音样本的识别模板具体步骤为:
步骤2-1、对语音数据进行预加重处理以提升语音的高频部分,具体采用一阶滤波器实现预加重,预加重函数为:
H(z)=1-αz-1
步骤2-2、对语音数据进行分帧、加窗处理,所述语音帧长为512点,帧移256点,窗函数采用汉明窗,窗函数为:
步骤2-3、对密钥样本语音进行端点进行检测,提取有效语音帧。针对语音内容识别特性,密钥样本语音端点检测采用短时TEO能量测算法进行有效语音帧检测,短时TEO能量函数为:
E i = &Sigma; n = 0 N - 1 &psi; 2 &lsqb; x ( n ) &rsqb;
ψ[x(n)]为短时TEO能量算子,它的具体形式为
ψ[x(n)]=x2(n)-x(n-1)·x(n+1)
设定检测阈值ThrE,公式为
ThrE=α1·Eavg
其中Eavg所有帧的平均TEO能量。
当Ek>ThrE时,判定为语音帧,否则判定为非语音帧;
步骤2-4、对话者样本语音进行端点进行检测,提取有效语音帧。针对说话人语音样本以及说话人识别的特性,采用频域能量特性检测,仅提取语音的元音帧作为有效语音帧;具体步骤为:
步骤2-4-1、将提取的帧信号x(n)进行快速傅立叶变换得到频谱X(k)具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤2-4-2、计算每帧频谱X(k)在290-4000Hz频率范围内的频域能量,记做FEi
FE i = &Sigma; f = 290 4000 | P ( f ) | 2
P(f)为X(k)对应的幅度谱;
步骤2-4-3、设定检验阀值ThrSbec,公式为
ThrFE=α2·FEavg
其中FEavg所有帧的平均频域能量。
当FEk>ThrFE时,判定为语音帧,否则判定为非语音帧;
步骤2-5、特征参数提取。利用步骤2-3判定的有效语音帧提取语音的内容识别特征参数,利用步骤2-4判定的有效语音帧提取语音的话者识别特征参数。两者特征参数均采用梅尔频率倒谱系数,提取方法相同。具体步骤为:
步骤2-5-1、对每帧语音信号x(n)进行快速傅立叶变换(FFT)得到频谱X(k),具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤2-5-2、把得到X(k)的通过Mel三角滤波器组得到Mel频率并通过对数处理,得到对数频谱S(m),具体函数为:
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 H m ( k ) ) , 0 &le; m &le; M
Hm(k)为滤波器函数,它的具体形式为
H m ( k ) 0 , k < f ( m - 1 ) 2 ( k - f ( m - 1 ) ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m - 1 ) &le; k &le; f ( m ) 2 ( f ( m + 1 ) - k ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m ) &le; k &le; f ( m + 1 ) 0 , k &GreaterEqual; f ( m + 1 )
步骤2-5-3、将得到的对数谱S(m)经过离散余弦变换得到梅尔频率倒谱系数,函数为:
c m f c c ( t ) = &Sigma; m = 0 M S ( m ) c o s ( &pi; t ( m + 1 / 2 ) / M )
梅尔频率倒谱系数即为所要提取的特征参数。
步骤2-6、特征参数建模。对根据步骤2-5提取的语音内容识别特征参数和话者识别特征参数,分别建立密钥识别模型和话者识别模型。密钥识别模型和话者识别模型均采用矢量量化模型进行参数建模。
参数建模采用基于分裂的LBG算法设计矢量量化码本。具体步骤为:
步骤2-6-1、设定码本和迭代训练参数:设全部输入训练矢量X的集合为S,M1为全部输入训练矢量X的个数;设置码本的尺寸J、迭代算法的最大迭代次数Lmax、畸变改进阈值δ。
步骤2-6-2、提取出所有帧的特征矢量的均值作为第一个码字矢量将当前码本根据分裂规则,形成J个码字。分裂函数为:
Y 1 ( 2 ) = Y 1 ( 0 ) ( 1 + &epsiv; ) Y 1 ( 1 ) = Y 1 ( 0 ) ( 1 - &epsiv; )
步骤2-6-3、根据2-6-2码本,求出平均失真最小条件下的所有区域边界Si(i=1,2,......,J)。根据最邻近准则将训练序列S分成J个子集即当下式成立:
d ( X , Y i ( m - 1 ) ) &le; d ( X , Y i ( m - 1 ) ) &ForAll; i , i &NotEqual; 1
步骤2-6-4、计算总畸变Dm
D m = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) )
步骤2-6-5、计算畸变改进量ΔDm的相对值δ(m)
&delta; ( m ) = &Delta;D ( m ) D ( m ) = | D ( m - 1 ) - D ( m ) | D ( m )
步骤2-6-6、计算新码本的码字
Y J ( m ) = 1 N i &Sigma; X &Element; S i ( m ) X
步骤2-6-7、判断δ(m)<δ,若是,转入执行步骤2-6-9;否则,转入执行步骤2-6-8
步骤2-6-8、判断m<Lmax,若否,转入执行步骤2-6-9;否则m=m+1,转入执行步骤2-6-4
步骤2-6-9、迭代终止,输出作为最终的码字矢量,作为VQ模板。
步骤3、设定当前密钥,当前密钥由密钥语音样本库中n个样本构成,并将该n个样本线性组合形成当前密钥的识别模型,n为正整数;
步骤4、通过麦克风采集输入的语音信号,判断输入信号是否有效,无效提示重新输入,有效则继续。结合图4,检测输入信号是否有效具体步骤为:
步骤4-1、提示输入语音,等待麦克风采集语音信号
步骤4-2、判断输入语音时长,时长高于1s则输入语音判定有效,进入第三步,否则判定无效,提示重新输入语音。
步骤4-3、判断输入语音是否存在振幅变化,若有变化,则认为存在有效语音输入,判定有效,进入步骤5,若无变化则判定无效,提示重新输入语音。
步骤4-4、提示重新输入语音达到n次,则进行强制锁死,需要n秒后自动解除锁死或管理员进入系统解除锁死。
步骤5、对有效的输入的语音信号进行预处理,并分别提取输入语音的内容识别特征参数和话者识别特征参数,结合图5,提取输入语音的内容识别特征参数和话者识别特征参数具体步骤为:
步骤5-1、对语音数据进行预加重处理以提升语音的高频部分,具体采用一阶滤波器实现预加重,预加重函数为:
H(z)=1-αz-1
步骤5-2、对语音数据进行分帧、加窗处理,所述语音帧长为512点,帧移256点,窗函数采用汉明窗,窗函数为:
步骤5-3、对经过步骤5-2的语音数据进行端点进行检测,提取用于内容识别的有效语音帧。针对语音内容识别特性,采用短时TEO能量测算法进行有效语音帧检测,短时TEO能量函数为:
E i = &Sigma; n = 0 N - 1 &psi; 2 &lsqb; x ( n ) &rsqb;
ψ[x(n)]为短时TEO能量算子,它的具体形式为
ψ[x(n)]=x2(n)-x(n-1)·x(n+1)
设定检测阈值ThrE,公式为
ThrE=α1·Eavg
其中Eavg所有帧的平均TEO能量
当Ek>ThrE时,判定为语音帧,否则判定为非语音帧;
步骤5-4、对经过步骤5-2的语音数据进行端点进行检测,提取用于话者识别的有效语音帧。针对话者识别的特性,采用频域能量特性检测,仅提取语音的元音帧作为有效语音帧;具体步骤为:
步骤5-4-1、将提取的帧信号x(n)进行快速傅立叶变换得到频谱X(k)具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤5-4-2、计算每帧频谱X(k)在290-4000Hz频率范围内的频域能量,记做FEi
FE i = &Sigma; f = 290 4000 | P ( f ) | 2
步骤5-4-3、设定检验阀值ThrSbec,公式为:
ThrFE=α2·FEavg
其中FEavg所有帧的平均频域能量,当FEk>ThrFE时,判定为语音帧,否则判定为非语音帧;
步骤5-5、特征参数提取,步骤5-5特征参数提取。利用步骤5-3判定的有效语音帧提取语音的内容识别特征参数,利用步骤5-4判定的有效语音帧提取语音的话者识别特征参数。两者特征参数均采用梅尔频率倒谱系数,提取方法相同。具体步骤为:
步骤5-5-1、对每帧语音信号x(n)进行快速傅立叶变换(FFT)得到频谱X(k),具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤5-5-2、把得到X(k)的通过Mel三角滤波器组得到Mel频率并通过对数处理,得到对数频谱S(m),具体函数为:
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 H m ( k ) ) , 0 &le; m &le; M
Hm(k)为滤波器函数,它的具体形式为
H m ( k ) 0 , k < f ( m - 1 ) 2 ( k - f ( m - 1 ) ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m - 1 ) &le; k &le; f ( m ) 2 ( f ( m + 1 ) - k ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m ) &le; k &le; f ( m + 1 ) 0 , k &GreaterEqual; f ( m + 1 )
步骤5-5-3、将得到的对数谱S(m)经过离散余弦变换得到梅尔频率倒谱系数,函数为:
c m f c c ( t ) = &Sigma; m = 0 M S ( m ) c o s ( &pi; t ( m + 1 / 2 ) / M )
梅尔频率倒谱系数即为所要提取的特征参数。
步骤6、输入语音的语音内容特征参数与当前密钥模板进行匹配识别,输入语音的说话人特征参数与样本库中说话人模板进行匹配识别,并给出匹配结果。结合图6和图7,具体步骤为:
步骤6-1、首先进行话者识别,设X={x1,x2......xT}是根据步骤5提取的说话人特征参数,共T帧。在步骤2中说话人样本库训练得到的码书为:{B1,B2......BN},N为样本库中说话人的个数,每个码书包含J个码本。
步骤6-1-1、依次计算输入特征矢量与每个码书的失真距离D
D ( n ) = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) ) ( n &le; N )
步骤6-1-2判断D(n)是否达到确认阈值,若达到则话者识别结果返回确认成功;若未达到,则结果返回确认失败。
步骤6-2、其次进行语音内容识别,设X={x1,x2......xT}是根据步骤5提取语音内容特征参数,共T帧。在步骤2中密钥样本库训练得到的码书为:{B1,B2......BK},K为样本密钥的个数,每个码书包含J个码本。根据步骤3组合成当前密钥,提取当前密钥的码书{B1,B2......BC},C为当前密钥包含的密钥样本数。
步骤6-2-1、依次计算输入特征矢量与每个码书的失真距离D
D ( o ) = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) ) ( o &le; C )
步骤6-2-2、判断D(o)是否达到确认阈值,若达到则内容确认结果返回确认成功;若未达到,则结果返回确认失败。
步骤7、综合内容匹配结果和话者匹配结果进行判决,判决失效则转到步骤4,有效则解锁。结合图8,进行综合判决的具体步骤为:
步骤7-1、若话者识别反馈D(n)和内容确认反馈D(o)同时为成功确认,则解锁;否则提示输入错误,提示重新输入
步骤7-2、提示重新输入语音达到n次,则进行强制锁死,需要n秒后自动解除锁死或管理员进入系统解除锁死。
下面结合实施例对本发明做进一步详细的描述:
实施例1
下面结合一个实例对本发明作进一步详细描述。
密钥语音样本库中包含26个英文字母,不区分大小写。话者语音样本库中包含5个说话人样本语音。密钥样本库语音和话者样本库语音均在实验室环境中录制。设定系统参数,建立密钥语音样本的识别模板和话者语音样本的识别模板,系统参数设置如下表:
表1语音建模参数设置
根据表1设置参数,得到26个密钥样本识别模板以及5个话者识别模板。设置当前密钥为asdf,系统线性组合密钥样本a、密钥样本s、密钥样本d、密钥样本f识别模板,组成当前密钥识别模板。
系统设置完毕后,申请解锁的说话人对麦克风输入语音,该说话人为样本库中5个话者之一,输入语音内容为qwer。经过判断后,满足有效输入语音条件,开始对输入语音信号进行处理,分别提取输入语音的内容识别特征参数和话者识别特征参数。具体参数设置如下表:
表2输入语音特征参数提取
系统将输入语音的内容识别特征参数与当前密钥模板进行匹配,将输入语音的话者识别特征参数与话者样本库中话者模型进行匹配,匹配阈值如下表:
表3特征参数匹配阈值
经过系统计算,输入语音的话者识别匹配值为3212,输入语音的内容识别匹配值为132,话者识别返回结果为成功,内容识别返回结果为失败,综合两者结果,系统判定解锁失败。
系统提示重新输入语音。
由上可知,本发明的方法安全性强,增加了可变的语音内容密钥,管理人员能够根据样本库中的文字样本,自主设定并周期性更新声纹解锁需要的语音内容密钥;本发明的方法使用简便,可以通过远程控制实现加(解)锁。

Claims (10)

1.一种融合内容识别和话者识别的声纹解锁方法,其特征在于,包括以下步骤:
步骤1、建立密钥语音样本库和话者语音样本库,其中密钥语音样本库包括孤立的汉字语音、英文语音和数字语音,话者语音样本库存储授权解锁人的语音;
步骤2、建立样本库中密钥语音样本的识别模板和话者语音样本的识别模板;
步骤3、设定当前密钥,当前密钥由密钥语音样本库中n个样本构成,并将该n个样本线性组合形成当前密钥的识别模型,n为正整数;
步骤4、利用麦克风采集输入的语音信号,判断输入信号是否有效,无效则提示重新输入,有效则执行步骤5;
步骤5、对有效的输入的语音信号进行预处理,并分别提取说话人特征参数和语音内容特征参数;
步骤6、将输入语音的内容识别特征参数与当前密钥模板进行匹配识别,并给出匹配结果;并将输入语音的话者识别特征参数与话者样本库中话者模板进行匹配识别,并给出匹配结果;
步骤7、对内容识别结果和话者识别结果进行综合判决,如果判决失效则提示重新输入语音并转到步骤4,如果判决有效则解锁。
2.根据权利要求1所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤1所述话者语音样本库中每个话者语音样本均超过60s。
3.根据权利要求1所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤2中建立样本库中密钥语音样本的识别模板和话者样本的识别模板的步骤具体为:
步骤2‐1、对语音数据进行预加重处理以提升语音的高频部分,具体采用一阶滤波器实现预加重,预加重函数为:
H(z)=1-αz-1
其中α为预加重系数,z为变量;
步骤2-2、对语音数据进行分帧、加窗处理,所述语音帧长为512点,帧移256点,窗函数采用汉明窗,窗函数为:
其中N为语音帧帧长;
步骤2-3、对密钥样本语音端点进行检测,提取有效语音帧,密钥样本语音端点检测采用短时TEO能量算法进行有效语音帧检测,短时TEO能量函数为:
E i = &Sigma; n = 0 N - 1 &psi; 2 &lsqb; x ( n ) &rsqb;
其中i为帧序号,N为语音帧帧长,x(n)为语音信号采样值,ψ[x(n)]为短时TEO能量算子,它的具体形式为
ψ[x(n)]=x2(n)-x(n-1)·x(n+1)
设定检测阈值ThrE,公式为
ThrE=α1·Eavg
其中Eavg为所有帧的平均TEO能量,α1为端点检测阈值的系数;
当Ei>ThrE时,判定为语音帧,否则判定为非语音帧;
步骤2-4、对话者样本语音进行端点进行检测,提取有效语音帧;具体采用频域能量特性检测,仅提取语音的元音帧作为有效语音帧;
步骤2‐5、特征参数提取,利用步骤2‐3判定的有效语音帧提取语音的内容识别特征参数,利用步骤2‐4判定的有效语音帧提取语音的话者识别特征参数,两者特征参数均采用梅尔频率倒谱系数进行提取;
步骤2-6、对特征参数进行建模,根据步骤2-5提取的语音内容识别特征参数和话者识别特征参数,分别建立密钥识别模型和话者识别模型。
4.根据权利要求3所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤2‐4中采用频域能量特性检测,提取语音的元音帧作为有效语音帧的具体步骤为:
步骤2‐4‐1、将提取的帧信号x(n)进行快速傅立叶变换得到频谱X(k),具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
其中N为语音帧帧长,x(n)为语音信号采样值,k为频谱X(k)对应的频点;
步骤2-4-2、确定每帧频谱X(k)在290-4000Hz频率范围内的频域能量,记做FEi
FE i = &Sigma; f = 290 4000 | P ( f ) | 2
其中i为帧号,P(f)为X(k)对应的幅度谱;
步骤2-4-3、设定检验阀值ThrSbec,公式为
ThrFE=α2·FEavg
其中FEavg所有帧的平均频域能量,α2为端点检测阈值的系数;
当FEk>ThrFE时,判定为语音帧,否则判定为非语音帧。
5.根据权利要求3所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤2‐5特征参数提取的具体步骤为:
步骤2‐5‐1、对每帧语音信号x(n)进行快速傅立叶变换得到频谱X(k),具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
其中N为语音帧帧长,x(n)为语音信号采样值,k为频谱X(k)对应的频点;
步骤2-5-2、把得到的X(k)通过Mel三角滤波器组得到Mel频率并进行对数处理,得到对数频谱S(m),具体函数为:
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 H m ( k ) ) , 0 &le; m &le; M
其中M为滤波器组中三角滤波器个数,Hm(k)为滤波器函数,其具体形式为
H m ( k ) 0 , k < f ( m - 1 ) 2 ( k - f ( m - 1 ) ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m - 1 ) &le; k &le; f ( m ) 2 ( f ( m + 1 ) - k ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m ) &le; k &le; f ( m + 1 ) 0 , k &GreaterEqual; f ( m + 1 )
其中f(m)为三角滤波器的中心频率;
步骤2-5-3、将得到的对数谱S(m)经过离散余弦变换得到梅尔频率倒谱系数,函数为:
c m f c c ( t ) = &Sigma; m = 0 M S ( m ) c o s ( &pi; t ( m + 1 / 2 ) / M )
其中t为梅尔频率倒谱系数的阶数,所述梅尔频率倒谱系数即为所要提取的特征参数。
6.根据权利要求3所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤2‐6中密钥识别模型和话者识别模型均采用矢量量化模型进行参数建模,参数建模采用基于分裂的LBG算法设计矢量量化码本,具体步骤为:
步骤2-6-1、设定码本和迭代训练参数:设全部输入训练矢量X的集合为S,M1为全部输入训练矢量X的个数;设置码本的尺寸J、迭代算法的最大迭代次数Lmax、畸变改进阈值δ;
步骤2-6-2、提取出所有帧的特征矢量的均值作为第一个码字矢量将码本根据分裂规则,形成J个码字,分裂函数为:
Y 1 ( 2 ) = Y 1 ( 0 ) ( 1 + &epsiv; ) Y 1 ( 1 ) = Y 1 ( 0 ) ( 1 - &epsiv; )
其中ε为分裂函数的扰乱系数;
步骤2-6-3、根据步骤2-6-2的码本,求出平均失真最小条件下的所有区域边界Si(i=1,2,......,J),根据最邻近准则将训练序列S分成J个子集即当下式成立:
d ( X , Y i ( m - 1 ) ) &le; d ( X , Y i ( m - 1 ) ) &ForAll; i , i &NotEqual; 1
其中X为输入的训练矢量,m代表输入的第m个特征矢量,Yi m表示第m个特征矢量的第i个码字;
步骤2-6-4、确定总畸变Dm,所用公式为:
D m = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) )
步骤2-6-5、确定畸变改进量ΔDm的相对值δ(m),所用公式为:
&delta; ( m ) = &Delta;D ( m ) D ( m ) = | D ( m - 1 ) - D ( m ) | D ( m )
步骤2-6-6、确定新码本的码字所用公式为:
Y J ( m ) = 1 N i &Sigma; X &Element; S i ( m ) X
步骤2-6-7、判断δ(m)<δ,若是,转入执行步骤2-6-9;否则,转入执行步骤2-6-8;
步骤2-6-8、判断m<Lmax,若否,转入执行步骤2-6-9;否则m=m+1,转入执行步骤2-6-4;
步骤2-6-9、迭代终止,输出作为最终的码字矢量,作为VQ模板。
7.根据权利要求1所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤4通过麦克风采集输入的语音信号,判断输入信号是否有效,无效提示重新输入,有效则继续的步骤为:
步骤4‐1、麦克风采集语音信号;
步骤4‐2、判断输入语音时长,时长高于1s则输入语音判定有效,进入步骤4‐3,否则判定无效,提示重新输入语音;
步骤4‐3、判断输入语音是否存在振幅变化,若有变化,则认为存在有效语音输入,判定有效,进入步骤5,若无变化则判定无效,提示重新输入语音;
步骤4‐4、判断提示重新输入语音的次数是否达到n次,如果达到则进行强制锁死,需要n秒后自动解除锁死或管理员进入系统解除锁死;如果没有达到n次,则不处理。
8.根据权利要求1所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤5对有效的输入的语音信号进行预处理,并提取输入语音的内容识别特征参数和话者识别特征参数的具体步骤为:
步骤5‐1、对输入语音数据进行预加重处理以提升语音的高频部分,具体采用一阶滤波器实现预加重,预加重函数为:
H(z)=1-αz-1
步骤5-2、对经过步骤5-1处理后的语音数据进行分帧、加窗处理,所述语音帧长为512点,帧移256点,窗函数采用汉明窗,窗函数为:
步骤5-3、对经过步骤5-2的语音数据进行端点进行检测,提取用于内容识别的有效语音帧,针对语音内容识别特性,采用短时TEO能量测算法进行有效语音帧检测,短时TEO能量函数为:
E i = &Sigma; n = 0 N - 1 &psi; 2 &lsqb; x ( n ) &rsqb;
ψ[x(n)]为短时TEO能量算子,它的具体形式为
ψ[x(n)]=x2(n)-x(n-1)·x(n+1)
设定检测阈值ThrE,公式为
ThrE=α1·Eavg
其中Eavg所有帧的平均TEO能量;
当Ek>ThrE时,判定为语音帧,否则判定为非语音帧;
步骤5-4、对经过步骤5-2的语音数据进行端点进行检测,提取用于话者识别的有效语音帧,采用频域能量特性检测,仅提取语音的元音帧作为有效语音帧;具体步骤为:
步骤5‐4‐1、将帧信号x(n)进行快速傅立叶变换得到频谱X(k)具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤5-4-2、计算每帧频谱X(k)在290-4000Hz频率范围内的频域能量,记做FEi
FE i = &Sigma; f = 290 4000 | P ( f ) | 2
步骤5-4-3、设定检验阀值ThrSbec,公式为
ThrFE=α2·FEavg
其中FEavg为所有帧的平均频域能量,当FEk>ThrFE时,判定为语音帧,否则判定为非语音帧;
步骤5‐5、特征参数提取,利用步骤5‐3判定的有效语音帧提取语音的内容识别特征参数,利用步骤5‐4判定的有效语音帧提取语音的话者识别特征参数,两者特征参数均采用梅尔频率倒谱系数,具体步骤为:
步骤5‐5‐1、对每帧语音信号x(n)进行快速傅立叶变换(FFT)得到频谱X(k),具体函数为:
X ( k ) = &Sigma; n = 0 N - 1 x ( n ) e - j 2 &pi; k n / N
步骤5-5-2、把得到X(k)的通过Mel三角滤波器组得到Mel频率并通过对数处理,得到对数频谱S(m),具体函数为:
S ( m ) = l n ( &Sigma; k = 0 N - 1 | X ( k ) | 2 H m ( k ) ) , 0 &le; m &le; M
Hm(k)为滤波器函数,其具体形式为:
H m ( k ) 0 , k < f ( m - 1 ) 2 ( k - f ( m - 1 ) ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m - 1 ) &le; k &le; f ( m ) 2 ( f ( m + 1 ) - k ) ( f ( m + 1 ) - f ( m - 1 ) ) ( f ( m ) - f ( m - 1 ) ) , f ( m ) &le; k &le; f ( m + 1 ) 0 , k &GreaterEqual; f ( m + 1 )
步骤5-5-3、将得到的对数谱S(m)经过离散余弦变换得到梅尔频率倒谱系数,函数为:
c m f c c ( t ) = &Sigma; m = 0 M S ( m ) c o s ( &pi; t ( m + 1 / 2 ) / M )
梅尔频率倒谱系数即为所要提取的特征参数。
9.根据权利要求1所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤6输入语音的语音内容特征参数与当前密钥模板进行匹配识别,输入语音的说话人特征参数与样本库中说话人模板进行匹配识别,并给出匹配结果的步骤为:
步骤6-1、进行话者识别,设X={x1,x2......xT}是根据步骤5提取的说话人特征参数,共T帧,在步骤2中说话人样本库训练得到的码书为:{B1,B2......BN},N为样本库中说话人的个数,每个码书包含J个码本;
步骤6-1-1、依次计算输入特征矢量与每个码书的失真距离D
D ( n ) = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) ) , ( n &le; N )
步骤6-1-2、判断D(n)是否达到确认阈值,若达到则话者识别结果返回确认成功;若未达到,则结果返回确认失败;
步骤6-2、进行语音内容识别,设X={x1,x2......xT}是根据步骤5提取语音内容特征参数,共T帧;在步骤2中密钥样本库训练得到的码书为:{B1,B2......BK},K为样本密钥的个数,每个码书包含J个码本;根据步骤3组合成当前密钥,提取当前密钥的码书{B1,B2......BC},C为当前密钥包含的密钥样本数;
步骤6-2-1、依次计算输入特征矢量与每个码书的失真距离D,所用公式为:
D ( o ) = &Sigma; i = 1 J &Sigma; x &Element; S i ( m ) d ( X , Y i ( m - 1 ) ) , ( o &le; C )
步骤6-2-2、判断D(o)是否达到确认阈值,若达到则内容确认结果返回确认成功;若未达到,则结果返回确认失败。
10.根据权利要求1所述的融合内容识别和话者识别的声纹解锁方法,其特征在于,步骤7综合内容匹配结果和话者匹配结果进行判决,具体为:
1)当话者识别反馈D(n)和内容确认反馈D(o)同时为成功确认,则解锁;否则提示输入错误,提示重新输入;
2)提示重新输入语音达到n次,则进行强制锁死,需要n秒后自动解除锁死或管理员进入系统解除锁死;否则不处理。
CN201510391231.4A 2015-07-06 2015-07-06 融合内容识别和话者识别的声纹解锁方法 Pending CN106340298A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510391231.4A CN106340298A (zh) 2015-07-06 2015-07-06 融合内容识别和话者识别的声纹解锁方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510391231.4A CN106340298A (zh) 2015-07-06 2015-07-06 融合内容识别和话者识别的声纹解锁方法

Publications (1)

Publication Number Publication Date
CN106340298A true CN106340298A (zh) 2017-01-18

Family

ID=57826008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510391231.4A Pending CN106340298A (zh) 2015-07-06 2015-07-06 融合内容识别和话者识别的声纹解锁方法

Country Status (1)

Country Link
CN (1) CN106340298A (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106847281A (zh) * 2017-02-26 2017-06-13 上海新柏石智能科技股份有限公司 基于语音模糊识别技术的智能家居语音控制系统及方法
CN106960669A (zh) * 2017-04-13 2017-07-18 成都步共享科技有限公司 一种共享自行车的声纹识别方法
CN107039036A (zh) * 2017-02-17 2017-08-11 南京邮电大学 一种基于自动编码深度置信网络的高质量说话人识别方法
CN107154259A (zh) * 2017-04-27 2017-09-12 江门市新会区博上科技有限公司 一种声音接收模块以及应用该模块的声纹识别门锁
CN107360319A (zh) * 2017-06-30 2017-11-17 上海青橙实业有限公司 声纹解锁方法和装置
CN107393539A (zh) * 2017-07-17 2017-11-24 傅筱萸 一种声音密码控制方法
CN107978311A (zh) * 2017-11-24 2018-05-01 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置以及语音交互设备
CN108320752A (zh) * 2018-01-26 2018-07-24 青岛易方德物联科技有限公司 应用于社区门禁的云声纹识别系统及其方法
CN108648760A (zh) * 2018-04-17 2018-10-12 四川长虹电器股份有限公司 实时声纹辨识系统与方法
CN109003613A (zh) * 2018-09-02 2018-12-14 珠海横琴现联盛科技发展有限公司 结合空间信息的声纹识别支付信息防伪方法
CN109040466A (zh) * 2018-09-20 2018-12-18 李庆湧 基于语音的移动终端解锁方法以及装置
CN109446775A (zh) * 2018-10-18 2019-03-08 维沃移动通信有限公司 一种声控方法及电子设备
CN109671185A (zh) * 2017-10-17 2019-04-23 杭州海康威视数字技术股份有限公司 一种门禁控制方法及装置
CN110310645A (zh) * 2019-07-02 2019-10-08 上海迥灵信息技术有限公司 智能控制系统的语音控制方法、装置和存储介质
CN110428853A (zh) * 2019-08-30 2019-11-08 北京太极华保科技股份有限公司 语音活性检测方法、语音活性检测装置以及电子设备
WO2020006886A1 (zh) * 2018-07-06 2020-01-09 平安科技(深圳)有限公司 门禁系统的识别方法、装置、门禁系统及存储介质
CN111081255A (zh) * 2019-12-31 2020-04-28 苏州思必驰信息科技有限公司 说话人确认方法和装置
CN111179941A (zh) * 2020-01-06 2020-05-19 科大讯飞股份有限公司 智能设备唤醒方法、注册方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1089045A (zh) * 1992-12-30 1994-07-06 北京海淀施达测控技术公司 汉字文本的计算机语音监听及校对系统
CN102231277A (zh) * 2011-06-29 2011-11-02 电子科技大学 基于声纹识别的移动终端隐私保护方法
CN102509547A (zh) * 2011-12-29 2012-06-20 辽宁工业大学 基于矢量量化的声纹识别方法及系统
CN104021790A (zh) * 2013-02-28 2014-09-03 联想(北京)有限公司 声控解锁方法以及电子设备
CN104658533A (zh) * 2013-11-20 2015-05-27 中兴通讯股份有限公司 一种终端解锁的方法、装置及终端

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1089045A (zh) * 1992-12-30 1994-07-06 北京海淀施达测控技术公司 汉字文本的计算机语音监听及校对系统
CN102231277A (zh) * 2011-06-29 2011-11-02 电子科技大学 基于声纹识别的移动终端隐私保护方法
CN102509547A (zh) * 2011-12-29 2012-06-20 辽宁工业大学 基于矢量量化的声纹识别方法及系统
CN104021790A (zh) * 2013-02-28 2014-09-03 联想(北京)有限公司 声控解锁方法以及电子设备
CN104658533A (zh) * 2013-11-20 2015-05-27 中兴通讯股份有限公司 一种终端解锁的方法、装置及终端

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107039036A (zh) * 2017-02-17 2017-08-11 南京邮电大学 一种基于自动编码深度置信网络的高质量说话人识别方法
CN106847281A (zh) * 2017-02-26 2017-06-13 上海新柏石智能科技股份有限公司 基于语音模糊识别技术的智能家居语音控制系统及方法
CN106960669A (zh) * 2017-04-13 2017-07-18 成都步共享科技有限公司 一种共享自行车的声纹识别方法
CN107154259A (zh) * 2017-04-27 2017-09-12 江门市新会区博上科技有限公司 一种声音接收模块以及应用该模块的声纹识别门锁
CN107360319A (zh) * 2017-06-30 2017-11-17 上海青橙实业有限公司 声纹解锁方法和装置
CN107393539A (zh) * 2017-07-17 2017-11-24 傅筱萸 一种声音密码控制方法
CN109671185B (zh) * 2017-10-17 2021-12-14 杭州海康威视数字技术股份有限公司 一种门禁控制方法及装置
CN109671185A (zh) * 2017-10-17 2019-04-23 杭州海康威视数字技术股份有限公司 一种门禁控制方法及装置
CN107978311A (zh) * 2017-11-24 2018-05-01 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置以及语音交互设备
CN107978311B (zh) * 2017-11-24 2020-08-25 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置以及语音交互设备
CN108320752A (zh) * 2018-01-26 2018-07-24 青岛易方德物联科技有限公司 应用于社区门禁的云声纹识别系统及其方法
CN108320752B (zh) * 2018-01-26 2020-12-15 青岛易方德物联科技有限公司 应用于社区门禁的云声纹识别系统及其方法
CN108648760A (zh) * 2018-04-17 2018-10-12 四川长虹电器股份有限公司 实时声纹辨识系统与方法
WO2020006886A1 (zh) * 2018-07-06 2020-01-09 平安科技(深圳)有限公司 门禁系统的识别方法、装置、门禁系统及存储介质
CN109003613A (zh) * 2018-09-02 2018-12-14 珠海横琴现联盛科技发展有限公司 结合空间信息的声纹识别支付信息防伪方法
CN109040466A (zh) * 2018-09-20 2018-12-18 李庆湧 基于语音的移动终端解锁方法以及装置
CN109040466B (zh) * 2018-09-20 2021-03-26 李庆湧 基于语音的移动终端解锁方法、装置、电子设备以及存储介质
CN109446775A (zh) * 2018-10-18 2019-03-08 维沃移动通信有限公司 一种声控方法及电子设备
CN110310645A (zh) * 2019-07-02 2019-10-08 上海迥灵信息技术有限公司 智能控制系统的语音控制方法、装置和存储介质
CN110428853A (zh) * 2019-08-30 2019-11-08 北京太极华保科技股份有限公司 语音活性检测方法、语音活性检测装置以及电子设备
CN111081255A (zh) * 2019-12-31 2020-04-28 苏州思必驰信息科技有限公司 说话人确认方法和装置
CN111179941A (zh) * 2020-01-06 2020-05-19 科大讯飞股份有限公司 智能设备唤醒方法、注册方法及装置

Similar Documents

Publication Publication Date Title
CN106340298A (zh) 融合内容识别和话者识别的声纹解锁方法
US10476872B2 (en) Joint speaker authentication and key phrase identification
CN109378002B (zh) 声纹验证的方法、装置、计算机设备和存储介质
CN107240397A (zh) 一种基于声纹识别的智能锁及其语音识别方法和系统
CN104978507B (zh) 一种基于声纹识别的智能测井评价专家系统身份认证方法
CN102034288B (zh) 基于多生物特征识别的智能门禁系统
Cheng et al. Speech emotion recognition using gaussian mixture model
CN111462729B (zh) 基于音素对数似然比和稀疏表征的快速语种识别方法
CN1170239C (zh) 掌上声纹验证方法
CN113129897A (zh) 一种基于注意力机制循环神经网络的声纹识别方法
CN102968990A (zh) 说话人识别方法和系统
CN109961794A (zh) 一种基于模型聚类的分层说话人识别方法
CN107481736A (zh) 一种声纹身份认证装置及其认证优化方法和系统
Ramgire et al. A survey on speaker recognition with various feature extraction and classification techniques
CN109544745A (zh) 一种智能门锁控制方法、装置及系统
Goh et al. Robust computer voice recognition using improved MFCC algorithm
CN110298159B (zh) 一种智能手机动态手势身份认证方法
CN112908340A (zh) 一种基于全局-局部加窗的声音特征快速提取方法
CN116612754A (zh) 一种应用于车辆的语音指令识别方法及装置
Hu et al. Speaker Recognition Based on 3DCNN-LSTM.
Limkar et al. Speaker recognition using VQ and DTW
Abushariah et al. Voice based automatic person identification system using vector quantization
Wu et al. Research on voiceprint recognition based on weighted clustering recognition SVM algorithm
CN114003883A (zh) 一种便携式的数字化身份验证设备及身份验证方法
Punchihewa et al. Voice command interpretation for robot control

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170118

RJ01 Rejection of invention patent application after publication