CN103220286A - 基于动态密码语音的身份确认系统及方法 - Google Patents

基于动态密码语音的身份确认系统及方法 Download PDF

Info

Publication number
CN103220286A
CN103220286A CN2013101235550A CN201310123555A CN103220286A CN 103220286 A CN103220286 A CN 103220286A CN 2013101235550 A CN2013101235550 A CN 2013101235550A CN 201310123555 A CN201310123555 A CN 201310123555A CN 103220286 A CN103220286 A CN 103220286A
Authority
CN
China
Prior art keywords
password
character
claimant
hmm
identity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101235550A
Other languages
English (en)
Other versions
CN103220286B (zh
Inventor
郑方
邬晓钧
张陈昊
王军
瞿世才
熊音
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing D Ear Technologies Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48817750&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN103220286(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Individual filed Critical Individual
Priority to CN201310123555.0A priority Critical patent/CN103220286B/zh
Publication of CN103220286A publication Critical patent/CN103220286A/zh
Application granted granted Critical
Publication of CN103220286B publication Critical patent/CN103220286B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种基于动态密码语音的身份确认系统及方法。该系统包括接收请求人的身份确认请求的请求接收模块、生成动态密码的动态密码生成模块、生成关于请求人的密码声学HMM的密码声学HMM生成模块、计算请求人的身份综合置信度CL的置信度计算模块、对请求人的身份进行判断的请求人身份确认模块。该身份确认方法基于该系统实现。本发明通过不同HMM的融合及置信度校验的方式,将动态密码语音内容认证与请求人语音身份认证两者相结合,实现了对用户身份的双重验证,提高了远程身份认证的准确性、安全性和可靠性,给用户提供了一种安全、便捷的远程认证服务。

Description

基于动态密码语音的身份确认系统及方法
技术领域
本发明涉及一种基于动态密码语音的身份确认系统及基于该系统实现的身份确认方法,属于计算机及信息服务技术领域。
背景技术
伴随互联网、移动设备的深入发展,便捷的移动服务深刻影响和改变了人们的生活方式,而实现安全可靠的移动服务,首要解决的问题就是用户身份的验证,尤其是在移动金融服务中。
目前,无论是在互联网,还是在移动手机应用中,常用动态密码技术来实现用户的远程登录,但这种技术无法克服用户设备被盗用的情况。
声纹识别技术用于用户身份验证的研究已有几十年,声纹是对语音中所蕴含的、能唯一表征和标识说话人身份的特征参数及基于这些特征参数所建立的声纹模型的总称,声纹识别技术(VPR)属于生物识别技术之一,主要包括声纹建模和声纹识别两个部分,其中:目前,声纹建模普遍采用静态声纹模型,即设定模型中混合数,采用常用算法进行适应,得到说话人模型,然后进行声纹识别,即根据某段语音识别说话人身份。例如,专利号为200710199192.3的中国发明专利公开了一种说话人认证的验证方法及相应验证装置,其通过输入的语音与记录(注册)的说话人模型(模板)进行声学特征比较,来最终完成验证。
但是,从实际实施中可以发现,这种建立声纹模型的方法对于语音信号的信噪比、声音变异、信道等要求都是较高的,从而大大限制了声纹识别的实际应用。
由此可见,鉴于如今远程登录技术的庞大需求以及远程登录的安全性和可靠性的要求,设计出一种安全性、可靠性高的用户身份认证服务系统及方法是目前急需解决的问题。
发明内容
本发明的目的在于提供一种基于动态密码语音的身份确认系统及方法,该系统及方法将动态密码认证与语音身份认证两者相结合,实现了对用户身份的双重验证,提高了远程身份认证的准确性、安全性和可靠性。
为了实现上述目的,本发明采用了以下技术方案:
一种基于动态密码语音的身份确认系统,其特征在于:它包括请求接收模块、动态密码生成模块、密码声学HMM生成模块、置信度计算模块、请求人身份确认模块,其中:该请求接收模块,用于在请求人经由用户端成功登录后,接收该用户端向该服务器端发送的关于该请求人的身份确认请求;该动态密码生成模块,用于在该请求接收模块接收到该请求人的身份确认请求后,生成一个动态密码并将该密码以文本形式发送到该用户端;该密码声学HMM生成模块,用于基于用户字符语音库,通过全局字符声学HMM自适应训练出关于该请求人的密码声学HMM;该置信度计算模块,用于基于该用户端传送来的关于该请求人的密码语音信号,通过该全局字符声学HMM和该请求人的该密码声学HMM,计算出该请求人的身份综合置信度CL,其中:该密码语音信号为该请求人根据该用户端接收到的以文本形式显示出的该密码而读出该密码时由该用户端捕获到的;该请求人身份确认模块,用于通过计算出的该请求人的身份综合置信度CL,对该请求人的身份进行判断,将身份确认结果反馈回该用户端。
所述用户字符语音库存储所述服务器端的各个用户的字符语音信息,每个用户的该字符语音信息为该用户对于规定字符中的各个字符的至少一个有效的字符发音,该规定字符与密码构成字符一致;所述全局字符声学HMM基于若干人对于该规定字符中各个字符的字符发音,通过通用HMM自适应训练得到。
对于所述密码声学HMM生成模块,所述基于用户字符语音库,通过全局字符声学HMM自适应训练出关于请求人的密码声学HMM,具体为:从所述用户字符语音库中找到所述请求人的字符语音信息,根据所述密码所构成的字符,从该字符语音信息中挑选出相应的字符发音;基于挑选出的所有该字符发音,通过所述全局字符声学HMM自适应训练出关于所述请求人的密码声学HMM。
对于所述置信度计算模块,所述基于用户端传送来的关于请求人的密码语音信号,通过全局字符声学HMM和请求人的密码声学HMM,计算出请求人的身份综合置信度CL,具体为:
将接收到的所述请求人的所述密码语音信号分为n帧语音数据xi,i=1,2,…,n;
对于各帧语音数据xi,在所述请求人的所述密码声学HMM上进行测试得到密码内容置信度CL1(i),然后对所有帧语音数据的密码内容置信度求均值,得到密码内容置信度均值
Figure BDA00003032101100031
对于各帧语音数据xi,按照下式1)在所述请求人的所述密码声学HMM与所述全局字符声学HMM上分别进行似然计算后相减得到请求人身份语音置信度CL2(i),然后对所有帧语音数据的请求人身份语音置信度求均值,得到请求人身份语音置信度均值
Figure BDA00003032101100032
CL2(i)=logp(xipp)-logp(xioaoa)   1)
其中,在式1)中,μp、δp分别为针对所述步骤1中的所述请求人建立的所述密码声学HMM的均值、方差参数,μoa、δoa分别为所述全局字符声学HMM的均值、方差参数,logp(·)为似然函数;
按照下式2)计算所述请求人的身份综合置信度CL:
CL = 1 1 + e - ( CL 1 ‾ + α · CL 2 ‾ ) - - - 2 )
其中,在式2)中,α为该密码内容置信度均值
Figure BDA00003032101100034
与该请求人身份语音置信度均值
Figure BDA00003032101100035
的调节参数,α为实数。
对于所述请求人身份确认模块,所述通过计算出的请求人的身份综合置信度CL,对请求人的身份进行判断,具体为:若计算出的所述请求人的身份综合置信度CL大于等于设定的置信度阈值,则所述身份确认结果为确认所述请求人为所述服务器端的用户,允许所述请求人进入所述服务器端进行操作;若计算出的所述请求人的身份综合置信度CL小于设定的置信度阈值,则所述身份确认结果为确认所述请求人不是所述服务器端的用户,拒绝所述请求人进入所述服务器端进行操作。
一种基于动态密码语音的身份确认方法,其特征在于,它包括如下步骤:
步骤1:请求人经由用户端成功登录后,该用户端向该服务器端发送关于该请求人的身份确认请求;
步骤2:该服务器端接收该请求人的身份确认请求,生成一个动态密码并将该密码以文本形式发送到该用户端,该服务器端基于用户字符语音库,通过全局字符声学HMM自适应训练出关于该请求人的密码声学HMM;
步骤3:根据该用户端接收到的以文本形式显示出的该密码,该请求人读出该密码,然后该用户端将捕获到的关于该请求人的密码语音信号传送给该服务器端;
步骤4:该服务器端基于接收到的该请求人的该密码语音信号,通过该全局字符声学HMM和该请求人的该密码声学HMM,计算出该请求人的身份综合置信度CL;
步骤5:通过计算出的该请求人的身份综合置信度CL,对该请求人的身份进行判断,将身份确认结果反馈回该用户端。
所述用户字符语音库存储所述服务器端的各个用户的字符语音信息,每个用户的该字符语音信息为该用户对于规定字符中的各个字符的至少一个有效的字符发音,该规定字符与密码构成字符一致;所述全局字符声学HMM基于若干人对于该规定字符中各个字符的字符发音,通过通用HMM自适应训练得到。
在所述步骤2中,所述基于所述用户字符语音库,通过所述全局字符声学HMM自适应训练出关于所述请求人的密码声学HMM具体包括如下步骤:从所述用户字符语音库中找到所述请求人的字符语音信息,根据所述密码所构成的字符,从该字符语音信息中挑选出相应的字符发音;基于挑选出的所有该字符发音,通过所述全局字符声学HMM自适应训练出关于所述请求人的密码声学HMM。
所述步骤4具体包括步骤:
将接收到的所述请求人的所述密码语音信号分为n帧语音数据xi,i=1,2,…,n;
对于各帧语音数据xi,在所述请求人的所述密码声学HMM上进行测试得到密码内容置信度CL1(i),然后对所有帧语音数据的密码内容置信度求均值,得到密码内容置信度均值
Figure BDA00003032101100041
对于各帧语音数据xi,按照下式1)在所述请求人的所述密码声学HMM与所述全局字符声学HMM上分别进行似然计算后相减得到请求人身份语音置信度CL2(i),然后对所有帧语音数据的请求人身份语音置信度求均值,得到请求人身份语音置信度均值
Figure BDA00003032101100042
CL2(i)=logp(xipp)-logp(xioaoa)   1)
其中,在式1)中,μp、δp分别为针对所述步骤1中的所述请求人建立的所述密码声学HMM的均值、方差参数,μoa、δoa分别为所述全局字符声学HMM的均值、方差参数,logp(·)为似然函数;
按照下式2)计算所述请求人的身份综合置信度CL:
CL = 1 1 + e - ( CL 1 ‾ + α · CL 2 ‾ ) - - - 2 )
其中,在式2)中,α为该密码内容置信度均值
Figure BDA00003032101100044
与该请求人身份语音置信度均值
Figure BDA00003032101100045
的调节参数,α为实数。
在所述步骤5中:若计算出的所述请求人的身份综合置信度CL大于等于设定的置信度阈值,则所述身份确认结果为确认所述请求人为所述服务器端的用户,允许所述请求人进入所述服务器端进行操作;若计算出的所述请求人的身份综合置信度CL小于设定的置信度阈值,则所述身份确认结果为确认所述请求人不是所述服务器端的用户,拒绝所述请求人进入所述服务器端进行操作。
本发明的优点是:
本发明通过不同HMM(隐马尔科夫模型)的融合及置信度校验的方式,将动态密码语音内容认证与请求人语音身份认证两者相结合,实现了对用户身份的双重验证与保护,提高了远程身份认证的准确性、安全性和可靠性,给用户提供了一种安全、便捷的远程认证服务,本发明可适用于金融、电子银行、电话银行等需要远程身份认证的各个领域。
附图说明
图1是本发明身份确认方法的实现示意图。
图2是请求人的密码声学HMM建模示意图。
具体实施方式
本发明提出了一种基于动态密码语音的身份确认系统,它包括处于服务器端的请求接收模块、动态密码生成模块、密码声学HMM生成模块、置信度计算模块、请求人身份确认模块,其中:
该请求接收模块用于在请求人经由用户端成功登录后,接收该用户端向该服务器端发送的关于该请求人的身份确认请求;
该动态密码生成模块用于在该请求接收模块接收到该请求人的身份确认请求后,生成一个动态密码并将该密码以文本形式发送到该用户端;
该密码声学HMM生成模块用于基于用户字符语音库,通过全局字符声学HMM自适应训练出关于该请求人的密码声学HMM;
该置信度计算模块用于基于该用户端传送来的关于该请求人的密码语音信号,通过该全局字符声学HMM和该请求人的该密码声学HMM,计算出该请求人的身份综合置信度CL,其中:该密码语音信号为该请求人根据该用户端接收到的以文本形式显示出的该密码而读出该密码时由该用户端捕获到的;
该请求人身份确认模块用于通过计算出的该请求人的身份综合置信度CL,对该请求人的身份进行判断,将身份确认结果反馈回该用户端。
基于上述的身份确认系统,本发明还提出了一种基于动态密码语音的身份确认方法,如图1所示,它包括如下步骤:
步骤1:请求人经由用户端成功登录后,该用户端自动向该服务器端发送关于该请求人的身份确认请求;
步骤2:服务器端(如请求接收模块执行)接收该请求人的身份确认请求,服务器端(如动态密码生成模块执行)生成一个动态密码(该动态密码的生成可以采用已知的密码生成技术实现,例如申请号为200580042646.5的中国发明专利申请中公开的一次性密码技术)并将该密码以文本形式发送到该用户端,服务器端(如密码声学HMM生成模块执行)基于用户字符语音库,通过全局字符声学HMM自适应训练出关于该请求人的密码声学HMM(自适应训练出关于该请求人的密码声学HMM这个步骤可与动态密码生成步骤同时执行或在动态密码生成步骤之后执行,图1中示出的是自适应训练出关于该请求人的密码声学HMM这个步骤在动态密码生成步骤之后执行);
步骤3:根据该用户端接收到的以文本形式显示出的该密码,该请求人读出该密码,然后该用户端将捕获到的关于该请求人的密码语音信号传送给该服务器端;
步骤4:服务器端(如置信度计算模块执行)基于接收到的该请求人的该密码语音信号,通过该全局字符声学HMM和该请求人的该密码声学HMM,计算出该请求人的身份综合置信度CL;
步骤5:服务器端(如请求人身份确认模块执行)通过计算出的该请求人的身份综合置信度CL,对该请求人的身份进行判断,将身份确认结果反馈回该用户端。
实际中,在步骤1中,例如,登录需要在用户端输入用户名、登录密码之类的信息,若请求人不是该服务器端成功注册过的用户,则该请求人不会成功登录,即不会向服务器端发出身份确认请求,可见,本发明中的请求人是指在该服务器端成功注册的用户。需要提及的是,若请求人是该服务器端成功注册过的用户,则可在用户端成功登录,但该登录并不意味着请求人可以进入服务器端进行操作。
在实际设计中,用户字符语音库存储服务器端的各个用户的字符语音信息,用于进行身份确认的该字符语音信息可由用户在注册阶段提供,每个用户的该字符语音信息为该用户对于规定字符中的各个字符的至少一个有效的字符发音(在实际中,对于每个字符,有效的字符发音收录的应尽量足够多,例如对每个字符发音的收录数量大于5个,优选10~20个),该规定字符与密码构成字符(密码构成字符即为可构成本发明中动态密码的字符)一致,例如,由于密码一般是由数字和英文字母组成,故在本发明中,该规定字符可设定为26个英文字母和10个阿拉伯数字。
在实际设计中,全局字符声学HMM基于若干人(如10~50人,优选20~30人;这些人可以是用户,也可以是与用户无关的其他人)对于该规定字符中各个字符的字符发音,通过通用HMM自适应训练得到(此处的自适应训练得到该全局字符声学HMM可采用BW(Baum-Welch)算法实现,参见BW算法,维基百科(Baum-Welch algorithm,WIKIPEDIA))。
在步骤2中,基于用户字符语音库,通过全局字符声学HMM自适应训练出关于请求人的密码声学HMM具体包括如下步骤:
服务器端(如密码声学HMM生成模块执行)从用户字符语音库中找到请求人的字符语音信息,根据密码(指动态生成的密码)所构成的字符,从该字符语音信息中挑选出相应的字符发音;
基于挑选出的所有该字符发音,通过全局字符声学HMM自适应训练出关于请求人的密码声学HMM(此处的自适应训练得到请求人的密码声学HMM可采用BW(Baum-Welch)算法实现,参见BW算法,维基百科(Baum-Welchalgorithm,WIKIPEDIA))。
需要说明的是,由于待确认的语音是请求人针对密码的发音,所以,在本发明中,建立请求人关于该密码的HMM能很好地提高身份识别的准确率。
如图2所示,例如,全局字符声学HMM是关于字符1至N发音的模型,生成的动态密码涉及密码字符1至M,因而,建立的密码声学HMM应是从字符1至N中挑选出的、关于密码字符1至M的模型。
在实际设计中,步骤4具体包括步骤:
将接收到的请求人的密码语音信号分为n帧语音数据xi,i=1,2,…,n,n为大于1的正整数;
对于各帧语音数据xi,在请求人的密码声学HMM上进行测试(此处的测试可采用维特比(Viterbi)算法实现,参见维特比算法,维基百科(Viterbialgorithm,WIKIPEDIA))得到密码内容置信度CL1(i),i=1,2,…,n,然后对所有帧语音数据的密码内容置信度求均值,得到密码内容置信度均值
Figure BDA00003032101100071
其中: CL 1 ‾ = Σ i = 1 n CL 1 ( i ) n ;
对于各帧语音数据xi,按照下式1)在请求人的密码声学HMM与全局字符声学HMM上分别进行似然计算后相减得到请求人身份语音置信度CL2(i),i=1,2,…,n,然后对所有帧语音数据的请求人身份语音置信度求均值,得到请求人身份语音置信度均值
Figure BDA00003032101100073
其中:
Figure BDA00003032101100074
CL2(i)=logp(xipp)-logp(xioaoa)   1)
其中,在式1)中,μp、δp分别为针对步骤1中的请求人建立的密码声学HMM的均值、方差参数,μoa、δoa分别为全局字符声学HMM的均值、方差参数,logp(·)为似然函数;
按照下式2)计算请求人的身份综合置信度CL:
CL = 1 1 + e - ( CL 1 ‾ + α · CL 2 ‾ ) - - - 2 )
其中,式2)中,α为该密码内容置信度均值与该请求人身份语音置信度均值
Figure BDA00003032101100083
的调节参数,α为实数。在本发明中,式2)将身份综合置信度CL归一化到了[0,1]范围内,以方便判断。
需要提及的是,由于请求人的密码声学HMM是从全局字符声学HMM上自适应训练得到的,因此,请求人的密码声学HMM与全局字符声学HMM有对应的模型参数,可利用这个参数作为基准,在请求人的密码声学HMM与全局字符声学HMM上分别进行似然计算后相减来得到关于请求人的密码语音信号中的各帧语音数据的请求人身份语音置信度CL2(i),然后求得请求人身份语音置信度均值
Figure BDA00003032101100084
在本发明中,密码内容置信度均值
Figure BDA00003032101100085
用于确认请求人所说的密码是否与服务器端发出的动态密码相符,请求人身份语音置信度均值用于确认请求人发出的语音是否与服务器端存储的关于该请求人的语音相符。
在步骤5中:若计算出的请求人的身份综合置信度CL大于等于设定的置信度阈值,则身份确认结果为确认请求人为服务器端的用户,允许请求人进入服务器端进行操作;若计算出的请求人的身份综合置信度CL小于设定的置信度阈值,则身份确认结果为确认请求人不是服务器端的用户,拒绝请求人进入服务器端进行操作。
本发明的优点是:
本发明通过不同HMM(隐马尔科夫模型)的融合及置信度校验的方式,将动态密码语音内容认证与请求人语音身份认证两者相结合,实现了对用户身份的双重验证与保护,提高了远程身份认证的准确性、安全性和可靠性,给用户提供了一种安全、便捷的远程认证服务,本发明可适用于金融、电子银行、电话银行等需要远程身份认证的各个领域,其中:
1、本发明采用服务器端发送密码文本,用户端返回密码语音的模式,确保了请求人可顺利知晓密码内容,保障了本发明在实际应用中的顺利进行。
2、本发明采用动态建模方式,对每次前来的请求人相应建立其自己的密码声学HMM,且该密码声学HMM与生成的动态密码相关,因此,本发明的这种动态创建密码声学HMM的方式可使得HMM自身更好地发挥声纹识别性能。
3、在本发明中,身份综合置信度通过衡量请求人身份语音置信度均值与密码内容置信度均值得到,密码内容置信度均值可对请求人所说的密码是否与服务器端发出的动态密码相符进行判定(即密码内容判断),而请求人身份语音置信度均值可对请求人发出的语音是否与服务器端存储的关于该请求人的语音相符进行判定(即请求人的用户身份判断),从而很好地从两个方面(动态密码语音内容认证和请求人语音身份认证)对用户的身份进行双重验证,并且,这种密码内容置信度均值与请求人身份语音置信度均值两种置信度计算的方式也使得HMM自身更好地发挥声纹识别性能。
以上所述是本发明较佳实施例及其所运用的技术原理,对于本领域的技术人员来说,在不背离本发明的精神和范围的情况下,任何基于本发明技术方案基础上的等效变换、简单替换等显而易见的改变,均属于本发明保护范围之内。

Claims (10)

1.一种基于动态密码语音的身份确认系统,其特征在于:它包括请求接收模块、动态密码生成模块、密码声学HMM生成模块、置信度计算模块、请求人身份确认模块,其中:
该请求接收模块,用于在请求人经由用户端成功登录后,接收该用户端向该服务器端发送的关于该请求人的身份确认请求;
该动态密码生成模块,用于在该请求接收模块接收到该请求人的身份确认请求后,生成一个动态密码并将该密码以文本形式发送到该用户端;
该密码声学HMM生成模块,用于基于用户字符语音库,通过全局字符声学HMM自适应训练出关于该请求人的密码声学HMM;
该置信度计算模块,用于基于该用户端传送来的关于该请求人的密码语音信号,通过该全局字符声学HMM和该请求人的该密码声学HMM,计算出该请求人的身份综合置信度CL,其中:该密码语音信号为该请求人根据该用户端接收到的以文本形式显示出的该密码而读出该密码时由该用户端捕获到的;
该请求人身份确认模块,用于通过计算出的该请求人的身份综合置信度CL,对该请求人的身份进行判断,将身份确认结果反馈回该用户端。
2.如权利要求1所述的身份确认系统,其特征在于:
所述用户字符语音库存储所述服务器端的各个用户的字符语音信息,每个用户的该字符语音信息为该用户对于规定字符中的各个字符的至少一个有效的字符发音,该规定字符与密码构成字符一致;
所述全局字符声学HMM基于若干人对于该规定字符中各个字符的字符发音,通过通用HMM自适应训练得到。
3.如权利要求2所述的身份确认系统,其特征在于:
对于所述密码声学HMM生成模块,所述基于用户字符语音库,通过全局字符声学HMM自适应训练出关于请求人的密码声学HMM,具体为:
从所述用户字符语音库中找到所述请求人的字符语音信息,根据所述密码所构成的字符,从该字符语音信息中挑选出相应的字符发音;
基于挑选出的所有该字符发音,通过所述全局字符声学HMM自适应训练出关于所述请求人的密码声学HMM。
4.如权利要求1所述的身份确认系统,其特征在于:
对于所述置信度计算模块,所述基于用户端传送来的关于请求人的密码语音信号,通过全局字符声学HMM和请求人的密码声学HMM,计算出请求人的身份综合置信度CL,具体为:
将接收到的所述请求人的所述密码语音信号分为n帧语音数据xi,i=1,2,…,n;
对于各帧语音数据xi,在所述请求人的所述密码声学HMM上进行测试得到密码内容置信度CL1(i),然后对所有帧语音数据的密码内容置信度求均值,得到密码内容置信度均值
Figure FDA00003032101000021
对于各帧语音数据xi,按照下式1)在所述请求人的所述密码声学HMM与所述全局字符声学HMM上分别进行似然计算后相减得到请求人身份语音置信度CL2(i),然后对所有帧语音数据的请求人身份语音置信度求均值,得到请求人身份语音置信度均值
Figure FDA00003032101000022
CL2(i)=logp(xipp)-logp(xioaoa)   1)
其中,在式1)中,μp、δp分别为针对所述步骤1中的所述请求人建立的所述密码声学HMM的均值、方差参数,μoa、δoa分别为所述全局字符声学HMM的均值、方差参数,logp(·)为似然函数;
按照下式2)计算所述请求人的身份综合置信度CL:
CL = 1 1 + e - ( CL 1 ‾ + α · CL 2 ‾ ) - - - 2 )
其中,在式2)中,α为该密码内容置信度均值
Figure FDA00003032101000024
与该请求人身份语音置信度均值的调节参数,α为实数。
5.如权利要求1或4所述的身份确认系统,其特征在于:
对于所述请求人身份确认模块,所述通过计算出的请求人的身份综合置信度CL,对请求人的身份进行判断,具体为:
若计算出的所述请求人的身份综合置信度CL大于等于设定的置信度阈值,则所述身份确认结果为确认所述请求人为所述服务器端的用户,允许所述请求人进入所述服务器端进行操作;若计算出的所述请求人的身份综合置信度CL小于设定的置信度阈值,则所述身份确认结果为确认所述请求人不是所述服务器端的用户,拒绝所述请求人进入所述服务器端进行操作。
6.一种基于动态密码语音的身份确认方法,其特征在于,它包括如下步骤:
步骤1:请求人经由用户端成功登录后,该用户端向该服务器端发送关于该请求人的身份确认请求;
步骤2:该服务器端接收该请求人的身份确认请求,生成一个动态密码并将该密码以文本形式发送到该用户端,该服务器端基于用户字符语音库,通过全局字符声学HMM自适应训练出关于该请求人的密码声学HMM;
步骤3:根据该用户端接收到的以文本形式显示出的该密码,该请求人读出该密码,然后该用户端将捕获到的关于该请求人的密码语音信号传送给该服务器端;
步骤4:该服务器端基于接收到的该请求人的该密码语音信号,通过该全局字符声学HMM和该请求人的该密码声学HMM,计算出该请求人的身份综合置信度CL;
步骤5:通过计算出的该请求人的身份综合置信度CL,对该请求人的身份进行判断,将身份确认结果反馈回该用户端。
7.如权利要求6所述的身份确认方法,其特征在于:
所述用户字符语音库存储所述服务器端的各个用户的字符语音信息,每个用户的该字符语音信息为该用户对于规定字符中的各个字符的至少一个有效的字符发音,该规定字符与密码构成字符一致;
所述全局字符声学HMM基于若干人对于该规定字符中各个字符的字符发音,通过通用HMM自适应训练得到。
8.如权利要求7所述的身份确认方法,其特征在于:
在所述步骤2中,所述基于所述用户字符语音库,通过所述全局字符声学HMM自适应训练出关于所述请求人的密码声学HMM具体包括如下步骤:
从所述用户字符语音库中找到所述请求人的字符语音信息,根据所述密码所构成的字符,从该字符语音信息中挑选出相应的字符发音;
基于挑选出的所有该字符发音,通过所述全局字符声学HMM自适应训练出关于所述请求人的密码声学HMM。
9.如权利要求6所述的身份确认方法,其特征在于:
所述步骤4具体包括步骤:
将接收到的所述请求人的所述密码语音信号分为n帧语音数据xi,i=1,2,…,n;
对于各帧语音数据xi,在所述请求人的所述密码声学HMM上进行测试得到密码内容置信度CL1(i),然后对所有帧语音数据的密码内容置信度求均值,得到密码内容置信度均值
Figure FDA00003032101000031
对于各帧语音数据xi,按照下式1)在所述请求人的所述密码声学HMM与所述全局字符声学HMM上分别进行似然计算后相减得到请求人身份语音置信度CL2(i),然后对所有帧语音数据的请求人身份语音置信度求均值,得到请求人身份语音置信度均值
Figure FDA00003032101000032
CL2(i)=logp(xipp)-logp(xioaoa)   1)
其中,在式1)中,μp、δp分别为针对所述步骤1中的所述请求人建立的所述密码声学HMM的均值、方差参数,μoa、δoa分别为所述全局字符声学HMM的均值、方差参数,logp(·)为似然函数;
按照下式2)计算所述请求人的身份综合置信度CL:
CL = 1 1 + e - ( CL 1 ‾ + α · CL 2 ‾ ) - - - 2 )
其中,在式2)中,α为该密码内容置信度均值
Figure FDA00003032101000042
与该请求人身份语音置信度均值
Figure FDA00003032101000043
的调节参数,α为实数。
10.如权利要求6或9所述的身份确认方法,其特征在于:
在所述步骤5中:若计算出的所述请求人的身份综合置信度CL大于等于设定的置信度阈值,则所述身份确认结果为确认所述请求人为所述服务器端的用户,允许所述请求人进入所述服务器端进行操作;若计算出的所述请求人的身份综合置信度CL小于设定的置信度阈值,则所述身份确认结果为确认所述请求人不是所述服务器端的用户,拒绝所述请求人进入所述服务器端进行操作。
CN201310123555.0A 2013-04-10 2013-04-10 基于动态密码语音的身份确认系统及方法 Active CN103220286B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310123555.0A CN103220286B (zh) 2013-04-10 2013-04-10 基于动态密码语音的身份确认系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310123555.0A CN103220286B (zh) 2013-04-10 2013-04-10 基于动态密码语音的身份确认系统及方法

Publications (2)

Publication Number Publication Date
CN103220286A true CN103220286A (zh) 2013-07-24
CN103220286B CN103220286B (zh) 2015-02-25

Family

ID=48817750

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310123555.0A Active CN103220286B (zh) 2013-04-10 2013-04-10 基于动态密码语音的身份确认系统及方法

Country Status (1)

Country Link
CN (1) CN103220286B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104064189A (zh) * 2014-06-26 2014-09-24 厦门天聪智能软件有限公司 一种声纹动态口令的建模和验证方法
CN104158664A (zh) * 2014-08-11 2014-11-19 北京唐桓科技发展有限公司 一种身份认证方法及系统
CN104168270A (zh) * 2014-07-31 2014-11-26 腾讯科技(深圳)有限公司 身份验证方法、服务器、客户端及系统
CN105225664A (zh) * 2015-09-24 2016-01-06 百度在线网络技术(北京)有限公司 信息验证方法和装置及声音样本的生成方法和装置
CN105894283A (zh) * 2015-01-26 2016-08-24 中兴通讯股份有限公司 一种基于语音控制的移动支付方法和装置
CN106357411A (zh) * 2016-10-14 2017-01-25 深圳天珑无线科技有限公司 一种身份验证方法和装置
CN106782572A (zh) * 2017-01-22 2017-05-31 清华大学 语音密码的认证方法及系统
WO2017162053A1 (zh) * 2016-03-21 2017-09-28 中兴通讯股份有限公司 一种身份认证的方法和装置
CN107517207A (zh) * 2017-03-13 2017-12-26 平安科技(深圳)有限公司 服务器、身份验证方法及计算机可读存储介质
US10276168B2 (en) 2014-07-31 2019-04-30 Tencent Technology (Shenzhen) Company Limited Voiceprint verification method and device
CN110085228A (zh) * 2019-04-28 2019-08-02 广西盖德科技有限公司 语音码应用方法、应用客户端及系统
CN116667993A (zh) * 2023-04-28 2023-08-29 江苏芯信电子科技有限公司 一种基于大数据的区块链身份确认系统及其使用装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080172230A1 (en) * 2005-02-18 2008-07-17 Fujitsu Limited Voice authentication system
CN102737634A (zh) * 2012-05-29 2012-10-17 百度在线网络技术(北京)有限公司 一种基于语音的认证方法及装置
CN102916815A (zh) * 2012-11-07 2013-02-06 华为终端有限公司 用户身份验证的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080172230A1 (en) * 2005-02-18 2008-07-17 Fujitsu Limited Voice authentication system
CN102737634A (zh) * 2012-05-29 2012-10-17 百度在线网络技术(北京)有限公司 一种基于语音的认证方法及装置
CN102916815A (zh) * 2012-11-07 2013-02-06 华为终端有限公司 用户身份验证的方法和装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104064189A (zh) * 2014-06-26 2014-09-24 厦门天聪智能软件有限公司 一种声纹动态口令的建模和验证方法
US10276168B2 (en) 2014-07-31 2019-04-30 Tencent Technology (Shenzhen) Company Limited Voiceprint verification method and device
CN104168270A (zh) * 2014-07-31 2014-11-26 腾讯科技(深圳)有限公司 身份验证方法、服务器、客户端及系统
CN104168270B (zh) * 2014-07-31 2016-01-13 腾讯科技(深圳)有限公司 身份验证方法、服务器、客户端及系统
CN104158664A (zh) * 2014-08-11 2014-11-19 北京唐桓科技发展有限公司 一种身份认证方法及系统
CN105894283A (zh) * 2015-01-26 2016-08-24 中兴通讯股份有限公司 一种基于语音控制的移动支付方法和装置
CN105225664A (zh) * 2015-09-24 2016-01-06 百度在线网络技术(北京)有限公司 信息验证方法和装置及声音样本的生成方法和装置
CN105225664B (zh) * 2015-09-24 2019-12-06 百度在线网络技术(北京)有限公司 信息验证方法和装置及声音样本的生成方法和装置
WO2017162053A1 (zh) * 2016-03-21 2017-09-28 中兴通讯股份有限公司 一种身份认证的方法和装置
CN106357411A (zh) * 2016-10-14 2017-01-25 深圳天珑无线科技有限公司 一种身份验证方法和装置
CN106782572A (zh) * 2017-01-22 2017-05-31 清华大学 语音密码的认证方法及系统
WO2018166187A1 (zh) * 2017-03-13 2018-09-20 平安科技(深圳)有限公司 服务器、身份验证方法、系统及计算机可读存储介质
CN107517207A (zh) * 2017-03-13 2017-12-26 平安科技(深圳)有限公司 服务器、身份验证方法及计算机可读存储介质
CN110085228A (zh) * 2019-04-28 2019-08-02 广西盖德科技有限公司 语音码应用方法、应用客户端及系统
CN116667993A (zh) * 2023-04-28 2023-08-29 江苏芯信电子科技有限公司 一种基于大数据的区块链身份确认系统及其使用装置

Also Published As

Publication number Publication date
CN103220286B (zh) 2015-02-25

Similar Documents

Publication Publication Date Title
CN103220286B (zh) 基于动态密码语音的身份确认系统及方法
KR101824157B1 (ko) 화자 검증을 위한 동적 임계치
CN106373575B (zh) 一种用户声纹模型构建方法、装置及系统
US9491167B2 (en) Voice authentication system and method
KR101963993B1 (ko) 동적 패스워드 음성에 기반한 자체 학습 기능을 구비한 신분 인증 시스템 및 방법
US20130132091A1 (en) Dynamic Pass Phrase Security System (DPSS)
US20150112682A1 (en) Method for verifying the identity of a speaker and related computer readable medium and computer
CN106782572A (zh) 语音密码的认证方法及系统
WO2016015687A1 (zh) 声纹验证方法及装置
CN101467204A (zh) 用于生物计量声纹认证的方法和系统
KR20160011709A (ko) 지불 확인을 위한 방법, 장치 및 시스템
EP3248188B1 (en) Authentication method
CN108062464A (zh) 基于声纹识别的终端控制方法及系统
CN104104664A (zh) 对验证码进行验证的方法、服务器、客户端和系统
CN102222190A (zh) 通过多模态基于web的界面的用户验证
CN110750774B (zh) 身份识别的方法及装置
CN104717219A (zh) 基于人工智能的声纹登录方法和装置
CN104064189A (zh) 一种声纹动态口令的建模和验证方法
CN104158664A (zh) 一种身份认证方法及系统
CN112201254B (zh) 无感语音认证方法、装置、设备及存储介质
CN104348621A (zh) 一种基于声纹识别的鉴权系统及方法
CN104901926A (zh) 基于声纹特征的远程认证支付的系统与方法
CN104901808A (zh) 基于时间型动态口令的声纹认证系统及方法
CN104183240A (zh) 一种声纹特征融合方法及装置
KR101424962B1 (ko) 음성 기반 인증시스템 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20130724

Assignee: BEIJING D-EAR TECHNOLOGIES Co.,Ltd.

Assignor: Zheng Fang

Contract record no.: 2015990000598

Denomination of invention: Identity verification system and identity verification method based on dynamic password voice

Granted publication date: 20150225

License type: Exclusive License

Record date: 20150710

LICC Enforcement, change and cancellation of record of contracts on the licence for exploitation of a patent or utility model
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20151027

Address after: 100084 B1005, room 1008, school building, Tsinghua University, Tsinghua Park, Beijing, Haidian District

Patentee after: BEIJING D-EAR TECHNOLOGIES Co.,Ltd.

Address before: 100084 Beijing city Haidian District Shuangqing Road, Tsinghua Science Park Research Building B, room 1005

Patentee before: Zheng Fang

CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: Floor 9, building 4, Shuangqing building, yard 77, Shuangqing Road, Haidian District, Beijing 100085

Patentee after: BEIJING D-EAR TECHNOLOGIES Co.,Ltd.

Address before: 100084 room b1005 and 1008, learning and research complex building of Tsinghua University, Tsinghua Park, Haidian District, Beijing

Patentee before: BEIJING D-EAR TECHNOLOGIES Co.,Ltd.

IP01 Partial invalidation of patent right
IP01 Partial invalidation of patent right

Commission number: 4W111610

Conclusion of examination: Declare claims 1-3, 6-8 of invention patent number 201310123555.0, as well as claims 5 citing the technical solution of claim 1, and claims 10 citing the technical solution of claim 6 invalid. Continue to maintain the validity of this patent right on the basis of claims 4, 9, and 5 citing the technical solution of claim 4, and claims 10 citing the technical solution of claim 9

Decision date of declaring invalidation: 20211103

Decision number of declaring invalidation: 52487

Denomination of invention: An identity confirmation system and method based on dynamic password voice

Granted publication date: 20150225

Patentee: BEIJING D-EAR TECHNOLOGIES Co.,Ltd.