CN102238189B - 声纹密码认证方法及系统 - Google Patents
声纹密码认证方法及系统 Download PDFInfo
- Publication number
- CN102238189B CN102238189B CN2011102180429A CN201110218042A CN102238189B CN 102238189 B CN102238189 B CN 102238189B CN 2011102180429 A CN2011102180429 A CN 2011102180429A CN 201110218042 A CN201110218042 A CN 201110218042A CN 102238189 B CN102238189 B CN 102238189B
- Authority
- CN
- China
- Prior art keywords
- background model
- buffer area
- voice signal
- login user
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Storage Device Security (AREA)
Abstract
本发明公开了一种声纹密码认证方法及系统,该方法包括:接收登录用户录入的语音信号;提取所述语音信号中的声纹特征序列;对所述语音信号进行语音识别,获得所述登录用户的密码内容;如果获得的密码内容与对应所述登录用户的注册密码文本不同,则确定所述登录用户为非认证用户;否则,分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型和为所述登录用户选择的背景模型的似然度,背景模型包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型;根据得到的似然度,计算似然比;如果所述似然比大于设定的阈值,则确定所述登录用户为有效认证用户,否则确定所述登录用户为非认证用户。本发明可以提高声纹密码认证的准确率。
Description
技术领域
本发明涉及密码认证技术领域,特别涉及一种声纹密码认证方法及系统。
背景技术
声纹识别(Voiceprint Recognition,VPR)也称为说话人识别,有两类,即说话人辨认和说话人确认。前者用以判断某段语音是若干人中的哪一个所说的,是“多选一”问题;而后者用以确认某段语音是否是指定的某个人所说的,是“一对一判别”问题。不同的任务和应用会使用不同的声纹识别技术。
声纹认证是指根据采集到的语音信号确认说话人身份,属于“一对一”的判别问题。现今主流的声纹认证系统采用了基于假设检验的框架,通过分别计算声纹信号相对于说话人声纹模型以及背景模型的似然度并比较它们的似然比和预先根据经验设置的阈值大小来确认。显然背景模型和说话人声纹模型的精确度将直接影响到声纹认证效果,在基于数据驱动的统计模型设定下训练数据量越大则模型效果越好。
声纹密码认证是一种文本相关的说话人身份认证方法。该方法要求用户语音输入确定密码文本,并据此确认说话人身份。在该应用中用户注册及身份认证均采用确定密码文本的语音输入,因而其声纹往往较为一致,相应的可取得相比于文本无关的说话人确认更好的认证效果。
在声纹密码认证系统中,用户以语音输入信号替代传统的字串密码输入,相应的认证系统以说话人声纹模型的形式保存用户的声纹密码。现有的声纹密码认证系统大都是采用计算声纹信号相对于说话人声纹模型及背景模型的似然度,并比较其似然度比和预设的阈值大小来确认用户身份。因此,背景模型和说话人声纹模型的精确程度将直接影响到声纹密码认证的效果。
在现有技术中,声纹密码认证系统普遍采用通用背景模型,用于模拟文本无关的用户声纹特性,具体是在采集的多说话人数据上以离线方式训练得到单一的通用背景模型。这种通用背景模型虽然有较好的普适性,但模型描述不够精确,区分度较低,在一定程度上影响了密码认证的准确性。
发明内容
本发明实施例提供一种声纹密码认证方法及系统,以提高基于声纹密码进行身份认证的准确率。
一种声纹密码认证方法,包括:
接收登录用户录入的语音信号;
提取所述语音信号中的声纹特征序列;
对所述语音信号进行语音识别,获得所述登录用户的密码文本;
如果获得的密码文本与对应所述登录用户的注册密码文本不同,则确定所述登录用户为非认证用户;
如果获得的密码文本与对应所述登录用户的注册密码文本相同,
则确定对应所述登录用户的背景模型,所述背景模型包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型;
分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型的似然度、以及所述声纹特征序列与所述背景模型的似然度;
根据所述声纹特征序列与说话人声纹模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比;
如果所述似然比大于设定的阈值,则确定所述登录用户为有效认证用户,否则确定所述登录用户为非认证用户。
优选地,所述确定对应所述登录用户的背景模型包括:
如果有与所述登录用户的密码文本对应的优化背景模型,则选择该优化背景模型作为对应所述登录用户的背景模型;否则选择所述通用背景模型作为对应所述登录用户的背景模型。
优选地,所述方法还包括:
将登录用户录入的语音信号或者从登录用户录入的语音信号中提取的声纹特征序列写入与所述登录用户录入的语音信号相应的密码文本对应的缓存区;
接收注册用户录入的注册语音信号;
对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本;
将所述注册语音信号或者从所述注册语音信号中提取的声纹特征序列写入与该注册语音信号相应的密码文本对应的缓存区;
根据所述注册用户录入的注册语音信号训练对应所述注册用户的说话人声纹模型;
实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型。
可选地,所述实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型:
如果一个缓存区中存储的数据量达到第一预设值,并且当前没有与该缓存区对应密码文本相关的优化背景模型,则以所述通用背景模型为初始模型,根据该缓存区中的数据生成与该缓存区对应密码文本相关的优化背景模型,并删除该缓存区中存储的数据;如果一个缓存区中存储的数据量达到第一预设值,并且当前有与该缓存区对应密码文本相关的优化背景模型,则以该优化背景模型为初始模型,根据该缓存区中的数据更新该优化背景模型,并删除该缓存区中存储的数据。
可选地,所述实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型:
如果一个缓存区中存储的数据量达到第二预设值的整数倍,则以所述通用背景模型为初始模型,根据该缓存区中的数据重新生成与该缓存区对应密码文本相关的优化背景模型。
优选地,所述注册用户录入的注册语音信号重复多次;
所述对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本包括:
分别对每次录入的注册语音信号进行语音识别,得到多个识别结果及与各识别结果对应的识别似然度得分;
选择具有最高似然度得分的识别结果作为所述注册用户的注册密码文本。
一种声纹密码认证系统,包括:
接收单元,用于在用户登录时,接收登录用户录入的语音信号;
声纹特征提取单元,用于提取所述语音信号中的声纹特征序列;
语音识别单元,用于对所述语音信号进行语音识别,获得所述登录用户的密码文本;
判断单元,用于判断所述语音识别单元获得的密码文本与对应所述登录用户的注册密码是否相同;
认证结果单元,用于在所述判断单元的判断结果是所述语音识别单元获得的密码文本与对应所述登录用户的注册密码文本不同时,确定所述登录用户为非认证用户;
模型确定单元,用于在所述判断单元的判断结果是所述语音识别单元获得的密码文本与所述登录用户的注册密码文本相同时,确定对应所述登录用户的背景模型,所述背景模型包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型;
第一计算单元,用于分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型的似然度、以及所述声纹特征序列与所述模型确定单元确定的背景模型的似然度;
第二计算单元,用于根据所述声纹特征序列与说话人声纹模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比;
所述判断单元,还用于判断所述第二计算单元计算得到的似然比是否大于设定的阈值;
所述认证结果单元,还用于在所述判断单元的判断结果是所述第二计算单元计算得到的似然比大于设定的阈值时,确定所述登录用户为有效认证用户,否则确定所述登录用户为非认证用户。
优选地,所述系统还包括:
检查单元,用于检查是否存在与所述登录用户的注册密码文本对应的优化背景模型;
所述模型确定单元,具体用于在所述检查单元的检查结果是有与所述登录用户的注册密码文本对应的优化背景模型时,选择该优化背景模型作为对应所述登录用户的背景模型;否则选择所述通用背景模型作为对应所述登录用户的背景模型。
优选地,所述语音识别单元,还用于将登录用户录入的语音信号或者从登录用户录入的语音信号中提取的声纹特征序列写入与所述登录用户录入的语音信号相应的密码文本对应的缓存区;
所述接收单元,还用于接收注册用户录入的注册语音信号;
所述语音识别单元,还用于对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本;
所述系统还包括:
说话人声纹模型构建单元,用于根据所述注册用户录入的注册语音信号训练对应所述注册用户的说话人声纹模型;
背景模型构建单元,用于实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型。
可选地,所述背景模型构建单元,具体用于在一个缓存区中存储的数据量达到第一预设值,并且当前没有与该缓存区对应密码文本相关的优化背景模型时,以所述通用背景模型为初始模型,根据该缓存区中的数据生成与该缓存区对应密码文本相关的优化背景模型,并删除该缓存区中存储的数据;在一个缓存区中存储的数据量达到第一预设值,并且当前有与该缓存区对应密码文本相关的优化背景模型时,以该优化背景模型为初始模型,根据该缓存区中的数据更新该优化背景模型,并删除该缓存区中存储的数据。
可选地,所述背景模型构建单元,具体用于在一个缓存区中存储的数据量达到第二预设值的整数倍,则以所述通用背景模型为初始模型,根据该缓存区中的数据重新生成与该缓存区对应密码文本相关的优化背景模型。
优选地,所述注册用户录入的注册语音信号重复多次;
所述语音识别单元分别对每次录入的注册语音信号进行语音识别,得到多个识别结果及与各识别结果对应的识别似然度得分;
所述系统还包括:
密码确定单元,用于从所述语音识别单元得到的多个识别结果中选择选择具有最高似然度得分的识别结果作为所述注册用户的注册密码文本。
本发明实施例提供的声纹密码认证方法及系统,在进行用户身份识别时,不仅对用户登录时录入的语音信号进行语音识别,确定其密码内容,而且对其进行声纹认证,在进行声纹认证时,基于多背景模型,即与文本无关的通用背景模型及与文本相关的优化背景模型,通过选择合适的背景模型实现精确匹配,有效地提高了基于声纹密码进行身份认证的准确率。
附图说明
为了更清楚地说明本发明实施的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例声纹密码认证方法的流程图;
图2是本发明实施例中与文本无关的通用背景模型的构建流程图;
图3是本发明实施例中构建与文本相关的优化背景模型的一种流程图;
图4是本发明实施例中对注册用户录入的注册语音信号进行语音识别的流程图;
图5是本发明实施例声纹密码认证系统的一种结构示意图;
图6是本发明实施例声纹密码认证系统的另一种结构示意图;
图7是本发明实施例声纹密码认证系统的另一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,是本发明实施例声纹密码认证方法的流程图,包括以下步骤:
步骤101,接收登录用户录入的语音信号。
步骤102,提取所述语音信号中的声纹特征序列。
所述声纹特征序列包含一组声纹特征,可以有效地区分不同的说话人,且对同一说话人的变化保持相对稳定。
比如,所述声纹特征主要有:谱包络参数语音特征,基音轮廓、共振峰频率带宽特征,线性预测系数,倒谱系数等。考虑到上述声纹特征的可量化性、训练样本的数量和系统性能的评价等问题,可以选用MFCC(MelFrequency Cepstrum Coefficient,Mel频率倒谱系数)特征,对窗长25ms帧移10ms的每帧语音数据做短时分析得到MFCC参数及其一阶二阶差分,共计39维。这样,每句语音信号可以量化为一个39维声纹特征序列X。
步骤103,对所述语音信号进行语音识别,获得登录用户的密码文本。
具体的语音识别的处理方式可以采用一些现有的方式,在此不再详细说明。
步骤104,判断获得的密码文本与当前登录用户的注册密码文本是否相同;如果是,则执行步骤105;否则,执行步骤110。
步骤105,确定对应所述登录用户的背景模型。
其中,说话人声纹模型用于模拟已注册用户在确定密码文本上的发音特点,背景模型用于模拟多说话人的发音共性。
在本发明实施例中,说话人声纹模型可以在用户注册时根据用户录入的注册语音信号构建,具体可以采用现有技术中的一些构建方式。背景模型的构建可以综合采用两种方式分别构建与文本无关的通用背景模型和与文本相关的优化背景模型,其中,与文本无关的通用背景模型可以通过预先采集的多说话人数据以离线方式训练得到,具体的训练过程可以参照现有技术中的一些处理方式,对此本发明实施例不做限定;与文本相关的优化背景模型可以根据记录的用户注册和登录时录入的语音信号中提取的声纹特征序列以在线方式训练得到。
相应地,在本步骤中,可以根据需要,有多种不同的方式来选择对应所述登录用户的背景模型,对此将在后面详细说明。
步骤106,分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型的似然度、以及所述声纹特征序列与所述背景模型的似然度。
上述说话人声纹模型可以在用户注册时根据注册语音信号在线训练得到。比如,以通用背景模型为初始模型通过各种自适应方法根据少量说话人数据调整模型部分参数,如目前最为常用的基于最大后验概率(Maximum APosterior,MAP)的自适应算法等,将用户声纹共性自适应为当前说话人个性。当然,还可以采用其他方式训练得到说话人声纹模型,对此本发明实施例不做限定。
假设得到帧数为T的声纹特征序列X,则其相应于背景模型的似然度为:
所述声纹特征序列X相应于说话人声纹模型的似然度的计算与上述类似,在此不再详细说明。
步骤107,根据所述声纹特征序列与说话人声纹模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比。
似然比为:
其中,p(X|U)为所述声纹特征与说话人声纹模型的似然度,p(X|UBM)为所述声纹特征与背景模型的似然度。
步骤108,判断所述似然比是否大于设定的阈值;如果是,则执行步骤109;否则执行步骤110。
上述阈值可以由系统预先设定,一般来说,该阈值越大,则系统的灵敏度越高,要求用户在登录时尽可能按照注册时录入的语音信号(即密码)的发音,反之,则系统的灵敏度较低,允许用户登录时录入的语音信号的发音与注册时的发音存在一定的变化。
步骤109,确定登录用户为有效认证用户。
步骤110,确定登录用户为非认证用户。
需要说明的是,为了提高系统的鲁棒性,在上述步骤101和步骤102之间,还可以对所述语音信号进行降噪处理,比如,首先通过对语音信号的短时能量和短时过零率分析,将连续的语音信号分割成独立的语音片断和非语音片断。然后通过前端降噪处理减少信道噪音及背景噪音的干扰,提高语音信噪比,为后续系统处理提供干净的信号。
前面提到,在本发明实施例中,背景模型可以包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型,而且可以根据需要,有多种不同的方式来选择对应所述登录用户的背景模型,比如,可以在系统初始化阶段(比如,可以设定一定的时间段),选择与文本无关的通用背景模型,以适应用户录入的各种不同声纹密码;而随着系统的运行,采集到的与特定密码文本相关的用户数据不断增加,可以根据这些用户数据训练得到与该密码文本相关的优化背景模型。此后,可以根据上述步骤103获得的当前登录用户的密码文本来选择相应的背景模型。当然,为了简化实现上的复杂度,也可以从系统启动开始,就根据当前登录用户的密码文本来选择相应的背景模型。
上述与文本无关的通用背景模型可以采用现有技术中的一些方式,比如采用1024或者更大高斯数的混合高斯模型来构建,其模型参数训练过程如图2所示。
步骤201,从多说话人训练语音信号中分别提取声纹特征,每个声纹特征作为一个特征矢量。
步骤202,利用聚类算法对上述特征矢量进行聚类,得到K个高斯的初始化均值,K是预先设置的混合高斯模型个数。
比如,可以采用传统的LBG(Linde,Buzo,Gray)聚类算法,通过训练矢量集和一定的迭代算法来逼近最优的再生码本。
步骤203,利用EM(Expectation Maximization)算法迭代更新上述均值、方差及各高斯对应的加权系数,得到与文本无关的通用背景模型。
具体的迭代更新过程与现有技术相同,在此不再详细描述。
当然,还可以采用其他方式构建上述与文本无关的通用背景模型,对此本发明实施例不做限定。
在本发明实施例中,不论用户是处于登录模式还是注册模式,都可以将用户录入的语音信号或者从该语音信号中提取的声纹特征写入对该语音信号识别出的密码文本对应的缓存区中,并且根据缓存区中的数据实时构建或更新与相应的密码文本相关的优化背景模型。这样,可以快速收集针对特定密码文本的相关数据,从而使所述优化背景模型得到快速优化,提高声纹识别的效率及准确性。
当然,在实际应用中,为了减少系统的运算量,也可以只在注册模式或登录模式下构建或更新与相应的密码文本相关的优化背景模型。对此本发明实施例不做限定。
因此,在上述图1所示流程中,还可进一步包括以下步骤:将登录用户录入的语音信号或者从登录用户录入的语音信号中提取的声纹特征序列写入与所述密码文本对应的缓存区。在注册状态,接收注册用户录入的注册语音信号;对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本;将所述注册语音信号或者从所述注册语音信号中提取的声纹特征序列写入与该注册语音信号相应的密码文本对应的缓存区。另外,需要根据所述注册用户录入的注册语音信号训练对应所述注册用户的说话人声纹模型,还需要实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型。
在本发明实施例中,可以为每个密码文本设立一个对应的缓存区,不同密码文本对应不同的缓存区,在该缓存区中存储对应同一密码文本的语音信号或者从所述语音信号中提取的声纹特征序列,上述语音信号不仅包括登录用户录入的语音信号,也包括注册用户录入的注册语音信号,当然,在一个缓存区中存储的来自不同用户的语音信号都对应了同一个密码文本。
在实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型时,可以在每次有新数据加入所述缓存区后,即对当前与所述密码文本相关的优化背景模型进行更新。当然,为了减少系统开销及运算工作量,还可以在对应一个密码文本的缓存区中存储的数据满足一定预定条件时,根据所述缓存区中的数据构建或更新相应的优化背景模型。在具体应用时,上述预设条件及相应的构建或更新优化背景模型的方式可以有多种,比如:
一种方式是:如果一个缓存区中存储的数据量达到第一预设值(比如500、或600等),并且当前没有与该缓存区对应密码文本相关的优化背景模型,则以所述通用背景模型为初始模型,根据该缓存区中的数据生成与该缓存区对应密码文本相关的优化背景模型,并删除该缓存区中存储的数据;如果一个缓存区中存储的数据量达到第一预设值,并且当前有与该缓存区对应密码文本相关的优化背景模型,则以该优化背景模型为初始模型,根据该缓存区中的数据更新该优化背景模型,并删除该缓存区中存储的数据。
在这种方式下,每次构建或更新优化背景模型时依据的数据量相同,而且在构建优化背景模型时,采用的初始模型是前面提到的通用背景模型,在更新优化背景模型时,采用的初始模型是当前的优化背景模型。另外,在这种方式下,无论是构建优化模型还是更新当前优化背景模型,之后都需要清除相应缓存区中的数据,以便采集下一组数据。这种方式可以降低对缓存区存储空间的需求。
另一种方式是:如果一个缓存区中存储的数据量达到第二预设值(比如500、或600等)的整数倍,则以所述通用背景模型为初始模型,根据该缓存区中的数据重新生成与该缓存区对应密码文本相关的优化背景模型。
在这种方式下,每次构建或更新优化背景模型时依据的数据量不同,而且在构建和更新当前优化背景模型时,采用的初始模型均是前面提到的通用背景模型。另外,在这种方式下,无需在每次构建或更新当前优化背景模型后都要清除相应缓存区中的数据,但对缓存空间的需求较大,可以应用在具有海量缓存空间的环境下。当然,也可以采用与上述第一种类似的处理方式,在缓存区中的数据量达到一定程度(比如50000)时,清除该缓存区中的数据,为了保证优化背景模型的特性,在该缓存区中的数据量重新达到上述第二预设值时,不是以通用背景模型为初始模型进行更新过程,而是以当前的优化背景模型为初始模型进行更新过程,然后在后续缓存区中的数据量再次达到进行更新的条件时,再继续以通用背景模型为初始模型进行更新过程。
如图3所示,是本发明实施例中构建或更新优化背景模型的一种流程图,包括以下步骤:
步骤301,利用缓存区内所有声纹特征序列自适应更新通用背景模型混合高斯的均值μm。
其中,N是声纹特征序列总数,Ti是第i句声纹特征序列的总帧长,xt表示第t帧声纹特征,γm(xt)表示第t帧声纹特征落于第m个高斯的概率,τ是遗忘因子,用于平衡历史均值以及样本对新均值的更新力度。一般来说,τ值越大,则新均值主要受原始均值制约。而若τ值较小,则新均值主要由样本统计量决定,更多的体现了新样本分布的特点。τ值可以由系统预先确定,也可以选择随时间逐渐变化的参数值,以不断提升新样本数据的作用
步骤302,复制通用背景模型方差作为与密码文本相关的优化背景模型方差。
步骤303,生成与密码文本相关的优化背景模型。
根据缓存区中的数据更新与注册密码文本相关的优化背景模型的过程与上述类似,在此不再赘述。
需要说明的是,在本发明实施例中,注册用户录入的注册语音信号可以是录入一次,也可以是重复录入多次,以保证注册密码的准确性。
如果是重复录入多次,相应地,在通过语音识别确定所述注册用户的注册密码文本时,可以分别对每次录入的注册语音信号进行语音识别,得到多个识别结果及与各识别结果对应的识别似然度得分;然后选择具有最高似然度得分的识别结果作为所述注册用户的注册密码文本。
下面结合语音识别的具体过程对此进行简单说明。
假定系统可以支持用户任意定义密码内容,如图4所示,是本发明实施例中对注册用户录入的注册语音信号进行语音识别的流程图,包括以下步骤:
步骤401,获取当前需要识别的语音信号。
步骤402,从所述语音信号中提取声学特征序列。
步骤403,在大词汇量连续语音识别的搜索网络中搜索对应于步骤302的最优路径,并记录其路径历史累计概率(即上述似然度得分),具体过程与现有技术类似,在此不再详细描述。
考虑到汉语字符过多,对每个字符建模容易导致内存过大,因而可以选择对更小的语音单元,如400余个音节或1300余个带调的音节等,并据此构建搜索网络。
需要说明的是,在本发明实施例中,还可以预先设定密码文本选择范围,如常用成语,常用口令等供用户挑选使用。在这种情况下,本发明实施例中对注册用户录入的注册语音信号进行语音识别可以按照命令词识别方式(即按照密码文本构建上述搜索网络)进行,以提高解码效率。
当然,在实际应用中,还可以由用户选择或者自定义密码文本。
需要说明的是,如果注册用户在注册时多次录入的注册语音信号,也可以将每次录入的注册语音信号或者从每次录入的注册语音信号中提取的声纹特征序列写入该语音信号对应的密码文本相应的存储区,以增加相应密码文本的用户数据,为细化与该密码文本相关的背景模型提供足够的数据。
本发明实施例提供的声纹密码认证方法,在进行用户身份识别时,不仅对用户登录时录入的语音信号进行语音识别,确定其密码内容,而且对其进行声纹认证,在进行声纹认证时,基于多背景模型,即与文本无关的通用背景模型及与文本相关的优化背景模型,通过选择合适的背景模型实现精确匹配,有效地提高了基于声纹密码进行身份认证的准确率。
在本发明实施例中,利用用户注册及登录数据训练优化背景模型,使得系统从初始单一的通用背景模型,不断细化得到对应于不同密码文本的多背景模型,从而为用户不同密码提供了具有较强针对性的背景模型,提高了模型之间的区分性,进而提高了语音识别的准确率和识别效率。
相应地,本发明实施例还提供一种声纹密码认证系统,如图5所示,是该系统的一种结构示意图。
在该实施例中,所述声纹密码认证系统包括:
接收单元501,用于在用户登录时,接收登录用户录入的语音信号;
声纹特征提取单元502,用于提取所述语音信号中的声纹特征序列;
所述声纹特征序列包含一组声纹特征,可以有效地区分不同的说话人,且对同一说话人的变化保持相对稳定。比如,所述声纹特征主要有:谱包络参数语音特征,基音轮廓、共振峰频率带宽特征,线性预测系数,倒谱系数等;考虑到上述声纹特征的可量化性、训练样本的数量和系统性能的评价等问题,可以选用MFCC(Mel Frequency Cepstrum Coefficient,Mel频率倒谱系数)特征,对窗长25ms帧移10ms的每帧语音数据做短时分析得到MFCC参数及其一阶二阶差分,共计39维。这样,每句语音信号可以量化为一个39维声纹特征序列X;
语音识别单元503,用于对所述语音信号进行语音识别,获得所述登录用户的密码文本,具体的语音识别的处理方式可以采用一些现有的方式,在此不再详细说明;
判断单元504,用于判断语音识别单元503获得的密码文本与对应所述登录用户的注册密码是否相同;
认证结果单元505,用于在判断单元504的判断结果是所述语音识别单元503获得的密码文本与所述登录用户的注册密码文本不同时,确定所述登录用户为非认证用户;
模型确定单元506,用于在所述判断单元504的判断结果是所述语音识别单元503获得的密码文本与所述登录用户的注册密码文本相同时,确定对应所述登录用户的背景模型,所述背景模型包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型,而且,在实际应用中,模型确定单元506可以根据需要,有多种不同的方式来确定对应所述登录用户的背景模型,具体可参考前面的描述;
第一计算单元507,用于分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型的似然度、以及所述声纹特征序列与所述背景模型的似然度;
第二计算单元508,用于根据所述声纹特征序列与说话人声纹模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比;
上述第一计算单元507和第二计算单元508的具体计算过程可参照前面本发明声纹密码认证方法实施例中的描述,在此不再详细说明。
在该实施例中,上述判断单元504还用于判断所述第二计算单元508计算得到的似然比是否大于设定的阈值;相应地,上述认证结果单元505还用于在判断单元504的判断结果是第二计算单元508计算得到的似然比大于设定的阈值时,确定所述登录用户为有效认证用户,否则确定所述登录用户为非认证用户。
上述阈值可以由系统预先设定,一般来说,该阈值越大,则系统的灵敏度越高,要求用户在登录时尽可能按照注册时录入的语音信号(即密码)的发音,反之,则系统的灵敏度较低,允许用户登录时录入的语音信号的发音与注册时的发音存在一定的变化。
如图6所示,是本发明实施例声纹密码认证系统的另一种结构示意图。
与图5所示实施例不同的是,在该实施例中,所述系统还包括:
检查单元601,用于检查是否存在与所述登录用户的注册密码文本对应的优化背景模型。
相应地,模型确定单元506可以在所述检查单元601的检查结果是有与所述登录用户的注册密码文本对应的优化背景模型时,选择该优化背景模型作为对应所述登录用户的背景模型;否则选择所述通用背景模型作为对应所述登录用户的背景模型。
当然,本发明实施例声纹密码认证系统中,模型确定单元506还可以根据需要,有多种不同的方式来选择对应所述登录用户的背景模型,比如,可以在系统初始化阶段(比如,可以设定一定的时间段),选择与文本无关的通用背景模型,以适应用户录入的各种不同声纹密码;而随着系统的运行,采集到的特定密码相关的用户数据不断增加,可以根据这些用户数据训练得到与文本相关的优化背景模型,该优化背景模型是与用户密码文本相关的模型,此后,可以根据当前登录用户的密码文本来选择相应的背景模型。
如图7所示,是本发明实施例声纹密码认证系统的另一种结构示意图。
与图6所示实施例不同的是,在该实施例中,所述系统还包括:背景模型构建单元701和说话人声纹模型构建单元702。
另外,在该实施例中,语音识别单元503还用于将登录用户录入的语音信号或者从登录用户录入的语音信号中提取的声纹特征序列写入与所述密码文本对应的缓存区。
接收单元501还用于接收注册用户录入的注册语音信号,相应地,语音识别单元503还用于对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本。
背景模型构建单元701用于实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型。
说话人声纹模型构建单元702,用于根据所述注册用户录入的注册语音信号训练对应所述注册用户的说话人声纹模型。
当然,在实际应用中,也可以由声纹特征提取单元502根据语音识别单元503识别出的语音信号(包括登录用户录入的语音信号和注册用户录入的注册语音信号)对应的密码文本,将所述语音信号写入与该密码文本对应的缓存区,对此本发明实施例不做限定。
在本发明实施例的系统中,可以为每个密码文本设立一个对应的缓存区,不同密码文本对应不同的缓存区,在该缓存区中存储对应同一密码文本的语音信号或者从所述语音信号中提取的声纹特征序列,上述语音信号不仅包括登录用户录入的语音信号,也包括注册用户录入的注册语音信号,当然,在一个缓存区中存储的来自不同用户的语音信号都对应了同一个密码文本。
背景模型构建单元701实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型,可以是在每次有新数据加入所述缓存区后,即对当前与所述密码文本相关的优化背景模型进行更新。当然,为了减少系统开销及运算工作量,还可以是在对应一个密码文本的缓存区中存储的数据满足一定预定条件后,根据所述缓存区中的数据构建或更新相应的优化背景模型。在具体应用时,上述预设条件及相应的构建或更新优化背景模型的方式可以有多种,比如:在一种实施例中,背景模型构建单元701可以在一个缓存区中存储的数据量达到第一预设值,并且当前没有与该缓存区对应密码文本相关的优化背景模型时,以所述通用背景模型为初始模型,根据该缓存区中的数据生成与该缓存区对应密码文本相关的优化背景模型,并删除该缓存区中存储的数据;在一个缓存区中存储的数据量达到第一预设值,并且当前有与该缓存区对应密码文本相关的优化背景模型时,以该优化背景模型为初始模型,根据该缓存区中的数据更新该优化背景模型,并删除该缓存区中存储的数据。
在另一种实施例中,背景模型构建单元701可以在一个缓存区中存储的数据量达到第二预设值的整数倍,则以所述通用背景模型为初始模型,根据该缓存区中的数据重新生成与该缓存区对应密码文本相关的优化背景模型。
上述两个实施例中背景模型构建单元701构建或更新与密码文本相关的优化背景模型的具体过程可参见前面本发明方法实施例中的描述,在此不再赘述。
需要说明的是,在具体应用时,所述注册用户录入的注册语音信号可以是录入一次,也可以是重复录入多次,如果是重复录入多次,相应地,所述语音识别单元503可以分别对每次录入的注册语音信号进行语音识别,得到多个识别结果及与各识别结果对应的识别似然度得分。
相应地,所述系统还可进一步包括:密码确定单元(未图示),用于从所述语音识别单元503得到的多个识别结果中选择具有最高似然度得分的识别结果作为所述注册用户的注册密码文本。具体过程可参照前面的描述,在此不再赘述。
本发明实施例提供的声纹密码认证系统,在进行用户身份识别时,不仅对用户登录时录入的语音信号进行语音识别,确定其密码内容,而且对其进行声纹认证,在进行声纹认证时,基于多背景模型,即与文本无关的通用背景模型及与文本相关的优化背景模型,通过选择合适的背景模型实现精确匹配,有效地提高了基于声纹密码进行身份认证的准确率。
在本发明实施例中,利用用户注册及登录数据训练优化背景模型,使得系统从初始单一的通用背景模型,不断细化得到对应于不同密码文本的多背景模型,从而为用户不同密码提供了具有较强针对性的背景模型,提高了模型之间的区分性,进而提高了语音识别的准确率和识别效率。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元及模块可以是或者也可以不是物理上分开的。另外,还可以根据实际的需要选择其中的部分或者全部单元和模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上公开的仅为本发明的优选实施方式,但本发明并非局限于此,任何本领域的技术人员能思之的没有创造性的变化,以及在不脱离本发明原理前提下所作的若干改进和润饰,都应落在本发明的保护范围内。
Claims (12)
1.一种声纹密码认证方法,其特征在于,包括:
接收登录用户录入的语音信号;
提取所述语音信号中的声纹特征序列;
对所述语音信号进行语音识别,获得所述登录用户的密码文本;
如果获得的密码文本与对应所述登录用户的注册密码文本不同,则确定所述登录用户为非认证用户;
如果获得的密码文本与对应所述登录用户的注册密码文本相同,
则确定对应所述登录用户的背景模型,所述背景模型包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型;
分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型的似然度、以及所述声纹特征序列与所述背景模型的似然度;
根据所述声纹特征序列与说话人声纹模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比;
如果所述似然比大于设定的阈值,则确定所述登录用户为有效认证用户,否则确定所述登录用户为非认证用户;
其中,所述似然比具体为:所述声纹特征序列与说话人声纹模型的似然度和所述声纹特征序列与背景模型的似然度之比。
2.如权利要求1所述的方法,其特征在于,所述确定对应所述登录用户的背景模型包括:
如果有与所述登录用户的密码文本对应的优化背景模型,则选择该优化背景模型作为对应所述登录用户的背景模型;否则选择所述通用背景模型作为对应所述登录用户的背景模型。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
将登录用户录入的语音信号或者从登录用户录入的语音信号中提取的声纹特征序列写入与所述登录用户录入的语音信号相应的密码文本对应的缓存区;
接收注册用户录入的注册语音信号;
对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本;
将所述注册语音信号或者从所述注册语音信号中提取的声纹特征序列写入与该注册语音信号相应的密码文本对应的缓存区;
根据所述注册用户录入的注册语音信号训练对应所述注册用户的说话人声纹模型;
实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型。
4.如权利要求3所述的方法,其特征在于,所述实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型:
如果一个缓存区中存储的数据量达到第一预设值,并且当前没有与该缓存区对应密码文本相关的优化背景模型,则以所述通用背景模型为初始模型,根据该缓存区中的数据生成与该缓存区对应密码文本相关的优化背景模型,并删除该缓存区中存储的数据;如果一个缓存区中存储的数据量达到第一预设值,并且当前有与该缓存区对应密码文本相关的优化背景模型,则以该优化背景模型为初始模型,根据该缓存区中的数据更新该优化背景模型,并删除该缓存区中存储的数据。
5.如权利要求3所述的方法,其特征在于,所述实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型:
如果一个缓存区中存储的数据量达到第二预设值的整数倍,则以所述通用背景模型为初始模型,根据该缓存区中的数据重新生成与该缓存区对应密码文本相关的优化背景模型。
6.如权利要求3至5任一项所述的方法,其特征在于,所述注册用户录入的注册语音信号重复多次;
所述对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本包括:
分别对每次录入的注册语音信号进行语音识别,得到多个识别结果及与各识别结果对应的识别似然度得分;
选择具有最高似然度得分的识别结果作为所述注册用户的注册密码文本。
7.一种声纹密码认证系统,其特征在于,包括:
接收单元,用于在用户登录时,接收登录用户录入的语音信号;
声纹特征提取单元,用于提取所述语音信号中的声纹特征序列;
语音识别单元,用于对所述语音信号进行语音识别,获得所述登录用户的密码文本;
判断单元,用于判断所述语音识别单元获得的密码文本与对应所述登录用户的注册密码是否相同;
认证结果单元,用于在所述判断单元的判断结果是所述语音识别单元获得的密码文本与对应所述登录用户的注册密码文本不同时,确定所述登录用户为非认证用户;
模型确定单元,用于在所述判断单元的判断结果是所述语音识别单元获得的密码文本与所述登录用户的注册密码文本相同时,确定对应所述登录用户的背景模型,所述背景模型包括:与文本无关的通用背景模型、以及与文本相关的优化背景模型;
第一计算单元,用于分别计算所述声纹特征序列与对应所述登录用户的说话人声纹模型的似然度、以及所述声纹特征序列与所述模型确定单元确定的背景模型的似然度;
第二计算单元,用于根据所述声纹特征序列与说话人声纹模型的似然度、以及所述声纹特征序列与背景模型的似然度,计算似然比;其中,所述似然比具体为:所述声纹特征序列与说话人声纹模型的似然度和所述声纹特征序列与背景模型的似然度之比;
所述判断单元,还用于判断所述第二计算单元计算得到的似然比是否大于设定的阈值;
所述认证结果单元,还用于在所述判断单元的判断结果是所述第二计算单元计算得到的似然比大于设定的阈值时,确定所述登录用户为有效认证用户,否则确定所述登录用户为非认证用户。
8.如权利要求7所述的系统,其特征在于,所述系统还包括:
检查单元,用于检查是否存在与所述登录用户的注册密码文本对应的优化背景模型;
所述模型确定单元,具体用于在所述检查单元的检查结果是有与所述登录用户的注册密码文本对应的优化背景模型时,选择该优化背景模型作为对应所述登录用户的背景模型;否则选择所述通用背景模型作为对应所述登录用户的背景模型。
9.如权利要求8所述的系统,其特征在于,
所述语音识别单元,还用于将登录用户录入的语音信号或者从登录用户录入的语音信号中提取的声纹特征序列写入与所述登录用户录入的语音信号相应的密码文本对应的缓存区;
所述接收单元,还用于接收注册用户录入的注册语音信号;
所述语音识别单元,还用于对所述注册语音信号进行语音识别,得到所述注册用户的注册密码文本;
所述系统还包括:
说话人声纹模型构建单元,用于根据所述注册用户录入的注册语音信号训练对应所述注册用户的说话人声纹模型;
背景模型构建单元,用于实时根据每个缓存区中的数据构建或更新与所述缓存区对应密码文本相关的优化背景模型。
10.如权利要求9所述的系统,其特征在于,
所述背景模型构建单元,具体用于在一个缓存区中存储的数据量达到第一预设值,并且当前没有与该缓存区对应密码文本相关的优化背景模型时,以所述通用背景模型为初始模型,根据该缓存区中的数据生成与该缓存区对应密码文本相关的优化背景模型,并删除该缓存区中存储的数据;在一个缓存区中存储的数据量达到第一预设值,并且当前有与该缓存区对应密码文本相关的优化背景模型时,以该优化背景模型为初始模型,根据该缓存区中的数据更新该优化背景模型,并删除该缓存区中存储的数据。
11.如权利要求9所述的系统,其特征在于,
所述背景模型构建单元,具体用于在一个缓存区中存储的数据量达到第二预设值的整数倍,则以所述通用背景模型为初始模型,根据该缓存区中的数据重新生成与该缓存区对应密码文本相关的优化背景模型。
12.如权利要求9至11任一项所述的系统,其特征在于,所述注册用户录入的注册语音信号重复多次;
所述语音识别单元分别对每次录入的注册语音信号进行语音识别,得到多个识别结果及与各识别结果对应的识别似然度得分;
所述系统还包括:
密码确定单元,用于从所述语音识别单元得到的多个识别结果中选择选择具有最高似然度得分的识别结果作为所述注册用户的注册密码文本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102180429A CN102238189B (zh) | 2011-08-01 | 2011-08-01 | 声纹密码认证方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011102180429A CN102238189B (zh) | 2011-08-01 | 2011-08-01 | 声纹密码认证方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102238189A CN102238189A (zh) | 2011-11-09 |
CN102238189B true CN102238189B (zh) | 2013-12-11 |
Family
ID=44888394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011102180429A Active CN102238189B (zh) | 2011-08-01 | 2011-08-01 | 声纹密码认证方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102238189B (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102510426A (zh) * | 2011-11-29 | 2012-06-20 | 安徽科大讯飞信息科技股份有限公司 | 个人助理应用访问方法及系统 |
AU2013203139B2 (en) * | 2012-01-24 | 2016-06-23 | Auraya Pty Ltd | Voice authentication and speech recognition system and method |
US9489950B2 (en) * | 2012-05-31 | 2016-11-08 | Agency For Science, Technology And Research | Method and system for dual scoring for text-dependent speaker verification |
CN103685185B (zh) * | 2012-09-14 | 2018-04-27 | 上海果壳电子有限公司 | 移动设备声纹注册、认证的方法及系统 |
CN103035247B (zh) * | 2012-12-05 | 2017-07-07 | 北京三星通信技术研究有限公司 | 基于声纹信息对音频/视频文件进行操作的方法及装置 |
CN104021790A (zh) * | 2013-02-28 | 2014-09-03 | 联想(北京)有限公司 | 声控解锁方法以及电子设备 |
CN104143326B (zh) * | 2013-12-03 | 2016-11-02 | 腾讯科技(深圳)有限公司 | 一种语音命令识别方法和装置 |
CN104765996B (zh) * | 2014-01-06 | 2018-04-27 | 讯飞智元信息科技有限公司 | 声纹密码认证方法及系统 |
CN104092653B (zh) * | 2014-01-20 | 2017-01-25 | 腾讯科技(深圳)有限公司 | 一种数据处理的方法和系统 |
US10008208B2 (en) * | 2014-09-18 | 2018-06-26 | Nuance Communications, Inc. | Method and apparatus for performing speaker recognition |
CN104616655B (zh) * | 2015-02-05 | 2018-01-16 | 北京得意音通技术有限责任公司 | 声纹模型自动重建的方法和装置 |
CN106161727A (zh) * | 2015-03-24 | 2016-11-23 | 中兴通讯股份有限公司 | 一种语音口令的录入、识别方法及装置 |
CN104901807B (zh) * | 2015-04-07 | 2019-03-26 | 河南城建学院 | 一种可用于低端芯片的声纹密码方法 |
CN104734858B (zh) * | 2015-04-17 | 2018-01-09 | 黑龙江中医药大学 | 对数据进行识别的防锁死的usb身份认证系统及方法 |
CN104795068B (zh) * | 2015-04-28 | 2018-08-17 | 深圳市锐曼智能装备有限公司 | 机器人的唤醒控制方法及其控制系统 |
CN106302339A (zh) * | 2015-05-25 | 2017-01-04 | 腾讯科技(深圳)有限公司 | 登录验证方法和装置、登录方法和装置 |
CN106373575B (zh) | 2015-07-23 | 2020-07-21 | 阿里巴巴集团控股有限公司 | 一种用户声纹模型构建方法、装置及系统 |
CN105225664B (zh) * | 2015-09-24 | 2019-12-06 | 百度在线网络技术(北京)有限公司 | 信息验证方法和装置及声音样本的生成方法和装置 |
CN107046517A (zh) * | 2016-02-05 | 2017-08-15 | 阿里巴巴集团控股有限公司 | 一种语音处理方法、装置和智能终端 |
CN106100846B (zh) * | 2016-06-02 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 声纹注册、认证方法及装置 |
CN106098068B (zh) * | 2016-06-12 | 2019-07-16 | 腾讯科技(深圳)有限公司 | 一种声纹识别方法和装置 |
CN108023856B (zh) * | 2016-11-01 | 2020-10-16 | 中国移动通信有限公司研究院 | 一种信息共享的方法及装置 |
CN106782564B (zh) * | 2016-11-18 | 2018-09-11 | 百度在线网络技术(北京)有限公司 | 用于处理语音数据的方法和装置 |
CN106789957A (zh) * | 2016-11-30 | 2017-05-31 | 无锡小天鹅股份有限公司 | 洗衣应用的语音登录方法及其智能设备 |
CN106782572B (zh) * | 2017-01-22 | 2020-04-07 | 清华大学 | 语音密码的认证方法及系统 |
CN107426143A (zh) * | 2017-03-09 | 2017-12-01 | 福建省汽车工业集团云度新能源汽车股份有限公司 | 基于声纹识别的汽车用户快速登入方法及装置 |
CN106921668A (zh) * | 2017-03-09 | 2017-07-04 | 福建省汽车工业集团云度新能源汽车股份有限公司 | 基于声纹识别的汽车用户快速验证方法及装置 |
CN107105010B (zh) * | 2017-03-23 | 2020-02-07 | 福建省汽车工业集团云度新能源汽车股份有限公司 | 基于gps位置信息的汽车用户快速登入方法及装置 |
CN107221331A (zh) * | 2017-06-05 | 2017-09-29 | 深圳市讯联智付网络有限公司 | 一种基于声纹的身份识别方法和设备 |
CN107690684A (zh) * | 2017-08-22 | 2018-02-13 | 福建联迪商用设备有限公司 | 一种收银机用户管理方法及终端 |
CN111566729B (zh) * | 2017-12-26 | 2024-05-28 | 罗伯特·博世有限公司 | 用于远场和近场声音辅助应用的利用超短语音分段进行的说话者标识 |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
CN110364168B (zh) * | 2019-07-22 | 2021-09-14 | 北京拓灵新声科技有限公司 | 一种基于环境感知的声纹识别方法及系统 |
CN111145758A (zh) * | 2019-12-25 | 2020-05-12 | 厦门快商通科技股份有限公司 | 声纹识别方法、系统、移动终端及存储介质 |
CN111554307A (zh) * | 2020-05-20 | 2020-08-18 | 浩云科技股份有限公司 | 一种声纹采集注册方法及装置 |
CN112233679B (zh) * | 2020-10-10 | 2024-02-13 | 安徽讯呼信息科技有限公司 | 一种人工智能语音识别系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1547191A (zh) * | 2003-12-12 | 2004-11-17 | 北京大学 | 结合语义和声纹信息的说话人身份确认系统 |
EP1526505A1 (en) * | 2003-10-24 | 2005-04-27 | Aruze Corp. | Vocal print authentication system and vocal print authentication program |
CN101124623A (zh) * | 2005-02-18 | 2008-02-13 | 富士通株式会社 | 语音认证系统 |
US7386448B1 (en) * | 2004-06-24 | 2008-06-10 | T-Netix, Inc. | Biometric voice authentication |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101465123B (zh) * | 2007-12-20 | 2011-07-06 | 株式会社东芝 | 说话人认证的验证方法和装置以及说话人认证系统 |
-
2011
- 2011-08-01 CN CN2011102180429A patent/CN102238189B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1526505A1 (en) * | 2003-10-24 | 2005-04-27 | Aruze Corp. | Vocal print authentication system and vocal print authentication program |
CN1547191A (zh) * | 2003-12-12 | 2004-11-17 | 北京大学 | 结合语义和声纹信息的说话人身份确认系统 |
US7386448B1 (en) * | 2004-06-24 | 2008-06-10 | T-Netix, Inc. | Biometric voice authentication |
CN101124623A (zh) * | 2005-02-18 | 2008-02-13 | 富士通株式会社 | 语音认证系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102238189A (zh) | 2011-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102238189B (zh) | 声纹密码认证方法及系统 | |
CN102238190B (zh) | 身份认证方法及系统 | |
JP7362851B2 (ja) | 話者検証のためのニューラルネットワーク | |
CN104900235B (zh) | 基于基音周期混合特征参数的声纹识别方法 | |
CN104835498B (zh) | 基于多类型组合特征参数的声纹识别方法 | |
JP6303971B2 (ja) | 話者交替検出装置、話者交替検出方法及び話者交替検出用コンピュータプログラム | |
US7813927B2 (en) | Method and apparatus for training a text independent speaker recognition system using speech data with text labels | |
CN102509547B (zh) | 基于矢量量化的声纹识别方法及系统 | |
EP1989701B1 (en) | Speaker authentication | |
CN101465123B (zh) | 说话人认证的验证方法和装置以及说话人认证系统 | |
CN111418009A (zh) | 个性化说话者验证系统和方法 | |
CN102223367B (zh) | 移动用户访问网站的方法、设备及系统 | |
CN102324232A (zh) | 基于高斯混合模型的声纹识别方法及系统 | |
Pawar et al. | Review of various stages in speaker recognition system, performance measures and recognition toolkits | |
Sturim et al. | Classification methods for speaker recognition | |
Trabelsi et al. | A multi level data fusion approach for speaker identification on telephone speech | |
JP3920749B2 (ja) | 音声認識用音響モデル作成方法、その装置、そのプログラムおよびその記録媒体、上記音響モデルを用いる音声認識装置 | |
Panda et al. | Study of speaker recognition systems | |
Hsu et al. | Speaker verification without background speaker models | |
SEGĂRCEANU et al. | Speaker verification using gmm modelling | |
Ahmad et al. | Vector quantization decision function for Gaussian Mixture Model based speaker identification | |
Vyawahare | Speaker recognition: A review | |
Ahn et al. | On effective speaker verification based on subword model | |
Hernaez et al. | Evaluation of Speaker Verification Security and Detection of HMM-based Synthetic Speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C56 | Change in the name or address of the patentee |
Owner name: IFLYTEK CO., LTD. Free format text: FORMER NAME: ANHUI USTC IFLYTEK CO., LTD. |
|
CP03 | Change of name, title or address |
Address after: Wangjiang Road high tech Development Zone Hefei city Anhui province 230088 No. 666 Patentee after: Iflytek Co., Ltd. Address before: 230088 No. 616, Mount Huangshan Road, hi tech Development Zone, Anhui, Hefei Patentee before: Anhui USTC iFLYTEK Co., Ltd. |