CN106971727A - 一种声纹识别的验证方法 - Google Patents

一种声纹识别的验证方法 Download PDF

Info

Publication number
CN106971727A
CN106971727A CN201610024575.6A CN201610024575A CN106971727A CN 106971727 A CN106971727 A CN 106971727A CN 201610024575 A CN201610024575 A CN 201610024575A CN 106971727 A CN106971727 A CN 106971727A
Authority
CN
China
Prior art keywords
sequence number
sequence
data group
frequency range
subspace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610024575.6A
Other languages
English (en)
Inventor
祝铭明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yutou Technology Hangzhou Co Ltd
Original Assignee
Yutou Technology Hangzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yutou Technology Hangzhou Co Ltd filed Critical Yutou Technology Hangzhou Co Ltd
Priority to CN201610024575.6A priority Critical patent/CN106971727A/zh
Publication of CN106971727A publication Critical patent/CN106971727A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种声纹识别的验证方法,属于生物识别技术领域;方法包括:预先多个频段,分别对这每个频段进行如下操作:将语音分割为多个识别区段;对每个识别区段做特征变换后得到识别特征点,并进而形成识别特征空间;将识别特征空间划分为多个子空间;根据训练语句做特征变换后得到时序特征点并分配入各个子空间中,随后根据子空间的序号形成第一序列,并进而形成训练识别特征。同样地,根据测试语句得到测试识别特征;获取每个所述频段的所述训练识别特征与所述测试识别特征的相似度,并分别判断每个所述相似度是否大于预设的阈值,若否,输出识别失败的提示;若是,根据所述训练识别特征处理得到声纹识别的确认结果。

Description

一种声纹识别的验证方法
技术领域
本发明涉及生物识别技术领域,尤其涉及一种声纹识别的验证方法。
背景技术
声纹识别和指纹,虹膜,人脸识别等一样,属于生物识别的一种,被认为是最自然的生物特征识别身份鉴定方式。依靠声纹识别可以很方便地对说话人的身份进行验证,并且这种验证方式的私密性非常高,因为声纹通常无法被恶意复制和盗取,因此声纹识别在各种领域尤其是智能设备领域具有突出的应用优势。
声纹识别的基本过程为语音采集,特征提取,分类模型。常见的语音特征提取方法是利用语音的短时平稳特性,采用美倒谱变换方法将语音转换为识别特征集,之后经过学习过程对说话人语音进行建模得到说话人的分类模型,随后通过各类识别模型获得声纹识别的结果。但是上述过程存在以下几个问题:(1)上述声纹识别的模型需要学习更多的样本才能应用;(2)依据上述识别模型进行的声纹识别的计算的复杂度较高;(3)依据上述的识别模型计算得到的模型数据量较大;(4)由于语音在传输过程中容易受到外部噪音的干扰,因此声纹识别的识别结果容易出现误差。综上所述,对于资源有限的智能系统而言,上述既存的问题限制了现有技术中的声纹识别算法的应用。
发明内容
根据现有技术中存在的上述问题,现提供一种声纹识别的验证方法的技术方案,具体包括:
一种声纹识别的验证方法,其中:预设多个不同的频段,多个所述频段从高到低依次排列,包括下述步骤:
步骤S1,将分别处于每个所述频段下的不同背景、不同人声的语音分割为特定长度的识别区段;
步骤S2,对每个所述识别区段做特征变换后得到相应的多个识别特征,并采用关联于所有所述识别区段的所有所述识别特征分别构成相应的所述频段的所述识别特征空间;
步骤S3,将所述识别特征空间划分成复数个子空间,并以描述信息每个被划分的所述子空间,以及分别对每个所述子空间赋予一对应的序号;
步骤S4,分别将处于每个所述频段的关联于训练模型的每条训练语句做特征变换后得到包括相应的时序特征点的时序特征点集,每个所述时序特征点分别被分配入同频段下的各个所述子空间,根据每个所述时序特征点对应的所述子空间的序号分别形成关联于相应的所述频段的第一序列,并进而形成对应的训练识别特征;
步骤S5,分别将处于每个所述频段的关联于测试模型的每条测试语句做特征变换后得到所述时序特征点集,每个所述时序特征点分别被分配入各个所述子空间,根据每个所述时序特征点对应的所述子空间的序号分别形成关联于相应的所述频段的第二序列,并进而形成对应的测试识别特征;
步骤S6,分别获取关联于每个所述频段的所述训练识别特征与所述测试识别特征的相似度,并分别判断每个所述相似度是否大于预设的阈值,若否,则验证失败,输出识别失败的提示;若是,则验证成功,根据所述训练识别特征处理得到声纹识别的确认结果。
优选的,该声纹识别的验证方法,其中,所述步骤S4中,每个所述时序特征点按照最近邻原则被分配入各个所述子空间内。
优选的,该声纹识别的验证方法,其中,所述步骤S4中,将被分配入所述时序特征点的各个所述子空间按照所述序号组成一空间序列,并将所述空间序列作为所述第一序列,以形成所述训练识别特征。
优选的,该声纹识别的验证方法,其中,所述步骤S5中,将被分配入所述时序特征点的各个所述子空间按照所述序号组成一空间序列,并将所述控件序列作为所述第二序列,以形成所述测试识别特征。
优选的,该声纹识别的验证方法,其中,所述步骤S4中,所述空间序列中包括关联于每个所述子空间的数据组,一个所述数据组对应一个所述序号;
在形成所述空间序列后,还包括分别对处于每个所述频段的所述空间序列进行的第一数据压缩的过程,具体为:
步骤S41,记录每个所述数据组的所述序号,并记录关联于每个所述序号的重复序号数量;
步骤S42,判断是否存在所述序号的所述重复序号数量为1,并在存在所述重复序号数量为1的所述数据组时转向步骤S43;
步骤S43,删除所述重复序号数量为1的所述序号对应的所述数据组;
步骤S44,判断被删除的所述数据组的前一个数据组的所述序号是否与被删除的所述数据组的后一个数据组的所述序号相同:
若相同,则将所述前一个数据组和所述后一个数据组合并;
若不相同,则保留所述前一个数据组和所述后一个数据组;
对所述空间序列中的所有所述数据组均执行所述第一数据压缩后形成所述第一序列。
优选的,该声纹识别的验证方法,其中,所述步骤S5中,所述空间序列中包括关联于每个所述子空间的数据组,一个所述数据组对应一个所述序号;
在形成所述空间序列后,还包括分别对处于每个所述频段的所述空间序列进行的第二数据压缩的过程,具体为:
步骤S51,记录每个所述数据组的所述序号,并记录关联于每个所述序号的重复序号数量;
步骤S52,判断是否存在所述序号的所述重复序号数量为1,并在存在所述重复序号数量为1的所述数据组时转向步骤S53;
步骤S53,删除所述重复序号数量为1的所述序号对应的所述数据组;
步骤S54,判断被删除的所述数据组的前一个数据组的所述序号是否与被删除的所述数据组的后一个数据组的所述序号相同:
若相同,则将所述前一个数据组和所述后一个数据组合并;
若不相同,则保留所述前一个数据组和所述后一个数据组;
对所述空间序列中的所有所述数据组均执行所述第二数据压缩后形成所述第二序列。
优选的,该声纹识别的验证方法,其中:所述特征变换为美倒谱变换。
优选的,该声纹识别的验证方法,其中:于执行所述美倒谱变换的过程中,分别将每条所述语句分割为20ms一帧,并将10ms的帧移取出关联于所述语句的语句帧;
随后,以帧为单位去掉静音,对所述语句帧作美倒谱变换后每帧留12个系数,并以12个所述系数构成所述识别特征。
优选的,该声纹识别的验证方法,其中:所述步骤S3中,采用“K-均值”算法将识别特征空间划分成数个子空间,划分后的每个所述子空间分别以“K-均值”的中心点记录为对应所述子空间的所述描述信息。
上述技术方案的有益效果是:提供一种声纹识别的验证方法可对多个频段中的每个频段的语音的相似度进行验证,以提高声纹识别的准确性,使得声纹识别的计算量较小,节省存储和计算资源,并且克服了基于概率统计的建模方法存在的问题,适合于系统资源有限的智能系统使用。根据预设的多个频段实现了对不同频段的语音进行声纹识别的目的。
附图说明
图1是本发明的较佳的实施例中,一种声纹识别的验证方法的总体流程图;
图2是本发明的较佳的实施例中,第一数据压缩的流程示意图;
图3是本发明的较佳的实施例中,第二数据压缩的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明的较佳的实施例中,基于现有技术中存在的上述问题,现提供一种声纹识别的验证方法。该声纹识别的验证方法可以适用于具有语音控制功能的智能设备中,例如应用于私人空间中的智能机器人等。
在上述声纹识别的验证方法中,首先预设多个频段,多个频段从高到低依次排列。具体地,对于不同的使用者而言,其语音的频率可能不同,对频率粗略进行划分可以分为对应成年的说话人的较低的频段,以及对应儿童的说话人的较高的频段。
更进一步地,对于成年的说话人和儿童的说话人而言,其声纹识别可能并不相同,具体在于其声纹特征的提取以及相应的声纹模型的构建可能会有区别。因此在本发明技术方案中,设置两个语音接收的频段,并根据这两个频段将成年人的语音和儿童的语音区分识别,从而进一步提升识别精度。换言之,上文中较高的频段可以用于表示儿童的说话人的语音频段,较低的频段可以用于表示成年的说话人的语音频段;最低的频段可以用于表示老年人的说话的语音频段。因此,本发明的较佳的实施例中,上述两个频段可以根据实验数据的不断累加进行相应修改,从而达到一个能够较准确地分别代表成表示不同年龄段的说话人的语音频段的目的。
则本发明的较佳的实施例中,如图1所示,上述声纹识别的验证方法具体包括:
步骤S1,将分别处于每个频段下的不同背景、不同人声的语音分割为特定长度的识别区段;
步骤S2,对每个识别区段做特征变换后得到相应的多个识别特征,并采用关联于所有识别区段的所有识别特征分别构成相应的频段的识别特征空间;
步骤S3,将识别特征空间划分成复数个子空间,并以描述信息每个被划分的子空间,以及分别对每个子空间赋予一对应的序号;
步骤S4,分别将处于每个频段的关联于训练模型的每条训练语句做特征变换后得到包括相应的时序特征点的时序特征点集,每个时序特征点分别被分配入同频段下的各个子空间,根据每个时序特征点对应的子空间的序号分别形成关联于相应的频段的第一序列,并进而形成对应的训练识别特征;
步骤S5,分别将处于每个频段的关联于测试模型的每条测试语句做特征变换后得到时序特征点集,每个时序特征点分别被分配入各个子空间,根据每个时序特征点对应的子空间的序号分别形成关联于相应的频段的第二序列,并进而形成对应的测试识别特征;
步骤S6,分别获取关联于每个频段的训练识别特征与测试识别特征的相似度,并分别判断每个相似度是否大于预设的阈值,若否,则验证失败,输出识别失败的提示;若是,则验证成功,根据训练识别特征处理得到声纹识别的确认结果。
在本实施例中,声纹识别的验证方法可对多个频段中的每个频段的语音的相似度进行验证,以提高声纹识别的准确性,使得声纹识别的计算量减小,节省存储和计算资源,并且克服了基于概率统计的建模方法存在的问题,适合于系统资源有限的智能系统使用。根据预设的多个频段实现了对不同频段的语音进行声纹识别的目的。
本发明的较佳的实施例中,在上述预先设置的基础上,上述步骤S1-S2中,首先获取分别处于不同频段下的基于不同背景、不同人声的语音,并将这些语音分割为特定长度的识别区段。具体地,可以将不同背景、不同人声的语音对应的每条语句分割为以20ms为一帧的多个语句帧,并将10ms的语句帧移取,然后以每帧为单位去掉静音,对语音帧作美倒谱变换,每帧留12个系数,该12个系数即构成识别特征。所有语音段的识别特征构成识别特征集,也就是构成相应的识别特征空间。
本发明的较佳的实施例中,在上述步骤S3中,采用“K-均值”算法将识别特征空间划分为复数个子空间,划分后的数个子空间分别以“K-均值”的中心点记录为该子空间的数据描述,并对各个子空间进行编号,记录每个子空间的描述信息和其对应的序号。上述步骤同样对处于不同频段下的识别特征空间分别执行。
本发明的较佳的实施例中,分别对处于每个频段下的子空间进行如上述步骤S4的操作:将关联于训练模型的每条训练语句做特征变换后得到包括相应的时序特征点的时序特征点集,每个时序特征点分别被分配入同频段下的各个子空间,根据每个时序特征点对应的子空间的序号分别形成关联于相应的频段的第一序列,并进而形成对应的训练识别特征。
具体地,本发明的较佳的实施例中,所谓训练语句,可以为经过反复训练后预设于系统内部供系统比对时进行参照的训练模型的组成部分。
具体地,本发明的较佳的实施例中,上述步骤S4中,将每个时序特征点按照最近邻原则分别分配入处于同一频段下的各个子空间中,并且记录每个时序特征点对应的子空间的序号,最终形成一个第一序列,该第一序列由不同的子空间的序号组成,例如(2、2、4、8、8、8、5、5、5、5、5),进而根据该第一序列形成对应的训练识别特征。
本发明的较佳的实施例中,类似地,上述步骤S5中,分别对处于上述不同频段下的子空间进行如下操作:对关联于测试模型的测试语句做特征变换后得到时序特征点集,每个时序特征点分别被分配入各个子空间,根据每个时序特征点对应的子空间的序号分别形成关联于相应的频段的第二序列,并进而形成对应的测试识别特征。
本发明的较佳的实施例中,所谓测试语句,其关联于测试模型,也就是需要比对的语句。
具体地,本发明的较佳的实施例中,上述步骤S5中,同样将上述测试语句中的每个时序特征点按照最近邻原则分别分配入处于同一频段下的各个子空间中,并且记录每个时序特征点对应的子空间的序号,最终形成一个第二序列,该第二序列同样由不同的子空间的序号组成,例如(2、3、3、5、5、8、6、6、6、4、4),进而根据该第二序列形成对应的测试识别特征。本发明的较佳的实施例中,上述步骤S4和步骤S5之间并不存在相互依附的关系(即步骤S5的执行不必须以步骤S4执行完毕为前提),因此上述步骤S4和步骤S5可以同时进行。图1中仍然示出步骤S4和步骤S5顺序进行的实施例。
本发明的较佳的实施例中,上述步骤S6中,将上述形成的训练识别特征和测试识别特征进行比对,并根据比对结果处理得到声纹识别的最终结果。
具体地,上述步骤S6中,同样分别依照每个频段进行比对,即获取每个频段下的测试识别特征与同样处于相应的频段下的训练识别特征的相似度,并分别判断每个相似度是否大于预设的阈值,若否,则验证失败,输出识别失败的提示;若是,则验证成功,根据训练识别特征处理得到声纹识别的确认结果。
进一步地,本发明的较佳的实施例中,上述步骤S4中,空间序列中包括关联于每个子空间的数据组,一个数据组对应一个序号;
则在形成空间序列后,还包括分别对处于每个频段的空间序列进行的第一数据压缩的过程,具体如图2所示,为:
步骤S41,记录每个数据组的序号,并记录关联于每个序号的重复序号数量;
步骤S42,判断是否存在序号的重复序号数量为1,并在存在重复序号数量为1的数据组时转向步骤S43;
步骤S43,删除重复序号数量为1的序号对应的数据组;
步骤S44,判断被删除的数据组的前一个数据组的序号是否与被删除的数据组的后一个数据组的序号相同:
若相同,则将前一个数据组和后一个数据组合并;
若不相同,则保留前一个数据组和后一个数据组;
对空间序列中的所有数据组均执行第一数据压缩后形成第一序列。
具体地,本发明的较佳的实施例中,上述第一数据压缩的过程中,记录子空间的序号以及相同序号的数量,将序号和相同序号的数量作为一组数据进行排列,当相同序号的数量为1时,去掉该组数据。在本发明的一个脚架的实施例中,序号为4的数据只有1个,则在进行第一数据压缩的过程中删掉该组数据。
如果当去掉该组数据后,该数据前方一组数据中的序号和后方一组数据中的序号相同时,则将两组合并。新形成的数据组的序号与被删除的该数据组的前方一组数据的序号相同,相同序号的数量为被删除的该组数据前方一组数据的数量与被删除的该组数据后方一组数据的数量之和。又或者,在删除该组数据后,该数据前方一组数据中的序号和后方一组数据中的序号不同,则同时保留这两组数据。例如,在本发明的一个较佳的实施例中,当序号为4的数据组被去除后,位于该组数据前一组的数据的序号为2,位于该组数据后一组的数据的序号为8,2和8不相同,所以保留原数据组。
本发明的较佳的实施例中,经过第一数据压缩后的第一序列即为上述训练识别特征。
相应地,本发明的较佳的实施例中,上述步骤S5中,空间序列中包括关联于每个子空间的数据组,一个数据组对应一个序号;
则在形成空间序列后,还包括分别对处于每个频段的空间序列进行的第二数据压缩的过程,具体如图3所示,为:
步骤S51,记录每个数据组的序号,并记录关联于每个序号的重复序号数量;
步骤S52,判断是否存在序号的重复序号数量为1,并在存在重复序号数量为1的数据组时转向步骤S53;
步骤S53,删除重复序号数量为1的序号对应的数据组;
步骤S54,判断被删除的数据组的前一个数据组的序号是否与被删除的数据组的后一个数据组的序号相同:
若相同,则将前一个数据组和后一个数据组合并;
若不相同,则保留前一个数据组和后一个数据组;
对空间序列中的所有数据组均执行第二数据压缩后形成第二序列。
具体地,类似上述步骤S4中的步骤,步骤S5中,同样记录子空间的序号以及相同序号的数量,将序号和相同序号的数量作为一组数据进行排列。当相同序号的数量为1时,去掉该组数据。
如果当去掉该组数据后,该数据前方一组数据中的序号和后方一组数据中的序号相同时,则将两组合并。新形成的数据组的序号与被删除的该数据组的前方一组数据的序号相同,相同序号的数量为被删除的该组数据前方一组数据的数量与被删除的该组数据后方一组数据的数量之和。又或者,在删除该组数据后,该数据前方一组数据中的序号和后方一组数据中的序号不同,则同时保留这两组数据。例如,在本发明的一个较佳的实施例中,当序号为4的数据组被去除后,位于该组数据前一组的数据的序号为2,位于该组数据后一组的数据的序号为8,2和8不相同,所以保留原数据组。
同样地,本发明的较佳的实施例中,上述经过第二数据压缩的第二序列即为测试识别特征。
上述步骤S6中,最终获取关联于每个频段的训练识别特征与测试识别特征的相似度,并分别判断每个相似度是否大于预设的阈值,若否,则验证失败,输出识别失败的提示;若是,则验证成功,根据训练识别特征处理得到声纹识别的确认结果。
上述步骤的执行使得声纹识别的计算量更小,识别率更好,并且需要处理的数据量也相对较小。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (9)

1.一种声纹识别的验证方法,其特征在于:预设多个不同的频段,多个所述频段从高到低依次排列,包括下述步骤:
步骤S1,将分别处于每个所述频段下的不同背景、不同人声的语音分割为特定长度的识别区段;
步骤S2,对每个所述识别区段做特征变换后得到相应的多个识别特征,并采用关联于所有所述识别区段的所有所述识别特征分别构成相应的所述频段的所述识别特征空间;
步骤S3,将所述识别特征空间划分成复数个子空间,并以描述信息每个被划分的所述子空间,以及分别对每个所述子空间赋予一对应的序号;
步骤S4,分别将处于每个所述频段的关联于训练模型的每条训练语句做特征变换后得到包括相应的时序特征点的时序特征点集,每个所述时序特征点分别被分配入同频段下的各个所述子空间,根据每个所述时序特征点对应的所述子空间的序号分别形成关联于相应的所述频段的第一序列,并进而形成对应的训练识别特征;
步骤S5,分别将处于每个所述频段的关联于测试模型的每条测试语句做特征变换后得到所述时序特征点集,每个所述时序特征点分别被分配入各个所述子空间,根据每个所述时序特征点对应的所述子空间的序号分别形成关联于相应的所述频段的第二序列,并进而形成对应的测试识别特征;
步骤S6,分别获取关联于每个所述频段的所述训练识别特征与所述测试识别特征的相似度,并分别判断每个所述相似度是否大于预设的阈值,若否,则验证失败,输出识别失败的提示;若是,则验证成功,根据所述训练识别特征处理得到声纹识别的确认结果。
2.如权利要求1所述的声纹识别的验证方法,其特征在于,所述步骤S4中,每个所述时序特征点按照最近邻原则被分配入各个所述子空间内。
3.如权利要求1所述的声纹识别的验证方法,其特征在于,所述步骤S4中,将被分配入所述时序特征点的各个所述子空间按照所述序号组成一空间序列,并将所述空间序列作为所述第一序列,以形成所述训练识别特征。
4.如权利要求1所述的声纹识别的验证方法,其特征在于,所述步骤S5中,将被分配入所述时序特征点的各个所述子空间按照所述序号组成一空间序列,并将所述控件序列作为所述第二序列,以形成所述测试识别特征。
5.如权利要求3所述的声纹识别的验证方法,其特征在于,所述步骤S4中,所述空间序列中包括关联于每个所述子空间的数据组,一个所述数据组对应一个所述序号;
在形成所述空间序列后,还包括分别对处于每个所述频段的所述空间序列进行的第一数据压缩的过程,具体为:
步骤S41,记录每个所述数据组的所述序号,并记录关联于每个所述序号的重复序号数量;
步骤S42,判断是否存在所述序号的所述重复序号数量为1,并在存在所述重复序号数量为1的所述数据组时转向步骤S43;
步骤S43,删除所述重复序号数量为1的所述序号对应的所述数据组;
步骤S44,判断被删除的所述数据组的前一个数据组的所述序号是否与被删除的所述数据组的后一个数据组的所述序号相同:
若相同,则将所述前一个数据组和所述后一个数据组合并;
若不相同,则保留所述前一个数据组和所述后一个数据组;
对所述空间序列中的所有所述数据组均执行所述第一数据压缩后形成所述第一序列。
6.如权利要求4所述的声纹识别的验证方法,其特征在于,所述步骤S5中,所述空间序列中包括关联于每个所述子空间的数据组,一个所述数据组对应一个所述序号;
在形成所述空间序列后,还包括分别对处于每个所述频段的所述空间序列进行的第二数据压缩的过程,具体为:
步骤S51,记录每个所述数据组的所述序号,并记录关联于每个所述序号的重复序号数量;
步骤S52,判断是否存在所述序号的所述重复序号数量为1,并在存在所述重复序号数量为1的所述数据组时转向步骤S53;
步骤S53,删除所述重复序号数量为1的所述序号对应的所述数据组;
步骤S54,判断被删除的所述数据组的前一个数据组的所述序号是否与被删除的所述数据组的后一个数据组的所述序号相同:
若相同,则将所述前一个数据组和所述后一个数据组合并;
若不相同,则保留所述前一个数据组和所述后一个数据组;
对所述空间序列中的所有所述数据组均执行所述第二数据压缩后形成所述第二序列。
7.如权利要求1所述的声纹识别的验证方法,其特征在于:所述特征变换为美倒谱变换。
8.如权利要求7所述的声纹识别的验证方法,其特征在于:于执行所述美倒谱变换的过程中,分别将每条所述语句分割为20ms一帧,并将10ms的帧移取出关联于所述语句的语句帧;
随后,以帧为单位去掉静音,对所述语句帧作美倒谱变换后每帧留12个系数,并以12个所述系数构成所述识别特征。
9.如权利要求1所述的声纹识别的验证方法,其特征在于:所述步骤S3中,采用“K-均值”算法将识别特征空间划分成数个子空间,划分后的每个所述子空间分别以“K-均值”的中心点记录为对应所述子空间的所述描述信息。
CN201610024575.6A 2016-01-14 2016-01-14 一种声纹识别的验证方法 Pending CN106971727A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610024575.6A CN106971727A (zh) 2016-01-14 2016-01-14 一种声纹识别的验证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610024575.6A CN106971727A (zh) 2016-01-14 2016-01-14 一种声纹识别的验证方法

Publications (1)

Publication Number Publication Date
CN106971727A true CN106971727A (zh) 2017-07-21

Family

ID=59334441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610024575.6A Pending CN106971727A (zh) 2016-01-14 2016-01-14 一种声纹识别的验证方法

Country Status (1)

Country Link
CN (1) CN106971727A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886956A (zh) * 2017-11-13 2018-04-06 广州酷狗计算机科技有限公司 音频识别方法、装置及计算机存储介质
CN111933152A (zh) * 2020-10-12 2020-11-13 北京捷通华声科技股份有限公司 注册音频的有效性的检测方法、检测装置和电子设备
CN112528259A (zh) * 2020-12-23 2021-03-19 平安普惠企业管理有限公司 身份验证方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101944359A (zh) * 2010-07-23 2011-01-12 杭州网豆数字技术有限公司 一种面向特定人群的语音识别方法
CN102354496A (zh) * 2011-07-01 2012-02-15 中山大学 一种基于psm变调的语音识别及其还原方法及其装置
CN102623008A (zh) * 2011-06-21 2012-08-01 中国科学院苏州纳米技术与纳米仿生研究所 声纹识别方法
CN103943104A (zh) * 2014-04-15 2014-07-23 海信集团有限公司 一种语音信息识别的方法及终端设备
CN104392718A (zh) * 2014-11-26 2015-03-04 河海大学 一种基于声学模型阵列的鲁棒语音识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101944359A (zh) * 2010-07-23 2011-01-12 杭州网豆数字技术有限公司 一种面向特定人群的语音识别方法
CN102623008A (zh) * 2011-06-21 2012-08-01 中国科学院苏州纳米技术与纳米仿生研究所 声纹识别方法
CN102354496A (zh) * 2011-07-01 2012-02-15 中山大学 一种基于psm变调的语音识别及其还原方法及其装置
CN103943104A (zh) * 2014-04-15 2014-07-23 海信集团有限公司 一种语音信息识别的方法及终端设备
CN104392718A (zh) * 2014-11-26 2015-03-04 河海大学 一种基于声学模型阵列的鲁棒语音识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886956A (zh) * 2017-11-13 2018-04-06 广州酷狗计算机科技有限公司 音频识别方法、装置及计算机存储介质
CN111933152A (zh) * 2020-10-12 2020-11-13 北京捷通华声科技股份有限公司 注册音频的有效性的检测方法、检测装置和电子设备
CN112528259A (zh) * 2020-12-23 2021-03-19 平安普惠企业管理有限公司 身份验证方法、装置、计算机设备和存储介质
CN112528259B (zh) * 2020-12-23 2024-03-05 深圳市兴海物联科技有限公司 身份验证方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN108597496B (zh) 一种基于生成式对抗网络的语音生成方法及装置
CN106971737A (zh) 一种基于多人说话的声纹识别方法
CN104167208B (zh) 一种说话人识别方法和装置
CN107464568B (zh) 基于三维卷积神经网络文本无关的说话人识别方法及系统
CN102509547B (zh) 基于矢量量化的声纹识别方法及系统
CN108281137A (zh) 一种全音素框架下的通用语音唤醒识别方法及系统
CN108172218B (zh) 一种语音建模方法及装置
CA2549092C (en) System and method for providing improved claimant authentication
CN107767861B (zh) 语音唤醒方法、系统及智能终端
CN108122556A (zh) 减少驾驶人语音唤醒指令词误触发的方法及装置
CN106448684A (zh) 基于深度置信网络特征矢量的信道鲁棒声纹识别系统
CN107731233A (zh) 一种基于rnn的声纹识别方法
CN106898355B (zh) 一种基于二次建模的说话人识别方法
CN102800316A (zh) 基于神经网络的声纹识别系统的最优码本设计方法
CN109243494A (zh) 基于多重注意力机制长短时记忆网络的儿童情感识别方法
CN104091602A (zh) 一种基于模糊支持向量机的语音情感识别方法
CN111091809B (zh) 一种深度特征融合的地域性口音识别方法及装置
CN107039036A (zh) 一种基于自动编码深度置信网络的高质量说话人识别方法
Fong Using hierarchical time series clustering algorithm and wavelet classifier for biometric voice classification
CN106205624A (zh) 一种基于dbscan算法的声纹识别方法
CN105845141A (zh) 基于信道鲁棒的说话人确认模型及说话人确认方法和装置
CN106971727A (zh) 一种声纹识别的验证方法
CN105845143A (zh) 基于支持向量机的说话人确认方法及其系统
CN106971730A (zh) 一种基于信道补偿的声纹识别方法
CN112017658A (zh) 一种基于智能人机交互的操作控制系统

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170721