CN107527620A - 电子装置、身份验证的方法及计算机可读存储介质 - Google Patents
电子装置、身份验证的方法及计算机可读存储介质 Download PDFInfo
- Publication number
- CN107527620A CN107527620A CN201710614649.6A CN201710614649A CN107527620A CN 107527620 A CN107527620 A CN 107527620A CN 201710614649 A CN201710614649 A CN 201710614649A CN 107527620 A CN107527620 A CN 107527620A
- Authority
- CN
- China
- Prior art keywords
- mrow
- authentication
- observational characteristic
- characteristic unit
- speech frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000009434 installation Methods 0.000 title claims abstract description 26
- 238000009432 framing Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 37
- 238000013527 convolutional neural network Methods 0.000 claims description 36
- 238000001228 spectrum Methods 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 23
- 238000010606 normalization Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000017105 transposition Effects 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 208000011580 syndromic disease Diseases 0.000 claims 1
- 238000003860 storage Methods 0.000 description 17
- 230000001755 vocal effect Effects 0.000 description 15
- 239000000203 mixture Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000005611 electricity Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/10—Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Telephonic Communication Services (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本发明涉及一种电子装置、身份验证的方法及计算机可读存储介质,电子装置包括存储器及处理器,存储器中存储有身份验证的系统,身份验证的系统被处理器执行时实现:在接收到待进行身份验证的目标用户的当前语音数据后,对当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成当前语音数据对应的多个观测特征单元;将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,以对该目标用户进行身份验证。本发明能够降低短语音识别的错误率。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种电子装置、身份验证的方法及计算机可读存储介质。
背景技术
声纹识别是一种通过对目标语音进行计算机仿真判别的身份认证技术,可广泛应用在互联网、银行系统、公安司法等领域。目前,传统的声纹识别方案采用的是基于高斯混合模型建模的通用背景模型对说话人录音,并进行差异分析,然后根据差异提取声纹特征,并通过相似性测度进行打分,给出识别结果。这种声纹识别方案对于长录音(例如,30秒及以上时长的录音)的识别错误率较低,识别效果好,但是针对不同业务场景中广泛出现的短录音(例如,小于30秒时长的录音),由于参数有限,利用通用背景模型框架无法很好地对录音中的细微差异进行建模,造成对短语音识别的性能不佳,识别错误率高。
发明内容
本发明的目的在于提供一种电子装置、身份验证的方法及计算机可读存储介质,旨在降低短语音识别的错误率。
为实现上述目的,本发明提供一种电子装置,所述电子装置包括存储器及与所述存储器连接的处理器,所述存储器中存储有可在所述处理器上运行的身份验证的系统,所述身份验证的系统被所述处理器执行时实现如下步骤:
S1,在接收到待进行身份验证的目标用户的当前语音数据后,对所述当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;
S2,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元;
S3,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;
S4,将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,并获取输出的身份验证结果,以对该目标用户进行身份验证。
优选地,所述预定的滤波器为梅尔滤波器,所述利用预定的滤波器提取各个语音帧中预设类型的声学特征的步骤包括:
对所述语音帧进行加窗处理;
对每一个加窗进行傅立叶变换得到对应的频谱;
将所述频谱输入梅尔滤波器以输出得到梅尔频谱;
在梅尔频谱上面进行倒谱分析以获得梅尔频率倒谱系数MFCC,以所述梅尔频率倒谱系数MFCC作为该语音帧的声学特征。
优选地,所述根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元的步骤包括:
以所述当前语音数据中的每个录音数据中的语音帧为一语音帧集合,将所述语音帧集合中的每个语音帧的20维梅尔频率倒谱系数MFCC按对应语音帧的分帧时间的先后顺序拼接,生成对应的(20,N)维矩阵的观测特征单元,所述N为该语音帧集合的总帧数。
优选地,所述预先训练生成的预设类型身份验证模型为深度卷积神经网络模型,所述深度卷积神经网络模型采用识别函数进行身份验证,所述识别函数包括:
L(x,y)=xTUy-xTVx-yTVy+b;
其中,Obj为所述深度卷积神经网络模型的目标函数,x为一组观测特征单元中其中一个观测特征单元在所述归一化层得到的用户特征,y为该组观测特征单元中另一个观测特征单元在所述归一化层得到的用户特征,K为常量,P(x,y)为计算一组观测特征单元属于同一用户的概率,L(x,y)为计算一组观测特征单元的相似度L,U为用户的类内关系矩阵,V为用户类间关系矩阵,b为偏置量,T为矩阵转置。
为实现上述目的,本发明还提供一种身份验证的方法,所述身份验证的方法包括:
S1,在接收到待进行身份验证的目标用户的当前语音数据后,对所述当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;
S2,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元;
S3,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;
S4,将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,并获取输出的身份验证结果,以对该目标用户进行身份验证。
优选地,所述预定的滤波器为梅尔滤波器,所述利用预定的滤波器提取各个语音帧中预设类型的声学特征的步骤包括:
对所述语音帧进行加窗处理;
对每一个加窗进行傅立叶变换得到对应的频谱;
将所述频谱输入梅尔滤波器以输出得到梅尔频谱;
在梅尔频谱上面进行倒谱分析以获得梅尔频率倒谱系数MFCC,以所述梅尔频率倒谱系数MFCC作为该语音帧的声学特征。
优选地,所述根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元的步骤包括:
以所述当前语音数据中的每个录音数据中的语音帧为一语音帧集合,将所述语音帧集合中的每个语音帧的20维梅尔频率倒谱系数MFCC按对应语音帧的分帧时间的先后顺序拼接,生成对应的(20,N)维矩阵的观测特征单元,所述N为该语音帧集合的总帧数。
优选地,所述预先训练生成的预设类型身份验证模型为深度卷积神经网络模型,所述深度卷积神经网络模型采用识别函数进行身份验证,所述识别函数包括:
L(x,y)=xTUy-xTVx-yTVy+b;
其中,Obj为所述深度卷积神经网络模型的目标函数,x为一组观测特征单元中其中一个观测特征单元在所述归一化层得到的用户特征,y为该组观测特征单元中另一个观测特征单元在所述归一化层得到的用户特征,K为常量,P(x,y)为计算一组观测特征单元属于同一用户的概率,L(x,y)为计算一组观测特征单元的相似度L,U为用户的类内关系矩阵,V为用户类间关系矩阵,b为偏置量,T为矩阵转置。
优选地,所述步骤S4之前还包括:
获取同一用户第一预设数量的语音对,并获取不同用户第二预设数量的语音对,分别对各个语音对中的语音按照预设的分帧参数进行分帧处理,以获得各个语音对对应的多个语音帧;
利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成每个语音对的多个观测特征单元;
将属于同一用户及属于不同用户的两个语音对应的观测特征单元进行两两配对,以获得多组配对的观测特征单元;
将各个语音对分为第一百分比的训练集和第二百分比的验证集,所述第一百分比和第二百分比之和小于或者等于1;
利用训练集中的各个语音对的各组观测特征单元对深度卷积神经网络模型,并在训练完成后利用验证集对训练后的深度卷积神经网络模型的准确率进行验证;
若所述准确率大于预设阈值,则训练结束,以训练后的深度卷积神经网络模型为所述步骤S4中的深度卷积神经网络模型,或者,若所述准确率小于或者等于所述预设阈值,则增加进行训练的语音对的数量,以重新进行训练。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有身份验证的系统,所述身份验证的系统被处理器执行时实现上述的身份验证的方法的步骤。
本发明的有益效果是:本发明首先对当前语音数据分帧处理以获得多个语音帧,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元,将多组配对后的观测特征单元输入预设类型身份验证模型中,获取输出的身份验证结果,以对该目标用户进行身份验证,本发明对于多种业务场景中出现的短录音进行身份认证时,对短录音进行分帧、提取声学特征并将其转化为观测特征单元,最终将配对后的观测特征单元输入至身份验证模型中进行身份验证,对短语音识别的性能较佳,能够降低识别错误率。
附图说明
图1为本发明各个实施例一可选的应用环境示意图;
图2为本发明身份验证的方法一实施例的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
参阅图1所示,是本发明身份验证的方法的较佳实施例的应用环境示意图。该应用环境示意图包括电子装置1及终端设备2。电子装置1可以通过网络、近场通信技术等适合的技术与终端设备2进行数据交互。
所述终端设备2包括,但不限于,任何一种可与用户通过键盘、鼠标、遥控器、触摸板或者声控设备等方式进行人机交互的电子产品,该电子产品可以利用语音采集装置(例如麦克风)采集用户的语音数据,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet ProtocolTelevision,IPTV)、智能式穿戴式设备、导航装置等等的可移动设备,或者诸如数字TV、台式计算机、笔记本、服务器等等的固定终端。
所述电子装置1是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或信息处理的设备。所述电子装置1可以是计算机、也可以是单个网络服务器、多个网络服务器组成的服务器组或者基于云计算的由大量主机或者网络服务器构成的云,其中云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。
在本实施例中,电子装置1可包括,但不仅限于,可通过系统总线相互通信连接的存储器11、处理器12、网络接口13。需要指出的是,图1仅示出了具有组件11-13的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
其中,存储设备11包括内存及至少一种类型的可读存储介质。内存为电子装置1的运行提供缓存;可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等的非易失性存储介质。在一些实施例中,可读存储介质可以是电子装置1的内部存储单元,例如该电子装置1的硬盘;在另一些实施例中,该非易失性存储介质也可以是电子装置1的外部存储设备,例如电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。本实施例中,存储设备11的可读存储介质通常用于存储安装于电子装置1的操作系统和各类应用软件,例如本发明一实施例中的身份验证的系统的程序代码等。此外,存储设备11还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器12在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器12通常用于控制所述电子装置1的总体操作,例如执行与所述终端设备2进行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行身份验证的系统等。
所述网络接口13可包括无线网络接口或有线网络接口,该网络接口13通常用于在所述电子装置1与其他电子设备之间建立通信连接。本实施例中,网络接口13主要用于将电子装置1与一个或多个终端设备2相连,在电子装置1与一个或多个终端设备2之间建立数据传输通道和通信连接。
所述身份验证的系统存储在存储器11中,包括至少一个存储在存储器11中的计算机可读指令,该至少一个计算机可读指令可被处理器器12执行,以实现本申请各实施例的方法;以及,该至少一个计算机可读指令依据其各部分所实现的功能不同,可被划为不同的逻辑模块。
在一实施例中,上述身份验证的系统被所述处理器12执行时实现如下步骤:
S1,在接收到待进行身份验证的目标用户的当前语音数据后,对所述当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;
本实施例中,在多种业务场景下需要用户进行录音,录音过程中接收到的当前语音数据为一段段的录音数据,该一段段的录音数据为短语音。
在进行录音时,应尽量防止环境噪声和语音采集设备的干扰。录音设备与用户保持适当距离,且尽量不用失真大的录音设备,电源优选使用市电,并保持电流稳定;在进行电话录音时应使用传感器。在进行分帧处理之前,可以对语音数据进行去噪音处理,以进一步减少干扰。
其中,对当前语音数据中每段录音数据按照预设的分帧参数进行分帧处理时,预设的分帧参数例如为每隔25毫秒分帧、帧移10毫秒,分帧处理后每段录音数据得到多个语音帧。当然,本实施例不限定上述的这种分帧处理方式,可以采用其他的分帧参数进行分帧处理的方式,其均在本实施例的保护范围内。
S2,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元;
本实施例中,预定的滤波器优选为梅尔滤波器,声学特征即为声纹特征,声纹特征包括多种类型,例如宽带声纹、窄带声纹、振幅声纹等,本实施例的声纹特征为优选地为梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)。
在根据声学特征生成所述当前语音数据对应的多个观测特征单元时,根据梅尔频率倒谱系数组成特征数据矩阵,具体地,根据每段录音数据的梅尔频率倒谱系数组成特征数据矩阵,多段录音数据对应的特征数据矩阵即为当前语音数据对应的多个观测特征单元。
S3,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;
S4,将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,并获取输出的身份验证结果,以对该目标用户进行身份验证。
本实施例中,预先存储较多数量的用户的观测特征单元,在生成当前语音数据对应的多个观测特征单元后,将生成的多个观测特征单元与预先存储的观测特征单元进行来两两配对,配对后得到多组观测特征单元。
其中,预设类型身份验证模型优选地为深度卷积神经网络模型,深度卷积神经网络模型由1个输入层,4个卷积层,1个池化层,2个全连接层,1个归一化层,1个分类层构成。所述深度卷积神经网络模型的详细结构如上述表1所示:
表1
其中,Layer Name列表示每一层的名称,Input表示输入层,Conv表示卷积层,Conv1表示第1个卷积层,Mean_std_pooling表示池化层,Full connected表示全连接层,Normalize Wrap表示归一化层,Scoring表示分类层。Batch Size表示当前层的输入的观测特征单元的数目,Kernel Size表示当前层卷积核的尺度(例如,Kernel Size可以等于3,表示卷积核的尺度为3x 3),Stride Size表示卷积核的移动步长,即做完一次卷积之后移动到下一个卷积位置的距离。Filter size指每层输出的通道,如在Input层的输入语音通道为1(即原始数据),经过Input层通道变成512。具体地,输入层表示对输入的观测特征单元进行采样,Conv层的卷积核1*1可以对输入进行缩放及特征组合,Normalize Wrap层对输入进行方差归一化,Scoring层训练用户的类内关系矩阵U及用户的类间关系矩阵V,其维度均为300*300。
本实施例中,将多组配对后的观测特征单元输入深度卷积神经网络模型后,并获取输出的身份验证结果,输出的身份验证结果包括验证通过及验证失败,以对该目标用户进行身份验证。
与现有技术相比,本实施例首先对当前语音数据分帧处理以获得多个语音帧,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元,将多组配对后的观测特征单元输入预设类型身份验证模型中,获取输出的身份验证结果,以对该目标用户进行身份验证,本实施例对于多种业务场景中出现的短录音进行身份认证时,对短录音进行分帧、提取声学特征并将其转化为观测特征单元,最终将配对后的观测特征单元输入至身份验证模型中进行身份验证,对短语音识别的性能较佳,能够降低识别错误率。
在一优选的实施例中,在上述图1的实施例的基础上,所述利用预定的滤波器提取各个语音帧中预设类型的声学特征的步骤包括:
对所述语音帧进行加窗处理;
对每一个加窗进行傅立叶变换得到对应的频谱;
将所述频谱输入梅尔滤波器以输出得到梅尔频谱;
在梅尔频谱上面进行倒谱分析以获得梅尔频率倒谱系数MFCC,以所述梅尔频率倒谱系数MFCC作为该语音帧的声学特征。
其中,在对语音数据进行分帧之后,每一帧数据都当成平稳信号来处理。由于后续需要利用傅里叶展开每一项以获取Mel频谱特征,因此会出现吉布斯效应,即将具有不连续点的周期函数(如矩形脉冲)进行傅立叶级数展开后,选取有限项进行合成,当选取的项数越多,在所合成的波形中出现的峰起越靠近原信号的不连续点,当选取的项数很大时,该峰起值趋于一个常数,大约等于总跳变值的9%。为了避免吉布斯效应,则需要对语音帧进行加窗处理,以减少语音帧起始和结束的地方信号的不连续性问题。
其中,倒谱分析例如为取对数、做逆变换,逆变换一般是通过DCT离散余弦变换来实现,取DCT后的第2个到第13个系数作为梅尔频率倒谱系数MFCC系数。梅尔频率倒谱系数MFCC即为这帧语音数据的声纹特征,将每帧的梅尔频率倒谱系数MFCC组成特征数据矩阵,该特征数据矩阵即为语音帧的声学特征。
在一优选的实施例中,在上述的实施例的基础上,所述根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元的步骤包括:
以所述当前语音数据中的每个录音数据中的全部语音帧为一语音帧集合,将所述语音帧集合中的每个语音帧的20维梅尔频率倒谱系数MFCC(即声学特征)按对应语音帧的分帧时间的先后顺序拼接,生成对应的(20,N)维矩阵的观测特征单元,所述N为该语音帧集合的总帧数。
在一优选的实施例中,在上述的实施例的基础上,深度卷积神经网络模型采用识别函数进行身份验证,所述识别函数包括:
L(x,y)=xTUy-xTVx-yTVy+b;
其中,Obj为所述深度卷积神经网络模型的目标函数,通过最大化该目标函数,使深度卷积神经网络模型给出正确判别的概率增大到收敛,由此对目标与的身份进行验证。x为一组观测特征单元中其中一个观测特征单元在所述归一化层得到的用户特征,y为该组观测特征单元中另一个观测特征单元在所述归一化层得到的用户特征,K为常量,P(x,y)为计算一组观测特征单元属于同一用户的概率,L(x,y)为计算一组观测特征单元的相似度L,U为用户的类内关系矩阵,V为用户类间关系矩阵,b为偏置量,T为矩阵转置。
如图2所示,图2为本发明身份验证的方法一实施例的流程示意图,该身份验证的方法包括以下步骤:
步骤S1,在接收到待进行身份验证的目标用户的当前语音数据后,对所述当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;
本实施例中,在多种业务场景下需要用户进行录音,录音过程中接收到的当前语音数据为一段段的录音数据,该一段段的录音数据为短语音。
在进行录音时,应尽量防止环境噪声和语音采集设备的干扰。录音设备与用户保持适当距离,且尽量不用失真大的录音设备,电源优选使用市电,并保持电流稳定;在进行电话录音时应使用传感器。在进行分帧处理之前,可以对语音数据进行去噪音处理,以进一步减少干扰。
其中,对当前语音数据中每段录音数据按照预设的分帧参数进行分帧处理时,预设的分帧参数例如为每隔25毫秒分帧、帧移10毫秒,分帧处理后每段录音数据得到多个语音帧。当然,本实施例不限定上述的这种分帧处理方式,可以采用其他的分帧参数进行分帧处理的方式,其均在本实施例的保护范围内。
步骤S2,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元;
本实施例中,预定的滤波器优选为梅尔滤波器,声学特征即为声纹特征,声纹特征包括多种类型,例如宽带声纹、窄带声纹、振幅声纹等,本实施例的声纹特征为优选地为梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)。
在根据声学特征生成所述当前语音数据对应的多个观测特征单元时,根据梅尔频率倒谱系数组成特征数据矩阵,具体地,根据每段录音数据的梅尔频率倒谱系数组成特征数据矩阵,多段录音数据对应的特征数据矩阵即为当前语音数据对应的多个观测特征单元。
步骤S3,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;
步骤S4,将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,并获取输出的身份验证结果,以对该目标用户进行身份验证。
本实施例中,预先存储较多数量的用户的观测特征单元,在生成当前语音数据对应的多个观测特征单元后,将生成的多个观测特征单元与预先存储的观测特征单元进行来两两配对,配对后得到多组观测特征单元。
其中,预设类型身份验证模型优选地为深度卷积神经网络模型,深度卷积神经网络模型由1个输入层,4个卷积层,1个池化层,2个全连接层,1个归一化层,1个分类层构成。所述深度卷积神经网络模型的详细结构如上述表1所示,此处不再赘述。
其中,Layer Name列表示每一层的名称,Input表示输入层,Conv表示卷积层,Conv1表示第1个卷积层,Mean_std_pooling表示池化层,Full connected表示全连接层,Normalize Wrap表示归一化层,Scoring表示分类层。Batch Size表示当前层的输入的观测特征单元的数目,Kernel Size表示当前层卷积核的尺度(例如,Kernel Size可以等于3,表示卷积核的尺度为3x 3),Stride Size表示卷积核的移动步长,即做完一次卷积之后移动到下一个卷积位置的距离。Filter size指每层输出的通道,如在Input层的输入语音通道为1(即原始数据),经过Input层通道变成512。具体地,输入层表示对输入的观测特征单元进行采样,Conv层的卷积核1*1可以对输入进行缩放及特征组合,Normalize Wrap层对输入进行方差归一化,Scoring层训练用户的类内关系矩阵U及用户的类间关系矩阵V,其维度均为300*300。
本实施例中,将多组配对后的观测特征单元输入深度卷积神经网络模型后,并获取输出的身份验证结果,输出的身份验证结果包括验证通过及验证失败,以对该目标用户进行身份验证。
在一优选的实施例中,在上述图2的实施例的基础上,在上述步骤S2中利用预定的滤波器提取各个语音帧中预设类型的声学特征的步骤包括:
对所述语音帧进行加窗处理;
对每一个加窗进行傅立叶变换得到对应的频谱;
将所述频谱输入梅尔滤波器以输出得到梅尔频谱;
在梅尔频谱上面进行倒谱分析以获得梅尔频率倒谱系数MFCC,以所述梅尔频率倒谱系数MFCC作为该语音帧的声学特征。
其中,在对语音数据进行分帧之后,每一帧数据都当成平稳信号来处理。由于后续需要利用傅里叶展开每一项以获取Mel频谱特征,因此会出现吉布斯效应,即将具有不连续点的周期函数(如矩形脉冲)进行傅立叶级数展开后,选取有限项进行合成,当选取的项数越多,在所合成的波形中出现的峰起越靠近原信号的不连续点,当选取的项数很大时,该峰起值趋于一个常数,大约等于总跳变值的9%。为了避免吉布斯效应,则需要对语音帧进行加窗处理,以减少语音帧起始和结束的地方信号的不连续性问题。
其中,倒谱分析例如为取对数、做逆变换,逆变换一般是通过DCT离散余弦变换来实现,取DCT后的第2个到第13个系数作为梅尔频率倒谱系数MFCC系数。梅尔频率倒谱系数MFCC即为这帧语音数据的声纹特征,将每帧的梅尔频率倒谱系数MFCC组成特征数据矩阵,该特征数据矩阵即为语音帧的声学特征。
在一优选的实施例中,在上述的实施例的基础上,在上述步骤S2中根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元的步骤包括:以所述当前语音数据中的每个录音数据中的全部语音帧为一语音帧集合,将所述语音帧集合中的每个语音帧的20维梅尔频率倒谱系数MFCC(即声学特征)按对应语音帧的分帧时间的先后顺序拼接,生成对应的(20,N)维矩阵的观测特征单元,所述N为该语音帧集合的总帧数。
在一优选的实施例中,在上述的实施例的基础上,深度卷积神经网络模型采用识别函数进行身份验证,所述识别函数包括:
L(x,y)=xTUy-xTVx-yTVy+b;
其中,Obj为所述深度卷积神经网络模型的目标函数,通过最大化该目标函数,使深度卷积神经网络模型给出正确判别的概率增大到收敛,由此对目标与的身份进行验证。x为一组观测特征单元中其中一个观测特征单元在所述归一化层得到的用户特征,y为该组观测特征单元中另一个观测特征单元在所述归一化层得到的用户特征,K为常量,P(x,y)为计算一组观测特征单元属于同一用户的概率,L(x,y)为计算一组观测特征单元的相似度L,U为用户的类内关系矩阵,V为用户类间关系矩阵,b为偏置量,T为矩阵转置。
在一优选的实施例中,在上述的实施例的基础上,所述步骤S4之前还包括:
获取同一用户第一预设数量的语音对,例如,获取1000个用户,每个用户获取1000对语音对,每一对语音对由同一用户对应两个不同发音内容的两段语音组成;并获取不同用户第二预设数量的语音对,例如,获取1000个用户,将各个用户进行两两配对,每对用户对应一个相同发音内容得到一对语音对。分别对各个语音对中的语音按照预设的分帧参数进行分帧处理,例如,所述预设的分帧参数为每隔25毫秒分帧,帧移10毫秒,以获得各个语音对对应的多个语音帧;
利用预定的滤波器(例如,梅尔滤波器)提取各个语音帧中预设类型的声学特征(例如,20维梅尔频率倒谱系数MFCC频谱特征),根据所提取的声学特征生成每个语音对的多个观测特征单元,即根据梅尔频率倒谱系数组成多个特征数据矩阵,该特征数据矩阵即为观测特征单元;
将属于同一用户及属于不同用户的两个语音对应的观测特征单元进行两两配对,以获得多组配对的观测特征单元;
将各个语音对分为第一百分比(例如70%)的训练集和第二百分比(例如20%)的验证集,所述第一百分比和第二百分比之和小于或者等于1;
利用训练集中的各个语音对的各组观测特征单元对深度卷积神经网络模型,并在训练完成后利用验证集对训练后的深度卷积神经网络模型的准确率进行验证;
若所述准确率大于预设阈值(例如,98.5%),则训练结束,以训练后的深度卷积神经网络模型为所述步骤S4中的深度卷积神经网络模型,或者,若所述准确率小于或者等于所述预设阈值,则增加进行训练的语音对的数量,重新执行上述步骤,以重新进行训练,直至训练后的深度卷积神经网络模型的准确率大于预设阈值。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有身份验证的系统,所述身份验证的系统被处理器执行时实现上述的身份验证的方法的步骤。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种电子装置,其特征在于,所述电子装置包括存储器及与所述存储器连接的处理器,所述存储器中存储有可在所述处理器上运行的身份验证的系统,所述身份验证的系统被所述处理器执行时实现如下步骤:
S1,在接收到待进行身份验证的目标用户的当前语音数据后,对所述当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;
S2,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元;
S3,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;
S4,将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,并获取输出的身份验证结果,以对该目标用户进行身份验证。
2.根据权利要求1所述的电子装置,其特征在于,所述预定的滤波器为梅尔滤波器,所述利用预定的滤波器提取各个语音帧中预设类型的声学特征的步骤包括:
对所述语音帧进行加窗处理;
对每一个加窗进行傅立叶变换得到对应的频谱;
将所述频谱输入梅尔滤波器以输出得到梅尔频谱;
在梅尔频谱上面进行倒谱分析以获得梅尔频率倒谱系数MFCC,以所述梅尔频率倒谱系数MFCC作为该语音帧的声学特征。
3.根据权利要求2所述的电子装置,其特征在于,所述根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元的步骤包括:
以所述当前语音数据中的每个录音数据中的语音帧为一语音帧集合,将所述语音帧集合中的每个语音帧的20维梅尔频率倒谱系数MFCC按对应语音帧的分帧时间的先后顺序拼接,生成对应的(20,N)维矩阵的观测特征单元,所述N为该语音帧集合的总帧数。
4.根据权利要求3所述的电子装置,其特征在于,所述预先训练生成的预设类型身份验证模型为深度卷积神经网络模型,所述深度卷积神经网络模型采用识别函数进行身份验证,所述识别函数包括:
<mrow>
<mi>O</mi>
<mi>b</mi>
<mi>j</mi>
<mo>=</mo>
<mo>-</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>&Element;</mo>
<mi>s</mi>
<mi>a</mi>
<mi>m</mi>
<mi>e</mi>
</mrow>
</munder>
<mi>I</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>K</mi>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>&Element;</mo>
<mi>d</mi>
<mi>i</mi>
<mi>f</mi>
<mi>f</mi>
</mrow>
</munder>
<mi>I</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
L(x,y)=xTUy-xTVx-yTVy+b;
其中,Obj为所述深度卷积神经网络模型的目标函数,x为一组观测特征单元中其中一个观测特征单元在所述归一化层得到的用户特征,y为该组观测特征单元中另一个观测特征单元在所述归一化层得到的用户特征,K为常量,P(x,y)为计算一组观测特征单元属于同一用户的概率,L(x,y)为计算一组观测特征单元的相似度L,U为用户的类内关系矩阵,V为用户类间关系矩阵,b为偏置量,T为矩阵转置。
5.一种身份验证的方法,其特征在于,所述身份验证的方法包括:
S1,在接收到待进行身份验证的目标用户的当前语音数据后,对所述当前语音数据按照预设的分帧参数进行分帧处理,以获得多个语音帧;
S2,利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元;
S3,将各个观测特征单元分别与预存的观测特征单元进行两两配对,以获得多组配对后的观测特征单元;
S4,将多组配对后的观测特征单元输入预先训练生成的预设类型身份验证模型,并获取输出的身份验证结果,以对该目标用户进行身份验证。
6.根据权利要求5所述的身份验证的方法,其特征在于,所述预定的滤波器为梅尔滤波器,所述利用预定的滤波器提取各个语音帧中预设类型的声学特征的步骤包括:
对所述语音帧进行加窗处理;
对每一个加窗进行傅立叶变换得到对应的频谱;
将所述频谱输入梅尔滤波器以输出得到梅尔频谱;
在梅尔频谱上面进行倒谱分析以获得梅尔频率倒谱系数MFCC,以所述梅尔频率倒谱系数MFCC作为该语音帧的声学特征。
7.根据权利要求6所述的身份验证的方法,其特征在于,所述根据所提取的声学特征生成所述当前语音数据对应的多个观测特征单元的步骤包括:
以所述当前语音数据中的每个录音数据中的语音帧为一语音帧集合,将所述语音帧集合中的每个语音帧的20维梅尔频率倒谱系数MFCC按对应语音帧的分帧时间的先后顺序拼接,生成对应的(20,N)维矩阵的观测特征单元,所述N为该语音帧集合的总帧数。
8.根据权利要求7所述的身份验证的方法,其特征在于,所述预先训练生成的预设类型身份验证模型为深度卷积神经网络模型,所述深度卷积神经网络模型采用识别函数进行身份验证,所述识别函数包括:
<mrow>
<mi>O</mi>
<mi>b</mi>
<mi>j</mi>
<mo>=</mo>
<mo>-</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>&Element;</mo>
<mi>s</mi>
<mi>a</mi>
<mi>m</mi>
<mi>e</mi>
</mrow>
</munder>
<mi>I</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>K</mi>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>&Element;</mo>
<mi>d</mi>
<mi>i</mi>
<mi>f</mi>
<mi>f</mi>
</mrow>
</munder>
<mi>I</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
L(x,y)=xTUy-xTVx-yTVy+b;
其中,Obj为所述深度卷积神经网络模型的目标函数,x为一组观测特征单元中其中一个观测特征单元在所述归一化层得到的用户特征,y为该组观测特征单元中另一个观测特征单元在所述归一化层得到的用户特征,K为常量,P(x,y)为计算一组观测特征单元属于同一用户的概率,L(x,y)为计算一组观测特征单元的相似度L,U为用户的类内关系矩阵,V为用户类间关系矩阵,b为偏置量,T为矩阵转置。
9.根据权利要求8所述的身份验证的方法,其特征在于,所述步骤S4之前还包括:
获取同一用户第一预设数量的语音对,并获取不同用户第二预设数量的语音对,分别对各个语音对中的语音按照预设的分帧参数进行分帧处理,以获得各个语音对对应的多个语音帧;
利用预定的滤波器提取各个语音帧中预设类型的声学特征,根据所提取的声学特征生成每个语音对的多个观测特征单元;
将属于同一用户及属于不同用户的两个语音对应的观测特征单元进行两两配对,以获得多组配对的观测特征单元;
将各个语音对分为第一百分比的训练集和第二百分比的验证集,所述第一百分比和第二百分比之和小于或者等于1;
利用训练集中的各个语音对的各组观测特征单元对深度卷积神经网络模型,并在训练完成后利用验证集对训练后的深度卷积神经网络模型的准确率进行验证;
若所述准确率大于预设阈值,则训练结束,以训练后的深度卷积神经网络模型为所述步骤S4中的深度卷积神经网络模型,或者,若所述准确率小于或者等于所述预设阈值,则增加进行训练的语音对的数量,以重新进行训练。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有身份验证的系统,所述身份验证的系统被处理器执行时实现如权利要求5至9中任一项所述的身份验证的方法的步骤。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710614649.6A CN107527620B (zh) | 2017-07-25 | 2017-07-25 | 电子装置、身份验证的方法及计算机可读存储介质 |
US16/084,233 US11068571B2 (en) | 2017-07-25 | 2017-08-31 | Electronic device, method and system of identity verification and computer readable storage medium |
EP17897212.1A EP3460793B1 (en) | 2017-07-25 | 2017-08-31 | Electronic apparatus, identity verification method and system, and computer-readable storage medium |
SG11201901766YA SG11201901766YA (en) | 2017-07-25 | 2017-08-31 | Electronic device, method and system of identity verification and computer readable storage medium |
JP2018534079A JP6621536B2 (ja) | 2017-07-25 | 2017-08-31 | 電子装置、身元認証方法、システム及びコンピュータ読み取り可能な記憶媒体 |
AU2017404565A AU2017404565B2 (en) | 2017-07-25 | 2017-08-31 | Electronic device, method and system of identity verification and computer readable storage medium |
KR1020187017523A KR102159217B1 (ko) | 2017-07-25 | 2017-08-31 | 전자장치, 신분 검증 방법, 시스템 및 컴퓨터 판독 가능한 저장매체 |
PCT/CN2017/100055 WO2019019256A1 (zh) | 2017-07-25 | 2017-08-31 | 电子装置、身份验证的方法、系统及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710614649.6A CN107527620B (zh) | 2017-07-25 | 2017-07-25 | 电子装置、身份验证的方法及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107527620A true CN107527620A (zh) | 2017-12-29 |
CN107527620B CN107527620B (zh) | 2019-03-26 |
Family
ID=60680120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710614649.6A Active CN107527620B (zh) | 2017-07-25 | 2017-07-25 | 电子装置、身份验证的方法及计算机可读存储介质 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11068571B2 (zh) |
EP (1) | EP3460793B1 (zh) |
JP (1) | JP6621536B2 (zh) |
KR (1) | KR102159217B1 (zh) |
CN (1) | CN107527620B (zh) |
AU (1) | AU2017404565B2 (zh) |
SG (1) | SG11201901766YA (zh) |
WO (1) | WO2019019256A1 (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154371A (zh) * | 2018-01-12 | 2018-06-12 | 平安科技(深圳)有限公司 | 电子装置、身份验证的方法及存储介质 |
CN108417217A (zh) * | 2018-01-11 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 说话人识别网络模型训练方法、说话人识别方法及系统 |
CN108564954A (zh) * | 2018-03-19 | 2018-09-21 | 平安科技(深圳)有限公司 | 深度神经网络模型、电子装置、身份验证方法和存储介质 |
CN109147818A (zh) * | 2018-10-30 | 2019-01-04 | Oppo广东移动通信有限公司 | 声学特征提取方法、装置、存储介质及终端设备 |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
CN109448726A (zh) * | 2019-01-14 | 2019-03-08 | 李庆湧 | 一种语音控制准确率的调整方法及系统 |
CN109448746A (zh) * | 2018-09-28 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 语音降噪方法及装置 |
CN109473105A (zh) * | 2018-10-26 | 2019-03-15 | 平安科技(深圳)有限公司 | 与文本无关的声纹验证方法、装置和计算机设备 |
CN109686382A (zh) * | 2018-12-29 | 2019-04-26 | 平安科技(深圳)有限公司 | 一种说话人聚类方法和装置 |
CN110289004A (zh) * | 2019-06-18 | 2019-09-27 | 暨南大学 | 一种基于深度学习的人工合成声纹检测系统及方法 |
CN110556126A (zh) * | 2019-09-16 | 2019-12-10 | 平安科技(深圳)有限公司 | 语音识别方法、装置以及计算机设备 |
WO2019232845A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN110570871A (zh) * | 2019-09-20 | 2019-12-13 | 平安科技(深圳)有限公司 | 一种基于TristouNet的声纹识别方法、装置及设备 |
CN110570873A (zh) * | 2019-09-12 | 2019-12-13 | Oppo广东移动通信有限公司 | 声纹唤醒方法、装置、计算机设备以及存储介质 |
CN111191754A (zh) * | 2019-12-30 | 2020-05-22 | 秒针信息技术有限公司 | 语音采集方法、装置、电子设备及存储介质 |
WO2020177380A1 (zh) * | 2019-03-06 | 2020-09-10 | 平安科技(深圳)有限公司 | 基于短文本的声纹检测方法、装置、设备及存储介质 |
CN111798857A (zh) * | 2019-04-08 | 2020-10-20 | 北京嘀嘀无限科技发展有限公司 | 一种信息识别方法、装置、电子设备及存储介质 |
CN116567150A (zh) * | 2023-07-11 | 2023-08-08 | 山东凌晓通信科技有限公司 | 一种会议室防窃听偷录的方法及系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564688A (zh) * | 2018-03-21 | 2018-09-21 | 阿里巴巴集团控股有限公司 | 身份验证的方法及装置和电子设备 |
CN110459209B (zh) * | 2019-08-20 | 2021-05-28 | 深圳追一科技有限公司 | 语音识别方法、装置、设备及存储介质 |
CN115223569A (zh) * | 2022-06-02 | 2022-10-21 | 康佳集团股份有限公司 | 基于深度神经网络的说话人验证方法、终端及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008751A (zh) * | 2014-06-18 | 2014-08-27 | 周婷婷 | 一种基于bp神经网络的说话人识别方法 |
CN105788592A (zh) * | 2016-04-28 | 2016-07-20 | 乐视控股(北京)有限公司 | 一种音频分类方法及装置 |
CN105869644A (zh) * | 2016-05-25 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 基于深度学习的声纹认证方法和装置 |
US20160293167A1 (en) * | 2013-10-10 | 2016-10-06 | Google Inc. | Speaker recognition using neural networks |
CN106448684A (zh) * | 2016-11-16 | 2017-02-22 | 北京大学深圳研究生院 | 基于深度置信网络特征矢量的信道鲁棒声纹识别系统 |
CN106710599A (zh) * | 2016-12-02 | 2017-05-24 | 深圳撒哈拉数据科技有限公司 | 一种基于深度神经网络的特定声源检测方法与系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4032711A (en) | 1975-12-31 | 1977-06-28 | Bell Telephone Laboratories, Incorporated | Speaker recognition arrangement |
US5583961A (en) | 1993-03-25 | 1996-12-10 | British Telecommunications Public Limited Company | Speaker recognition using spectral coefficients normalized with respect to unequal frequency bands |
GB2355834A (en) * | 1999-10-29 | 2001-05-02 | Nokia Mobile Phones Ltd | Speech recognition |
US8645137B2 (en) * | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
CN101465123B (zh) * | 2007-12-20 | 2011-07-06 | 株式会社东芝 | 说话人认证的验证方法和装置以及说话人认证系统 |
US8554562B2 (en) * | 2009-11-15 | 2013-10-08 | Nuance Communications, Inc. | Method and system for speaker diarization |
CN103391201B (zh) * | 2013-08-05 | 2016-07-13 | 公安部第三研究所 | 基于声纹识别实现智能卡身份验证的系统及方法 |
US10580401B2 (en) | 2015-01-27 | 2020-03-03 | Google Llc | Sub-matrix input for neural network layers |
JP6280068B2 (ja) * | 2015-03-09 | 2018-02-14 | 日本電信電話株式会社 | パラメータ学習装置、話者認識装置、パラメータ学習方法、話者認識方法、およびプログラム |
CN104700018B (zh) * | 2015-03-31 | 2016-09-21 | 江苏祥和电子科技有限公司 | 一种用于智能机器人的识别方法 |
JP6616182B2 (ja) * | 2015-12-25 | 2019-12-04 | 綜合警備保障株式会社 | 話者認識装置、判別値生成方法及びプログラム |
AU2017294791B2 (en) * | 2016-07-11 | 2021-06-03 | FTR Labs Pty Ltd | Method and system for automatically diarising a sound recording |
US10546575B2 (en) * | 2016-12-14 | 2020-01-28 | International Business Machines Corporation | Using recurrent neural network for partitioning of audio data into segments that each correspond to a speech feature cluster identifier |
CN107610707B (zh) * | 2016-12-15 | 2018-08-31 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN106847292B (zh) * | 2017-02-16 | 2018-06-19 | 平安科技(深圳)有限公司 | 声纹识别方法及装置 |
CN107068154A (zh) * | 2017-03-13 | 2017-08-18 | 平安科技(深圳)有限公司 | 基于声纹识别的身份验证的方法及系统 |
US10637898B2 (en) * | 2017-05-24 | 2020-04-28 | AffectLayer, Inc. | Automatic speaker identification in calls |
US11289098B2 (en) * | 2019-03-08 | 2022-03-29 | Samsung Electronics Co., Ltd. | Method and apparatus with speaker recognition registration |
-
2017
- 2017-07-25 CN CN201710614649.6A patent/CN107527620B/zh active Active
- 2017-08-31 WO PCT/CN2017/100055 patent/WO2019019256A1/zh unknown
- 2017-08-31 SG SG11201901766YA patent/SG11201901766YA/en unknown
- 2017-08-31 KR KR1020187017523A patent/KR102159217B1/ko active IP Right Grant
- 2017-08-31 EP EP17897212.1A patent/EP3460793B1/en active Active
- 2017-08-31 US US16/084,233 patent/US11068571B2/en active Active
- 2017-08-31 AU AU2017404565A patent/AU2017404565B2/en active Active
- 2017-08-31 JP JP2018534079A patent/JP6621536B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160293167A1 (en) * | 2013-10-10 | 2016-10-06 | Google Inc. | Speaker recognition using neural networks |
CN104008751A (zh) * | 2014-06-18 | 2014-08-27 | 周婷婷 | 一种基于bp神经网络的说话人识别方法 |
CN105788592A (zh) * | 2016-04-28 | 2016-07-20 | 乐视控股(北京)有限公司 | 一种音频分类方法及装置 |
CN105869644A (zh) * | 2016-05-25 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 基于深度学习的声纹认证方法和装置 |
CN106448684A (zh) * | 2016-11-16 | 2017-02-22 | 北京大学深圳研究生院 | 基于深度置信网络特征矢量的信道鲁棒声纹识别系统 |
CN106710599A (zh) * | 2016-12-02 | 2017-05-24 | 深圳撒哈拉数据科技有限公司 | 一种基于深度神经网络的特定声源检测方法与系统 |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108417217A (zh) * | 2018-01-11 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 说话人识别网络模型训练方法、说话人识别方法及系统 |
WO2019136912A1 (zh) * | 2018-01-12 | 2019-07-18 | 平安科技(深圳)有限公司 | 电子装置、身份验证的方法、系统及存储介质 |
CN108154371A (zh) * | 2018-01-12 | 2018-06-12 | 平安科技(深圳)有限公司 | 电子装置、身份验证的方法及存储介质 |
CN108564954A (zh) * | 2018-03-19 | 2018-09-21 | 平安科技(深圳)有限公司 | 深度神经网络模型、电子装置、身份验证方法和存储介质 |
CN108564954B (zh) * | 2018-03-19 | 2020-01-10 | 平安科技(深圳)有限公司 | 深度神经网络模型、电子装置、身份验证方法和存储介质 |
WO2019179036A1 (zh) * | 2018-03-19 | 2019-09-26 | 平安科技(深圳)有限公司 | 深度神经网络模型、电子装置、身份验证方法和存储介质 |
WO2019232845A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN109448746B (zh) * | 2018-09-28 | 2020-03-24 | 百度在线网络技术(北京)有限公司 | 语音降噪方法及装置 |
CN109448746A (zh) * | 2018-09-28 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 语音降噪方法及装置 |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
CN109473105A (zh) * | 2018-10-26 | 2019-03-15 | 平安科技(深圳)有限公司 | 与文本无关的声纹验证方法、装置和计算机设备 |
CN109147818A (zh) * | 2018-10-30 | 2019-01-04 | Oppo广东移动通信有限公司 | 声学特征提取方法、装置、存储介质及终端设备 |
CN109686382A (zh) * | 2018-12-29 | 2019-04-26 | 平安科技(深圳)有限公司 | 一种说话人聚类方法和装置 |
CN109448726A (zh) * | 2019-01-14 | 2019-03-08 | 李庆湧 | 一种语音控制准确率的调整方法及系统 |
WO2020177380A1 (zh) * | 2019-03-06 | 2020-09-10 | 平安科技(深圳)有限公司 | 基于短文本的声纹检测方法、装置、设备及存储介质 |
CN111798857A (zh) * | 2019-04-08 | 2020-10-20 | 北京嘀嘀无限科技发展有限公司 | 一种信息识别方法、装置、电子设备及存储介质 |
CN110289004A (zh) * | 2019-06-18 | 2019-09-27 | 暨南大学 | 一种基于深度学习的人工合成声纹检测系统及方法 |
CN110570873B (zh) * | 2019-09-12 | 2022-08-05 | Oppo广东移动通信有限公司 | 声纹唤醒方法、装置、计算机设备以及存储介质 |
CN110570873A (zh) * | 2019-09-12 | 2019-12-13 | Oppo广东移动通信有限公司 | 声纹唤醒方法、装置、计算机设备以及存储介质 |
CN110556126A (zh) * | 2019-09-16 | 2019-12-10 | 平安科技(深圳)有限公司 | 语音识别方法、装置以及计算机设备 |
WO2021051572A1 (zh) * | 2019-09-16 | 2021-03-25 | 平安科技(深圳)有限公司 | 语音识别方法、装置以及计算机设备 |
CN110556126B (zh) * | 2019-09-16 | 2024-01-05 | 平安科技(深圳)有限公司 | 语音识别方法、装置以及计算机设备 |
CN110570871A (zh) * | 2019-09-20 | 2019-12-13 | 平安科技(深圳)有限公司 | 一种基于TristouNet的声纹识别方法、装置及设备 |
CN111191754A (zh) * | 2019-12-30 | 2020-05-22 | 秒针信息技术有限公司 | 语音采集方法、装置、电子设备及存储介质 |
CN111191754B (zh) * | 2019-12-30 | 2023-10-27 | 秒针信息技术有限公司 | 语音采集方法、装置、电子设备及存储介质 |
CN116567150A (zh) * | 2023-07-11 | 2023-08-08 | 山东凌晓通信科技有限公司 | 一种会议室防窃听偷录的方法及系统 |
CN116567150B (zh) * | 2023-07-11 | 2023-09-08 | 山东凌晓通信科技有限公司 | 一种会议室防窃听偷录的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20190022432A (ko) | 2019-03-06 |
EP3460793B1 (en) | 2023-04-05 |
JP2019531492A (ja) | 2019-10-31 |
EP3460793A1 (en) | 2019-03-27 |
EP3460793A4 (en) | 2020-04-01 |
AU2017404565B2 (en) | 2020-01-02 |
AU2017404565A1 (en) | 2019-02-14 |
KR102159217B1 (ko) | 2020-09-24 |
US11068571B2 (en) | 2021-07-20 |
WO2019019256A1 (zh) | 2019-01-31 |
SG11201901766YA (en) | 2019-04-29 |
JP6621536B2 (ja) | 2019-12-18 |
US20210097159A1 (en) | 2021-04-01 |
CN107527620B (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107527620A (zh) | 电子装置、身份验证的方法及计算机可读存储介质 | |
CN112562691B (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
US11862176B2 (en) | Reverberation compensation for far-field speaker recognition | |
CN107517207A (zh) | 服务器、身份验证方法及计算机可读存储介质 | |
CN110444208A (zh) | 一种基于梯度估计和ctc算法的语音识别攻击防御方法及装置 | |
CN103943104B (zh) | 一种语音信息识别的方法及终端设备 | |
CN112233698B (zh) | 人物情绪识别方法、装置、终端设备及存储介质 | |
CN108154371A (zh) | 电子装置、身份验证的方法及存储介质 | |
CN108986798B (zh) | 语音数据的处理方法、装置及设备 | |
CN108281158A (zh) | 基于深度学习的语音活体检测方法、服务器及存储介质 | |
EP3989217B1 (en) | Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium | |
CN110970036A (zh) | 声纹识别方法及装置、计算机存储介质、电子设备 | |
CN110047504A (zh) | 身份矢量x-vector线性变换下的说话人识别方法 | |
CN108694952B (zh) | 电子装置、身份验证的方法及存储介质 | |
Alam et al. | Text-independent speaker verification employing CNN-LSTM-TDNN hybrid networks | |
CN108650266A (zh) | 服务器、声纹验证的方法及存储介质 | |
CN108630208B (zh) | 服务器、基于声纹的身份验证方法及存储介质 | |
CN113053409B (zh) | 音频测评方法及装置 | |
CN115101054A (zh) | 基于热词图的语音识别方法、装置、设备及存储介质 | |
CN112820313B (zh) | 模型训练方法、语音分离方法、装置及电子设备 | |
CN110634475B (zh) | 语音识别方法、装置、电子设备和计算机可读存储介质 | |
CN116975823A (zh) | 数据处理方法、装置、计算机设备、存储介质及产品 | |
CN116758897A (zh) | 方言语音指令的识别方法、装置及电子设备 | |
CN118280336A (zh) | 音频合成方法、装置、计算机设备和存储介质 | |
CN117037800A (zh) | 声纹识别模型训练方法、声纹识别方法、装置及可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |