CN110246503A - 黑名单声纹库构建方法、装置、计算机设备和存储介质 - Google Patents
黑名单声纹库构建方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110246503A CN110246503A CN201910418485.9A CN201910418485A CN110246503A CN 110246503 A CN110246503 A CN 110246503A CN 201910418485 A CN201910418485 A CN 201910418485A CN 110246503 A CN110246503 A CN 110246503A
- Authority
- CN
- China
- Prior art keywords
- user
- voice data
- vocal print
- blacklist
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001755 vocal effect Effects 0.000 title claims abstract description 169
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000009411 base construction Methods 0.000 title claims abstract description 15
- 238000003062 neural network model Methods 0.000 claims abstract description 35
- 238000010200 validation analysis Methods 0.000 claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims description 50
- 238000004590 computer program Methods 0.000 claims description 27
- 238000005070 sampling Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 18
- 238000000638 solvent extraction Methods 0.000 claims description 13
- 238000010276 construction Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010030 laminating Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 210000004218 nerve net Anatomy 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013502 data validation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及声纹识别技术领域,提供了一种黑名单声纹库构建方法、装置、计算机设备和存储介质。所述方法包括:获取黑名单库以及黑名单库中用户的语音数据,对用户的语音数据进行有效性检测,得到用户的第一语音数据,根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据,采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量,根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,根据声纹特征构建黑名单声纹库。采用本方法能够构建黑名单声纹库对用户的身份进行识别,通过声纹识别的方式提高识别安全性。
Description
技术领域
本申请涉及声纹识别技术领域,特别是涉及一种黑名单声纹库构建方法、装置、计算机设备和存储介质。
背景技术
目前,许多提供服务的企业在提供业务服务时,都需要对用户进行反欺诈识别,对用户的身份验证及反欺诈识别是保证业务安全的重要组成部分。在反欺诈识别中,提供服务的企业会根据历史业务数据中的用户信息,建立黑名单库,从而在进行业务服务时,根据用户提供的身份信息,利用黑名单库对用户的身份进行识别。
然而,传统的根据黑名单对用户的身份进行识别的方式,由于存在伪造身份信息等情况,存在识别安全性低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高识别安全性的黑名单声纹库构建方法、装置、计算机设备和存储介质。
一种黑名单声纹库构建方法,所述方法包括:
获取黑名单库以及黑名单库中用户的语音数据;
对用户的语音数据进行有效性检测,得到用户的第一语音数据;
根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
根据声纹特征构建黑名单声纹库。
在其中一个实施例中,获取黑名单库以及黑名单库中用户的语音数据包括:
获取历史业务语音数据集合以及黑名单库;
根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识;
根据匹配结果,获取与用户对应的业务语音数据;
采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据。
在其中一个实施例中,对用户的语音数据进行有效性检测,得到用户的第一语音数据包括:
对用户的语音数据进行去噪声处理,得到去噪声后的用户的语音数据;
将去噪声后的用户的语音数据拆分为多帧数据,确定用户的语音数据中各帧数据的能量值;
筛选出能量值大于预设的能量阈值的多帧数据作为用户的第一语音数据。
在其中一个实施例中,根据声纹特征,构建黑名单声纹库包括:
获取用户的信息;
建立用户的信息以及第二语音数据的声纹特征之间的关联关系;
根据关联关系,构建黑名单声纹库。
在其中一个实施例中,根据声纹特征,构建黑名单声纹库之后,包括:
当黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据;
对目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据;
提取目标样本语音数据的声纹特征;
根据目标样本语音数据的声纹特征以及新的用户的信息,更新黑名单声纹库。
在其中一个实施例中,根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征之前,包括:
获取样本语音数据;
对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合;
将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
一种黑名单声纹库构建装置,所述装置包括:
获取模块,用于获取黑名单库以及黑名单库中用户的语音数据;
检测模块,用于对用户的语音数据进行有效性检测,得到用户的第一语音数据;
采样模块,用于根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
叠加模块,用于采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
提取模块,用于根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
构建模块,用于根据声纹特征构建黑名单声纹库。
在其中一个实施例中,获取模块还用于获取历史业务语音数据集合以及黑名单库,根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识,根据匹配结果,获取与用户对应的业务语音数据,采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取黑名单库以及黑名单库中用户的语音数据;
对用户的语音数据进行有效性检测,得到用户的第一语音数据;
根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
根据声纹特征构建黑名单声纹库。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取黑名单库以及黑名单库中用户的语音数据;
对用户的语音数据进行有效性检测,得到用户的第一语音数据;
根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
根据声纹特征构建黑名单声纹库。
上述黑名单声纹库构建方法、装置、计算机设备和存储介质,首先通过有效性检测对用户的语音数据进行筛选,筛选出用户的第一语音数据,然后根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据,采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量,最后根据预先训练的深度神经网络模型,从第二语音数据中提取出声纹特征构建黑名单声纹库,从而可以根据黑名单声纹库以及用户的语音数据对用户的身份进行识别,通过声纹识别的方式提高识别安全性。
附图说明
图1为一个实施例中黑名单声纹库构建方法的流程示意图;
图2为一个实施例中图1中步骤S102的子流程示意图;
图3为一个实施例中图1中步骤S104的子流程示意图;
图4为一个实施例中图1中步骤S112的子流程示意图;
图5为另一个实施例中黑名单声纹库构建方法的流程示意图;
图6为再一个实施例中黑名单声纹库构建方法的流程示意图;
图7为一个实施例中黑名单声纹库构建装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种黑名单声纹库构建方法,包括以下步骤:
S102:获取黑名单库以及黑名单库中用户的语音数据。
传统的对用户进行反欺诈识别,是利用黑名单库进行的,黑名单库中包括黑名单用户,黑名单用户指的是提供服务的企业在审核业务处理历史数据时,确定的存在欺诈行为的用户。提供服务的企业,在进行业务服务时,会根据用户提供的身份信息,利用黑名单库对用户的身份进行识别。然而,由于存在伪造身份信息等情况,只通过身份信息对用户的身份进行识别的方式并不安全。所以,在本申请中,提出了一种黑名单声纹库构建方法,通过构建黑名单声纹库,利用声纹识别以及用户的语音数据对用户身份进行验证,能够提高识别安全性。
提供服务的企业在进行业务服务时,会记录业务服务语音数据并存储,业务服务语音数据与用户相对应,在存储时,提供服务的企业会根据用户信息对业务服务语音数据进行标识。在构建黑名单声纹库时,服务器首先会从黑名单库中获取黑名单用户集合,然后根据黑名单用户集合中各黑名单用户匹配存储的携带用户标识的业务服务语音数据,从中获取到与各黑名单用户对应的语音数据。
在其中一个实施例中,当B服务器需要构建黑名单声纹库时,会发送数据请求至A服务器,A服务器中存储了黑名单库以及携带用户标识的业务服务语音数据,在接收到B服务器的数据请求后,A服务器会把黑名单库以及携带用户标识的业务服务语音数据都发送至B服务器,从而使B服务器可以根据黑名单库从携带用户标识的业务服务语音数据中获取到与各黑名单用户对应的语音数据。
S104:对用户的语音数据进行有效性检测,得到用户的第一语音数据。
有效性检测指的是根据语音数据的能量对用户的语音数据进行筛选,去除掉用户的语音数据中的噪音以及能量较低的语音数据,筛选出能量较高的语音数据。用户的语音数据中可能包括噪声以及能量较低的语音数据,会对声纹特征提取造成干扰,所以在进行声纹特征提取之前,要先对用户的语音数据进行有效性检测,去除掉用户的语音数据中的噪声以及能量较低的语音数据,筛选出能量较高的语音数据作为用户的第一语音数据,用于声纹特征提取,提高声纹特征提取的准确率。
S106:根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据。
预设的滑动窗口指的是大小固定的可滑动窗口,在对第一语音数据进行采样时,服务器会按照时间帧的顺序,每次将大小固定的窗口滑动预设的帧数,对第一语音数据进行采样,得到多组与滑动窗口的大小对应的采样语音数据。其中,滑动窗口的尺寸和预设的帧数可按照需要自行设置,预设的帧数越小,采集到的采样语音数据的组数就会越多。举例说明,第一语音数据可以为语音的时域图,根据预设的滑动窗口对第一语音数据进行采样时,得到的用户的多组采样语音数据即为多组语音时域图。
S108:采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量。
声纹是用电声学仪器显示的携带言语信息的声波频谱。文本无关的是声纹识别方式的一种,声纹识别包括文本相关的和文本无关的两种。与文本有关的声纹识别系统要求用户按照规定的内容发音,每个人的声纹模型逐个被精确地建立,而识别时也必须按照规定的内容发音,虽然可以达到较好的识别效果,但对语音数据的依赖性高,如果用户的发音与规定的内容不符合,则无法正确识别该用户。文本无关的识别系统则不规定说话人的发音,使用方便,对语音数据的依赖性低。
采用叠加算法对采样语音数据进行处理,是为了使采样语音数据的特征更加明显,通过将用户的多组采样语音数据进行组合,可以得到用于描述与文本无关的声纹向量的第二语音数据。由于声纹向量与文本无关,因此在通过本申请构建的黑名单声纹库对用户的身份进行识别时,可根据用户任意的语音数据进行身份识别,降低了对语音数据的依赖性。例如,服务器首先根据多组采样语音数据,得到与各组采样语音数据对应的二维样本向量图,再借鉴图片数据处理的方式,将多组二维样本向量图进行线性叠加,得到用于描述与文本无关的声纹向量的第二语音数据。其中,二维样本向量图可以为频谱图。
S110:根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到。
在提取之前,需要预先训练深度神经网络模型,深度神经网络模型是基于样本语音数据训练得到的。预先基于样本语音数据训练深度神经网络模型的方式可以为:获取样本语音数据,对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合,将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
S112:根据声纹特征构建黑名单声纹库。
在得到第二语音数据的声纹特征之后,要建立第二语音数据的声纹特征和用户的关联关系,然后根据关联关系,构建黑名单声纹库,通过建立用户的信息以及第二语音数据的声纹特征之间的关联关系,可以将用户的第二语音数据的声纹特征区分开来。黑名单声纹库中存储了第二语音数据的声纹特征以及其与用户的关联关系,当需要对用户进行反欺诈识别时,可提取用户的声纹特征,将用户的声纹特征与黑名单声纹库中存储的各声纹特征进行匹配,当匹配到对应的声纹特征时,确定用户为黑名单用户。
上述黑名单声纹库构建方法,首先通过有效性检测对用户的语音数据进行筛选,筛选出用户的第一语音数据,然后根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据,采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量,最后根据预先训练的深度神经网络模型,从第二语音数据中提取出声纹特征构建黑名单声纹库,从而可以根据黑名单声纹库以及用户的语音数据对用户的身份进行识别,通过声纹识别的方式提高识别安全性。
在其中一个实施例中,如图2所示,S102包括:
S202:获取历史业务语音数据集合以及黑名单库;
S204:根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识;
S206:根据匹配结果,获取与用户对应的业务语音数据;
S208:采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据。
历史业务语音数据集合中包括用户的电审语音数据、远程面审用户的音视频数据、客服回访电话录音数据以及贷后催收电话录音数据等。语音分割算法指的是语音对话分割算法,可用于从语音对话数据中将每个人的语音数据分割出来。业务语音数据指的是业务员和客户的业务对话数据,根据黑名单库中用户的用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识,可以查找到与用户对应的业务语音数据,进而采用语音分割算法,从中分别提取出业务员的语音数据和客户的语音数据,提取出的客户的语音数据即为用户的语音数据。
其中,采用语音分割算法,从中分别提取出业务员的语音数据和客户的语音数据包括:采用语音分割算法,从与用户对应的业务语音数据中提取出两类语音数据,两类语音数据即分别为业务员的语音数据和客户的语音数据。因为服务器中预设的业务员数据库内存储有各业务员的语音数据,根据两类语音数据匹配预设的业务员数据库内存储的业务员的语音数据,即可确定两类语音数据中的业务员的语音数据,另一个即为客户的语音数据。
上述实施例,根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识,根据匹配结果,获取与用户对应的业务语音数据,采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据,实现了对用户的语音数据的获取。
在其中一个实施例中,如图3所示,S104包括:
S302:对用户的语音数据进行去噪声处理,得到去噪声后的用户的语音数据;
S304:将去噪声后的用户的语音数据拆分为多帧数据,确定用户的语音数据中各帧数据的能量值;
S306:筛选出能量值大于预设的能量阈值的多帧数据作为用户的第一语音数据。
其中,可以调用低通滤波算法,对用户的语音数据进行去噪声处理,将去噪声后的用户的语音数据拆分为多帧数据,采用声学计算工具,计算用户的语音数据中各帧数据的能量值,根据预设的能量阈值对各帧数据进行筛选,筛选出能量值大于预设的能量阈值的多帧数据,并按照时间帧顺序将多帧数据拼接起来,作为用户的第一语音数据。其中,能量阈值可按照需要自行设置。举例说明,可以通过短时能量计算公式,计算各帧数据的能量值。
上述实施例,通过对用户的语音数据进行去噪声处理以及通过能量值进行筛选,得到了用户的第一语音数据,实现了对第一语音数据的获取。
在其中一个实施例中,如图4所示,S112包括:
S402:获取用户的信息;
S404:建立用户的信息以及第二语音数据的声纹特征之间的关联关系;
S406:根据关联关系,构建黑名单声纹库。
用户的信息可以为用户的用户标识、身份信息等。通过建立用户的信息以及第二语音数据的声纹特征之间的关联关系,可以将用户的第二语音数据的声纹特征区分开来,根据关联关系,构建黑名单声纹库。当需要对用户进行反欺诈识别时,可提取用户的声纹特征,将用户的声纹特征与黑名单声纹库中存储的各声纹特征进行匹配,当匹配到对应的声纹特征时,确定用户为黑名单用户,通过这种方式提高对用户的身份进行识别的安全性。
上述实施例,建立用户的信息以及第二语音数据的声纹特征之间的关联关系,根据关联关系,构建黑名单声纹库,实现了对黑名单声纹库的构建。
在其中一个实施例中,如图5所示,S112之后,包括:
S502:当黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据;
S504:对目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据;
S506:提取目标样本语音数据的声纹特征;
S508:根据目标样本语音数据的声纹特征以及新的用户的信息,更新黑名单声纹库。
当黑名单库中加入新的用户时,获取新的用户的信息,并根据用户的用户标识,从历史业务语音数据集合中查找到与新的用户对应的目标语音数据,对目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据,根据预先训练的深度神经网络模型,提取目标样本语音数据的声纹特征,建立目标样本语音数据的声纹特征与新的用户的信息之间的关联关系,根据关联关系,更新黑名单声纹库。
上述实施例,当黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据,对目标语音数据进行处理,得到目标样本语音数据,提取目标样本语音数据的声纹特征,根据目标样本语音数据的声纹特征以及新的用户的信息,更新黑名单声纹库,实现了根据新的用户对黑名单声纹库的更新。
在其中一个实施例中,如图6所示,S110之前,包括:
S602:获取样本语音数据;
S604:对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合;
S606:将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
样本语音数据指的是事先采集的用于进行模型训练的语音数据,深度神经网络模型的工作原理是模仿人脑思考方式,从而可以实现速度更快、准确率更高的语音识别。
上述实施例,获取样本语音数据,对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合,将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型,实现了对深度神经网络模型的获取。
应该理解的是,虽然图1-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种黑名单声纹库构建装置,包括:获取模块702、检测模块704、采样模块706、叠加模块708、提取模块710和构建模块712,其中:
获取模块702,用于获取黑名单库以及黑名单库中用户的语音数据;
检测模块704,用于对用户的语音数据进行有效性检测,得到用户的第一语音数据;
采样模块706,用于根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
叠加模块708,用于采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
提取模块710,用于根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
构建模块712,用于根据声纹特征构建黑名单声纹库。
上述黑名单声纹库构建装置,首先通过有效性检测对用户的语音数据进行筛选,筛选出用户的第一语音数据,然后根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据,采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量,最后根据预先训练的深度神经网络模型,从第二语音数据中提取出声纹特征构建黑名单声纹库,从而可以根据黑名单声纹库以及用户的语音数据对用户的身份进行识别,通过声纹识别的方式提高识别安全性。
在其中一个实施例中,获取模块还用于获取历史业务语音数据集合以及黑名单库,根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识,根据匹配结果,获取与用户对应的业务语音数据,采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据。
在其中一个实施例中,检测模块还用于对用户的语音数据进行去噪声处理,得到去噪声后的用户的语音数据,将去噪声后的用户的语音数据拆分为多帧数据,确定用户的语音数据中各帧数据的能量值,筛选出能量值大于预设的能量阈值的多帧数据作为用户的第一语音数据。
在其中一个实施例中,构建模块还用于获取用户的信息,建立用户的信息以及第二语音数据的声纹特征之间的关联关系,根据关联关系,构建黑名单声纹库。
在其中一个实施例中,黑名单声纹库构建装置还包括更新模块,更新模块用于当黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据,对目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据,提取目标样本语音数据的声纹特征,根据目标样本语音数据的声纹特征以及新的用户的信息,更新黑名单声纹库。
在其中一个实施例中,提取模块还用于获取样本语音数据,对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合,将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
关于黑名单声纹库构建装置的具体限定可以参见上文中对于黑名单声纹库构建方法的限定,在此不再赘述。上述黑名单声纹库构建装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储黑名单库数据以及历史业务语音数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种黑名单声纹库构建方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取黑名单库以及黑名单库中用户的语音数据;
对用户的语音数据进行有效性检测,得到用户的第一语音数据;
根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
根据声纹特征构建黑名单声纹库。
上述黑名单声纹库构建计算机设备,首先通过有效性检测对用户的语音数据进行筛选,筛选出用户的第一语音数据,然后根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据,采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量,最后根据预先训练的深度神经网络模型,从第二语音数据中提取出声纹特征构建黑名单声纹库,从而可以根据黑名单声纹库以及用户的语音数据对用户的身份进行识别,通过声纹识别的方式提高识别安全性。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取历史业务语音数据集合以及黑名单库;
根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识;
根据匹配结果,获取与用户对应的业务语音数据;
采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对用户的语音数据进行去噪声处理,得到去噪声后的用户的语音数据;
将去噪声后的用户的语音数据拆分为多帧数据,确定用户的语音数据中各帧数据的能量值;
筛选出能量值大于预设的能量阈值的多帧数据作为用户的第一语音数据。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取用户的信息;
建立用户的信息以及第二语音数据的声纹特征之间的关联关系;
根据关联关系,构建黑名单声纹库。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
当黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据;
对目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据;
提取目标样本语音数据的声纹特征;
根据目标样本语音数据的声纹特征以及新的用户的信息,更新黑名单声纹库。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取样本语音数据;
对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合;
将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取黑名单库以及黑名单库中用户的语音数据;
对用户的语音数据进行有效性检测,得到用户的第一语音数据;
根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据;
采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量;
根据预先训练的深度神经网络模型,提取出第二语音数据的声纹特征,预先训练的深度神经网络模型是基于样本语音数据训练得到;
根据声纹特征构建黑名单声纹库。
上述黑名单声纹库构建存储介质,首先通过有效性检测对用户的语音数据进行筛选,筛选出用户的第一语音数据,然后根据预设的滑动窗口对第一语音数据进行采样,得到用户的多组采样语音数据,采用叠加算法,将用户的多组采样语音数据进行组合,得到第二语音数据,第二语音数据用于描述与文本无关的声纹向量,最后根据预先训练的深度神经网络模型,从第二语音数据中提取出声纹特征构建黑名单声纹库,从而可以根据黑名单声纹库以及用户的语音数据对用户的身份进行识别,通过声纹识别的方式提高识别安全性。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取历史业务语音数据集合以及黑名单库;
根据黑名单库中用户标识,匹配历史业务语音数据集合中历史业务语音数据携带的标识;
根据匹配结果,获取与用户对应的业务语音数据;
采用语音分割算法,从与用户对应的业务语音数据中提取用户的语音数据。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
对用户的语音数据进行去噪声处理,得到去噪声后的用户的语音数据;
将去噪声后的用户的语音数据拆分为多帧数据,确定用户的语音数据中各帧数据的能量值;
筛选出能量值大于预设的能量阈值的多帧数据作为用户的第一语音数据。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取用户的信息;
建立用户的信息以及第二语音数据的声纹特征之间的关联关系;
根据关联关系,构建黑名单声纹库。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
当黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据;
对目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据;
提取目标样本语音数据的声纹特征;
根据目标样本语音数据的声纹特征以及新的用户的信息,更新黑名单声纹库。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取样本语音数据;
对样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合;
将语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种黑名单声纹库构建方法,所述方法包括:
获取黑名单库以及黑名单库中用户的语音数据;
对所述用户的语音数据进行有效性检测,得到所述用户的第一语音数据;
根据预设的滑动窗口对所述第一语音数据进行采样,得到所述用户的多组采样语音数据;
采用叠加算法,将所述用户的多组采样语音数据进行组合,得到第二语音数据,所述第二语音数据用于描述与文本无关的声纹向量;
根据预先训练的深度神经网络模型,提取出所述第二语音数据的声纹特征,所述预先训练的深度神经网络模型是基于样本语音数据训练得到;
根据所述声纹特征构建黑名单声纹库。
2.根据权利要求1所述的方法,其特征在于,所述获取黑名单库以及黑名单库中用户的语音数据包括:
获取历史业务语音数据集合以及黑名单库;
根据所述黑名单库中用户标识,匹配所述历史业务语音数据集合中历史业务语音数据携带的标识;
根据匹配结果,获取与所述用户对应的业务语音数据;
采用语音分割算法,从与所述用户对应的业务语音数据中提取用户的语音数据。
3.根据权利要求1所述的方法,其特征在于,所述对所述用户的语音数据进行有效性检测,得到所述用户的第一语音数据包括:
对所述用户的语音数据进行去噪声处理,得到去噪声后的用户的语音数据;
将去噪声后的用户的语音数据拆分为多帧数据,确定用户的语音数据中各帧数据的能量值;
筛选出能量值大于预设的能量阈值的多帧数据作为所述用户的第一语音数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述声纹特征,构建黑名单声纹库包括:
获取用户的信息;
建立所述用户的信息以及所述第二语音数据的声纹特征之间的关联关系;
根据所述关联关系,构建黑名单声纹库。
5.根据权利要求1所述的方法,其特征在于,所述根据所述声纹特征,构建黑名单声纹库之后,包括:
当所述黑名单库中加入新的用户时,获取新的用户的信息以及与新的用户对应的目标语音数据;
对所述目标语音数据进行有效性检测、采样以及叠加处理,得到目标样本语音数据;
提取所述目标样本语音数据的声纹特征;
根据所述目标样本语音数据的声纹特征以及所述新的用户的信息,更新黑名单声纹库。
6.根据权利要求1所述的方法,其特征在于,所述根据预先训练的深度神经网络模型,提取出所述第二语音数据的声纹特征之前,包括:
获取所述样本语音数据;
对所述样本语音数据进行有效性检测、采样以及叠加处理,得到语音数据训练样本集合;
将所述语音数据训练样本集合作为训练集进行模型训练,得到深度神经网络模型。
7.一种黑名单声纹库构建装置,其特征在于,所述装置包括:
获取模块,用于获取黑名单库以及黑名单库中用户的语音数据;
检测模块,用于对所述用户的语音数据进行有效性检测,得到所述用户的第一语音数据;
采样模块,用于根据预设的滑动窗口对所述第一语音数据进行采样,得到所述用户的多组采样语音数据;
叠加模块,用于采用叠加算法,将所述用户的多组采样语音数据进行组合,得到第二语音数据,所述第二语音数据用于描述与文本无关的声纹向量;
提取模块,用于根据预先训练的深度神经网络模型,提取出所述第二语音数据的声纹特征,所述预先训练的深度神经网络模型是基于样本语音数据训练得到;
构建模块,用于根据所述声纹特征构建黑名单声纹库。
8.根据权利要求7所述的装置,其特征在于,所述获取模块还用于获取历史业务语音数据集合以及黑名单库,根据所述黑名单库中用户标识,匹配所述历史业务语音数据集合中历史业务语音数据携带的标识,根据匹配结果,获取与所述用户对应的业务语音数据,采用语音分割算法,从与所述用户对应的业务语音数据中提取用户的语音数据。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910418485.9A CN110246503A (zh) | 2019-05-20 | 2019-05-20 | 黑名单声纹库构建方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910418485.9A CN110246503A (zh) | 2019-05-20 | 2019-05-20 | 黑名单声纹库构建方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110246503A true CN110246503A (zh) | 2019-09-17 |
Family
ID=67884645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910418485.9A Pending CN110246503A (zh) | 2019-05-20 | 2019-05-20 | 黑名单声纹库构建方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110246503A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111312258A (zh) * | 2019-12-16 | 2020-06-19 | 随手(北京)信息技术有限公司 | 用户的身份认证方法、装置、服务器及存储介质 |
CN111326163A (zh) * | 2020-04-15 | 2020-06-23 | 厦门快商通科技股份有限公司 | 一种声纹识别方法和装置以及设备 |
CN111477235A (zh) * | 2020-04-15 | 2020-07-31 | 厦门快商通科技股份有限公司 | 一种声纹采集方法和装置以及设备 |
CN112687274A (zh) * | 2019-10-17 | 2021-04-20 | 北京猎户星空科技有限公司 | 一种语音信息的处理方法、装置、设备及介质 |
CN113870478A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 快速取号方法、装置、电子设备及存储介质 |
WO2023124248A1 (zh) * | 2021-12-28 | 2023-07-06 | 荣耀终端有限公司 | 声纹识别方法和装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1808567A (zh) * | 2006-01-26 | 2006-07-26 | 覃文华 | 验证真人在场状态的声纹认证设备和其认证方法 |
CN103258535A (zh) * | 2013-05-30 | 2013-08-21 | 中国人民财产保险股份有限公司 | 基于声纹识别的身份识别方法及系统 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
US20150381801A1 (en) * | 2005-04-21 | 2015-12-31 | Verint Americas Inc. | Systems, methods, and media for disambiguating call data to determine fraud |
CN105872185A (zh) * | 2016-04-20 | 2016-08-17 | 乐视控股(北京)有限公司 | 信息提示方法、装置及系统 |
WO2017197953A1 (zh) * | 2016-05-16 | 2017-11-23 | 腾讯科技(深圳)有限公司 | 基于声纹的身份识别方法及装置 |
CN108806696A (zh) * | 2018-05-08 | 2018-11-13 | 平安科技(深圳)有限公司 | 建立声纹模型的方法、装置、计算机设备和存储介质 |
CN108831485A (zh) * | 2018-06-11 | 2018-11-16 | 东北师范大学 | 基于语谱图统计特征的说话人识别方法 |
CN108848507A (zh) * | 2018-05-31 | 2018-11-20 | 厦门快商通信息技术有限公司 | 一种不良电信用户信息采集方法 |
CN109346088A (zh) * | 2018-12-06 | 2019-02-15 | 泰康保险集团股份有限公司 | 身份识别方法、装置、介质及电子设备 |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
CN109473106A (zh) * | 2018-11-12 | 2019-03-15 | 平安科技(深圳)有限公司 | 声纹样本采集方法、装置、计算机设备及存储介质 |
-
2019
- 2019-05-20 CN CN201910418485.9A patent/CN110246503A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150381801A1 (en) * | 2005-04-21 | 2015-12-31 | Verint Americas Inc. | Systems, methods, and media for disambiguating call data to determine fraud |
CN1808567A (zh) * | 2006-01-26 | 2006-07-26 | 覃文华 | 验证真人在场状态的声纹认证设备和其认证方法 |
CN103258535A (zh) * | 2013-05-30 | 2013-08-21 | 中国人民财产保险股份有限公司 | 基于声纹识别的身份识别方法及系统 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
CN105872185A (zh) * | 2016-04-20 | 2016-08-17 | 乐视控股(北京)有限公司 | 信息提示方法、装置及系统 |
WO2017197953A1 (zh) * | 2016-05-16 | 2017-11-23 | 腾讯科技(深圳)有限公司 | 基于声纹的身份识别方法及装置 |
CN108806696A (zh) * | 2018-05-08 | 2018-11-13 | 平安科技(深圳)有限公司 | 建立声纹模型的方法、装置、计算机设备和存储介质 |
CN108848507A (zh) * | 2018-05-31 | 2018-11-20 | 厦门快商通信息技术有限公司 | 一种不良电信用户信息采集方法 |
CN108831485A (zh) * | 2018-06-11 | 2018-11-16 | 东北师范大学 | 基于语谱图统计特征的说话人识别方法 |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
CN109473106A (zh) * | 2018-11-12 | 2019-03-15 | 平安科技(深圳)有限公司 | 声纹样本采集方法、装置、计算机设备及存储介质 |
CN109346088A (zh) * | 2018-12-06 | 2019-02-15 | 泰康保险集团股份有限公司 | 身份识别方法、装置、介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
刘瑞芳 等: "程序设计实践", 北京:北京邮电大学出版社, pages: 120 - 121 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112687274A (zh) * | 2019-10-17 | 2021-04-20 | 北京猎户星空科技有限公司 | 一种语音信息的处理方法、装置、设备及介质 |
CN111312258A (zh) * | 2019-12-16 | 2020-06-19 | 随手(北京)信息技术有限公司 | 用户的身份认证方法、装置、服务器及存储介质 |
CN111326163A (zh) * | 2020-04-15 | 2020-06-23 | 厦门快商通科技股份有限公司 | 一种声纹识别方法和装置以及设备 |
CN111477235A (zh) * | 2020-04-15 | 2020-07-31 | 厦门快商通科技股份有限公司 | 一种声纹采集方法和装置以及设备 |
CN113870478A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 快速取号方法、装置、电子设备及存储介质 |
WO2023124248A1 (zh) * | 2021-12-28 | 2023-07-06 | 荣耀终端有限公司 | 声纹识别方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110246503A (zh) | 黑名单声纹库构建方法、装置、计算机设备和存储介质 | |
WO2020177380A1 (zh) | 基于短文本的声纹检测方法、装置、设备及存储介质 | |
CN109346086A (zh) | 声纹识别方法、装置、计算机设备和计算机可读存储介质 | |
CN110378228A (zh) | 面审视频数据处理方法、装置、计算机设备和存储介质 | |
CN109450850A (zh) | 身份验证方法、装置、计算机设备和存储介质 | |
CN108429619A (zh) | 身份认证方法和系统 | |
CN107222865A (zh) | 基于可疑行为识别的通讯诈骗实时检测方法和系统 | |
CN105933323B (zh) | 声纹注册、认证方法及装置 | |
CN108766417B (zh) | 一种基于音素自动检索的身份同一性检验方法及装置 | |
CN109410664A (zh) | 一种发音纠正方法及电子设备 | |
CN108022587A (zh) | 语音识别方法、装置、计算机设备和存储介质 | |
CN109816200A (zh) | 任务推送方法、装置、计算机设备和存储介质 | |
CN109462603A (zh) | 基于盲检测的声纹认证方法、设备、存储介质及装置 | |
CN110334497B (zh) | 显示界面的切换方法和穿戴式电子设备、存储介质 | |
CN107346568A (zh) | 一种门禁系统的认证方法和装置 | |
CN109785834B (zh) | 一种基于验证码的语音数据样本采集系统及其方法 | |
CN108922543A (zh) | 模型库建立方法、语音识别方法、装置、设备及介质 | |
CN111312286A (zh) | 年龄识别方法、装置、设备及计算机可读存储介质 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
US20070033041A1 (en) | Method of identifying a person based upon voice analysis | |
CN104348621A (zh) | 一种基于声纹识别的鉴权系统及方法 | |
CN104183238A (zh) | 一种基于提问应答的老年人声纹识别方法 | |
CN110556098B (zh) | 语音识别结果测试方法、装置、计算机设备和介质 | |
CN110379433A (zh) | 身份验证的方法、装置、计算机设备及存储介质 | |
CN113191787A (zh) | 电信数据的处理方法、装置电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190917 |