CN113421575A - 声纹识别方法、装置、设备及存储介质 - Google Patents
声纹识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113421575A CN113421575A CN202110734846.8A CN202110734846A CN113421575A CN 113421575 A CN113421575 A CN 113421575A CN 202110734846 A CN202110734846 A CN 202110734846A CN 113421575 A CN113421575 A CN 113421575A
- Authority
- CN
- China
- Prior art keywords
- voiceprint
- information
- vector
- training
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 164
- 238000012549 training Methods 0.000 claims abstract description 155
- 238000012545 processing Methods 0.000 claims abstract description 54
- 238000001228 spectrum Methods 0.000 claims abstract description 25
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 230000015654 memory Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000001755 vocal effect Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 230000003595 spectral effect Effects 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明涉及人工智能,提供一种声纹识别方法、装置、设备及存储介质。该方法能够获取声纹训练样本,声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息,获取预设学习器,预设学习器包括多个网络层,基于每个网络层处理声纹训练信息、基准声纹信息及特征声纹信息,得到训练声纹向量、基准声纹向量及特征声纹向量,根据训练声纹向量、基准声纹向量及特征声纹向量计算预设学习器的损失值,根据损失值调整网络参数,得到声纹识别模型,对识别音频进行预处理,得到梅谱信息,根据梅谱信息及声纹识别模型生成识别结果。本发明能够准确的确定出识别结果。此外,本发明还涉及区块链技术,所述识别结果可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种声纹识别方法、装置、设备及存储介质。
背景技术
在门禁语音系统中,通常采用声纹识别进行生物认证。然而,在目前的声纹识别中,通常是采用高斯混合模型等传统机器学习模型对用户声纹进行识别,这种方式的声纹识别精度较低。
发明内容
鉴于以上内容,有必要提供一种声纹识别方法、装置、设备及存储介质,能够准确的确定出识别音频的识别结果。
一方面,本发明提出一种声纹识别方法,所述声纹识别方法包括:
获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息;
获取预设学习器,所述预设学习器包括多个网络层;
基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量;
根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值;
根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型;
当接收到识别请求时,从所述识别请求获取识别音频;
对所述识别音频进行预处理,得到所述识别音频的梅谱信息;
根据所述梅谱信息及所述声纹识别模型生成识别结果。
根据本发明优选实施例,所述基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量包括:
每个网络层中包括卷积网络、全连接网络及正则网络;
基于所述卷积网络分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积处理,得到所述声纹训练信息的第一卷积信息、所述基准声纹信息的第二卷积信息及所述特征声纹信息的第三卷积信息;
获取所述全连接网络中的权值矩阵及偏置向量;
根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息;
基于所述正则网络分别对所述第一声纹信息、所述第二声纹信息及所述第三声纹信息进行正则化处理,得到所述声纹训练信息的所述训练声纹向量、所述基准声纹信息的所述基准声纹向量及所述特征声纹信息的所述特征声纹向量。
根据本发明优选实施例,所述根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息包括:
分别计算所述权值矩阵与所述第一卷积信息、所述第二卷积信息及所述第三卷积信息的乘积,得到所述声纹训练信息的第一运算向量、所述基准声纹信息的第二运算向量及所述特征声纹信息的运算向量;
分别计算所述偏置向量与第一运算向量、所述第二运算向量及所述运算向量的总和,得到所述声纹训练信息的所述第一声纹信息、所述基准声纹信息的所述第二声纹信息及所述特征声纹信息的所述第三声纹信息。
根据本发明优选实施例,所述根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值包括:
计算所述基准声纹向量与所述训练声纹向量的第一相似度;
计算所述基准声纹向量与所述特征声纹向量的第二相似度;
计算所述第一相似度与所述第二相似度的差值,得到相似度差值,并计算所述相似度差值与预设边界值的总和,得到初始损失;
将所述初始损失写入预设集合中,得到目标集合;
将所述目标集合中取值最大的元素确定为所述损失值。
根据本发明优选实施例,所述从所述识别请求获取识别音频包括:
解析所述识别请求的报文,得到所述报文携带的数据信息;
从所述数据信息中获取与预设标签对应的信息作为检测编号,所述预设标签用于指示识别对象;
确定所述识别请求的生成系统;
从所述生成系统的日志库中获取包含所述检测编号及音频标识的日志作为音频日志;
从所述音频日志中获取与所述音频标识对应的信息作为所述识别音频。
根据本发明优选实施例,所述对所述识别音频进行预处理,得到所述识别音频的梅谱信息包括:
提取所述识别音频中每帧的音频信息;
对所述音频信息进行傅里叶变换处理,得到所述识别音频的频谱图;
对所述频谱图进行压缩处理,得到压缩信息;
基于梅尔尺度滤波器处理所述压缩信息,得到所述梅谱信息。
根据本发明优选实施例,所述根据所述梅谱信息及所述声纹识别模型生成识别结果包括:
将所述梅谱信息输入至所述声纹识别模型中,得到输出分数;
计算所述输出分数与第一预设阈值的差值,得到第一数值,并计算所述输出分数与第二预设阈值的差值,得到第二数值;
若所述第一数值的绝对值小于所述第二数值的绝对值,将所述第一预设阈值所对应的结果确定为所述识别结果;或者
若所述第一数值的绝对值大于所述第二数值的绝对值,将所述第二预设阈值所对应的结果确定为所述识别结果。
另一方面,本发明还提出一种声纹识别装置,所述声纹识别装置包括:
获取单元,用于获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息;
所述获取单元,还用于获取预设学习器,所述预设学习器包括多个网络层;
处理单元,用于基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量;
计算单元,用于根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值;
调整单元,用于根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型;
所述获取单元,用于当接收到识别请求时,从所述识别请求获取识别音频;
预处理单元,用于对所述识别音频进行预处理,得到所述识别音频的梅谱信息;
生成单元,用于根据所述梅谱信息及所述声纹识别模型生成识别结果。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述声纹识别方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述声纹识别方法。
由以上技术方案可以看出,本发明通过多个网络层对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行处理,并根据计算得到的损失值调整每个网络层的网络参数,由于无需对所述声纹训练样本进行数据打标签,提高了所述声纹识别模型的训练效率,同时,能够避免人工打标签带来的样本误差,提高了所述声纹识别模型的训练精度,进而提高所述识别结果的准确性。
附图说明
图1是本发明声纹识别方法的较佳实施例的流程图。
图2是本发明声纹识别装置的较佳实施例的功能模块图。
图3是本发明实现声纹识别方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明声纹识别方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述声纹识别方法应用于智慧安防中,从而推动智慧城市的建设。所述声纹识别方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital SignalProcessor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息。
在本发明的至少一个实施例中,所述声纹训练信息是指在训练声纹识别模型时每个样本用户的输入音频所对应的声纹信息,所述基准声纹信息是指每个样本用户基于预设文本而生成的基准音频所对应的声纹信息,所述特征声纹信息是指除该样本用户外的其他用户所产生的音频所对应的声纹信息。
需要特别说明的是,所述基准声纹信息的输出用户与所述声纹训练信息的输出用户相同,所述特征声纹信息的输出用户与所述声纹训练信息的输出用户不同。
在本发明的至少一个实施例中,所述电子设备可以根据需要识别所属的对象获取声纹训练样本。
S11,获取预设学习器,所述预设学习器包括多个网络层。
在本发明的至少一个实施例中,所述预设学习器是指训练所述声纹识别模型的初始化配置模型。
所述多个网络层分别用于训练所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,也就是说,所述多个网络层的数量通常设置为3。
在本发明的至少一个实施例中,所述电子设备根据所述识别类型获取所述预设学习器。
通过所述识别类型能够准确获取到训练所述声纹识别模型所需的学习器。
S12,基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量。
相应地,所述训练声纹向量是指每个样本用户的输入音频所对应的声纹向量,所述基准声纹向量是指每个样本用户基于预设文本而生成的基准音频所对应的声纹向量,所述特征声纹向量是指除该样本用户外的其他用户所产生的音频所对应的声纹向量。
在本发明的至少一个实施例中,所述电子设备基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量包括:
每个网络层中包括卷积网络、全连接网络及正则网络;
基于所述卷积网络分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积处理,得到所述声纹训练信息的第一卷积信息、所述基准声纹信息的第二卷积信息及所述特征声纹信息的第三卷积信息;
获取所述全连接网络中的权值矩阵及偏置向量;
根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息;
基于所述正则网络分别对所述第一声纹信息、所述第二声纹信息及所述第三声纹信息进行正则化处理,得到所述声纹训练信息的所述训练声纹向量、所述基准声纹信息的所述基准声纹向量及所述特征声纹信息的所述特征声纹向量。
通过上述实施方式,能够快速生成所述训练声纹向量、所述基准声纹向量及所述特征声纹向量。
具体地,所述电子设备基于所述卷积网络分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积处理,得到所述声纹训练信息的第一卷积信息、所述基准声纹信息的第二卷积信息及所述特征声纹信息的第三卷积信息包括:
获取所述卷积网络中的卷积核,并提取所述卷积核中的核参数;
基于所述核参数分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积运算,得到所述第一卷积信息、所述第二卷积信息及所述第三卷积信息。
其中,所述核参数通常是指所述卷积核的核大小。
具体地,所述电子设备根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息包括:
分别计算所述权值矩阵与所述第一卷积信息、所述第二卷积信息及所述第三卷积信息的乘积,得到所述声纹训练信息的第一运算向量、所述基准声纹信息的第二运算向量及所述特征声纹信息的运算向量;
分别计算所述偏置向量与第一运算向量、所述第二运算向量及所述运算向量的总和,得到所述声纹训练信息的所述第一声纹信息、所述基准声纹信息的所述第二声纹信息及所述特征声纹信息的所述第三声纹信息。
S13,根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值。
在本发明的至少一个实施例中,所述损失值是指所述预设学习器处理所述声纹训练样本所产生的损失。生成所述损失值的所述预设学习器中的每个网络层的配置参数所对应有相应的初始值。
在本发明的至少一个实施例中,所述电子设备根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值包括:
计算所述基准声纹向量与所述训练声纹向量的第一相似度;
计算所述基准声纹向量与所述特征声纹向量的第二相似度;
计算所述第一相似度与所述第二相似度的差值,得到相似度差值,并计算所述相似度差值与预设边界值的总和,得到初始损失;
将所述初始损失写入预设集合中,得到目标集合;
将所述目标集合中取值最大的元素确定为所述损失值。
其中,所述预设边界值是指所述预设学习器中预先设定好的参数值。
所述预设集合通常是指包含有预设元素的集合,其中,所述预设元素通常设置为0。
通过上述实施方式,能够在所述声纹训练样本中不具有标签结果的前提下,准确的确定出所述损失值,同时,由于无需对所述声纹训练样本进行标注,因此,提高所述损失值的确定效率。
S14,根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型。
在本发明的至少一个实施例中,所述网络参数是指所述预设学习器中的所有配置参数,所述网络参数具体包括有所述卷积网络中的配置参数、所述全连接网络中的配置参数及所述正则网络中的配置参数。所述网络参数还可以包括所述预设边界值。
在本发明的至少一个实施例中,所述声纹识别模型是指所述损失值收敛时所对应的预设学习器。
在本发明的至少一个实施例中,所述电子设备根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型包括:
将所述卷积网络中的配置参数、所述全连接网络中的配置参数及所述正则网络中的配置参数确定为所述网络参数;
根据预设步长调整所述预设学习器中与所述网络参数所对应的初始值,直至所述损失值不再降低,得到所述声纹识别模型。
其中,所述预设步长可以根据调整需求设定的。
通过所述损失值能够确保所述声纹识别模型的识别精度。
S15,当接收到识别请求时,从所述识别请求获取识别音频。
在本发明的至少一个实施例中,所述识别请求中携带有检测编号等信息。所述识别请求是与所述电子设备相通信的系统接收到音频信息时触发生成的。
所述识别音频是指需要进行声纹识别的音频。
在本发明的至少一个实施例中,所述电子设备从所述识别请求获取识别音频包括:
解析所述识别请求的报文,得到所述报文携带的数据信息;
从所述数据信息中获取与预设标签对应的信息作为检测编号,所述预设标签用于指示识别对象;
确定所述识别请求的生成系统;
从所述生成系统的日志库中获取包含所述检测编号及音频标识的日志作为音频日志;
从所述音频日志中获取与所述音频标识对应的信息作为所述识别音频。
其中,所述数据信息包括,但不限于:所述检测编号等。
所述检测编号是指需要进行声纹识别的音频所对应的编号。
所述音频标识用于指示音频信息。
通过所述预设标签能够准确的从所述数据信息中获取到所述检测编号,通过所述检测编号及所述音频标识能够准确的确定出所述音频日志,从而能够准确的获取到所述识别音频。
S16,对所述识别音频进行预处理,得到所述识别音频的梅谱信息。
在本发明的至少一个实施例中,所述梅谱信息是基于所述识别音频中的声音频率而生成的信息。
在本发明的至少一个实施例中,所述电子设备对所述识别音频进行预处理,得到所述识别音频的梅谱信息包括:
提取所述识别音频中每帧的音频信息;
对所述音频信息进行傅里叶变换处理,得到所述识别音频的频谱图;
对所述频谱图进行压缩处理,得到压缩信息;
基于梅尔尺度滤波器处理所述压缩信息,得到所述梅谱信息。
通过对所述音频信息进行傅里叶变换处理,能够使生成的所述频谱图具有时频信息,通过对所述频谱图进行压缩处理,提高梅尔尺度滤波器处理所述压缩信息的效率。
S17,根据所述梅谱信息及所述声纹识别模型生成识别结果。
在本发明的至少一个实施例中,所述识别结果是指所述识别音频所对应的结果。所述识别结果包括是本人及不是本人两种结果。
需要强调的是,为进一步保证上述识别结果的私密和安全性,上述识别结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述电子设备根据所述梅谱信息及所述声纹识别模型生成识别结果包括:
将所述梅谱信息输入至所述声纹识别模型中,得到输出分数;
计算所述输出分数与第一预设阈值的差值,得到第一数值,并计算所述输出分数与第二预设阈值的差值,得到第二数值,所述第一预设阈值小于所述第二预设阈值;
若所述第一数值的绝对值小于所述第二数值的绝对值,将所述第一预设阈值所对应的结果确定为所述识别结果;或者
若所述第一数值的绝对值大于所述第二数值的绝对值,将所述第二预设阈值所对应的结果确定为所述识别结果。
其中,所述第一预设阈值是根据不是本人的配置结果而预先设定的阈值,所述第一预设阈值通常设定为0。
所述第二预设阈值是根据是本人的配置结果而预先设定的阈值,所述第二预设阈值通常设定为1。
例如,所述输出分数为0.7,则所述第一数值为0.7,所述第二数值为-0.3,经计算,所述第一数值的绝对值为0.7大于所述第二数值的绝对值0.3,因此,所述识别结果为所述第二预设阈值所对应的结果,即,所述识别结果为:是本人。
通过所述第一预设阈值及所述第二预设阈值能够对所述输出分数所对应的结果进行分析,从而提高所述识别结果的准确性。
由以上技术方案可以看出,本发明通过多个网络层对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行处理,并根据计算得到的损失值调整每个网络层的网络参数,由于无需对所述声纹训练样本进行数据打标签,提高了所述声纹识别模型的训练效率,同时,能够避免人工打标签带来的样本误差,提高了所述声纹识别模型的训练精度,进而提高所述识别结果的准确性。
如图2所示,是本发明声纹识别装置的较佳实施例的功能模块图。所述声纹识别装置11包括获取单元110、处理单元111、计算单元112、调整单元113、预处理单元114及生成单元115。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
获取单元110获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息。
在本发明的至少一个实施例中,所述声纹训练信息是指在训练声纹识别模型时每个样本用户的输入音频所对应的声纹信息,所述基准声纹信息是指每个样本用户基于预设文本而生成的基准音频所对应的声纹信息,所述特征声纹信息是指除该样本用户外的其他用户所产生的音频所对应的声纹信息。
需要特别说明的是,所述基准声纹信息的输出用户与所述声纹训练信息的输出用户相同,所述特征声纹信息的输出用户与所述声纹训练信息的输出用户不同。
在本发明的至少一个实施例中,所述获取单元110可以根据需要识别所属的对象获取声纹训练样本。
所述获取单元110获取预设学习器,所述预设学习器包括多个网络层。
在本发明的至少一个实施例中,所述预设学习器是指训练所述声纹识别模型的初始化配置模型。
所述多个网络层分别用于训练所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,也就是说,所述多个网络层的数量通常设置为3。
在本发明的至少一个实施例中,所述获取单元110根据所述识别类型获取所述预设学习器。
通过所述识别类型能够准确获取到训练所述声纹识别模型所需的学习器。
处理单元111基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量。
相应地,所述训练声纹向量是指每个样本用户的输入音频所对应的声纹向量,所述基准声纹向量是指每个样本用户基于预设文本而生成的基准音频所对应的声纹向量,所述特征声纹向量是指除该样本用户外的其他用户所产生的音频所对应的声纹向量。
在本发明的至少一个实施例中,所述处理单元111基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量包括:
每个网络层中包括卷积网络、全连接网络及正则网络;
基于所述卷积网络分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积处理,得到所述声纹训练信息的第一卷积信息、所述基准声纹信息的第二卷积信息及所述特征声纹信息的第三卷积信息;
获取所述全连接网络中的权值矩阵及偏置向量;
根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息;
基于所述正则网络分别对所述第一声纹信息、所述第二声纹信息及所述第三声纹信息进行正则化处理,得到所述声纹训练信息的所述训练声纹向量、所述基准声纹信息的所述基准声纹向量及所述特征声纹信息的所述特征声纹向量。
通过上述实施方式,能够快速生成所述训练声纹向量、所述基准声纹向量及所述特征声纹向量。
具体地,所述处理单元111基于所述卷积网络分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积处理,得到所述声纹训练信息的第一卷积信息、所述基准声纹信息的第二卷积信息及所述特征声纹信息的第三卷积信息包括:
获取所述卷积网络中的卷积核,并提取所述卷积核中的核参数;
基于所述核参数分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积运算,得到所述第一卷积信息、所述第二卷积信息及所述第三卷积信息。
其中,所述核参数通常是指所述卷积核的核大小。
具体地,所述处理单元111根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息包括:
分别计算所述权值矩阵与所述第一卷积信息、所述第二卷积信息及所述第三卷积信息的乘积,得到所述声纹训练信息的第一运算向量、所述基准声纹信息的第二运算向量及所述特征声纹信息的运算向量;
分别计算所述偏置向量与第一运算向量、所述第二运算向量及所述运算向量的总和,得到所述声纹训练信息的所述第一声纹信息、所述基准声纹信息的所述第二声纹信息及所述特征声纹信息的所述第三声纹信息。
计算单元112根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值。
在本发明的至少一个实施例中,所述损失值是指所述预设学习器处理所述声纹训练样本所产生的损失。生成所述损失值的所述预设学习器中的每个网络层的配置参数所对应有相应的初始值。
在本发明的至少一个实施例中,所述计算单元112根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值包括:
计算所述基准声纹向量与所述训练声纹向量的第一相似度;
计算所述基准声纹向量与所述特征声纹向量的第二相似度;
计算所述第一相似度与所述第二相似度的差值,得到相似度差值,并计算所述相似度差值与预设边界值的总和,得到初始损失;
将所述初始损失写入预设集合中,得到目标集合;
将所述目标集合中取值最大的元素确定为所述损失值。
其中,所述预设边界值是指所述预设学习器中预先设定好的参数值。
所述预设集合通常是指包含有预设元素的集合,其中,所述预设元素通常设置为0。
通过上述实施方式,能够在所述声纹训练样本中不具有标签结果的前提下,准确的确定出所述损失值,同时,由于无需对所述声纹训练样本进行标注,因此,提高所述损失值的确定效率。
调整单元113根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型。
在本发明的至少一个实施例中,所述网络参数是指所述预设学习器中的所有配置参数,所述网络参数具体包括有所述卷积网络中的配置参数、所述全连接网络中的配置参数及所述正则网络中的配置参数。所述网络参数还可以包括所述预设边界值。
在本发明的至少一个实施例中,所述声纹识别模型是指所述损失值收敛时所对应的预设学习器。
在本发明的至少一个实施例中,所述调整单元113根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型包括:
将所述卷积网络中的配置参数、所述全连接网络中的配置参数及所述正则网络中的配置参数确定为所述网络参数;
根据预设步长调整所述预设学习器中与所述网络参数所对应的初始值,直至所述损失值不再降低,得到所述声纹识别模型。
其中,所述预设步长可以根据调整需求设定的。
通过所述损失值能够确保所述声纹识别模型的识别精度。
当接收到识别请求时,所述获取单元110从所述识别请求获取识别音频。
在本发明的至少一个实施例中,所述识别请求中携带有检测编号等信息。所述识别请求是与所述电子设备相通信的系统接收到音频信息时触发生成的。
所述识别音频是指需要进行声纹识别的音频。
在本发明的至少一个实施例中,所述获取单元110从所述识别请求获取识别音频包括:
解析所述识别请求的报文,得到所述报文携带的数据信息;
从所述数据信息中获取与预设标签对应的信息作为检测编号,所述预设标签用于指示识别对象;
确定所述识别请求的生成系统;
从所述生成系统的日志库中获取包含所述检测编号及音频标识的日志作为音频日志;
从所述音频日志中获取与所述音频标识对应的信息作为所述识别音频。
其中,所述数据信息包括,但不限于:所述检测编号等。
所述检测编号是指需要进行声纹识别的音频所对应的编号。
所述音频标识用于指示音频信息。
通过所述预设标签能够准确的从所述数据信息中获取到所述检测编号,通过所述检测编号及所述音频标识能够准确的确定出所述音频日志,从而能够准确的获取到所述识别音频。
预处理单元114对所述识别音频进行预处理,得到所述识别音频的梅谱信息。
在本发明的至少一个实施例中,所述梅谱信息是基于所述识别音频中的声音频率而生成的信息。
在本发明的至少一个实施例中,所述预处理单元114对所述识别音频进行预处理,得到所述识别音频的梅谱信息包括:
提取所述识别音频中每帧的音频信息;
对所述音频信息进行傅里叶变换处理,得到所述识别音频的频谱图;
对所述频谱图进行压缩处理,得到压缩信息;
基于梅尔尺度滤波器处理所述压缩信息,得到所述梅谱信息。
通过对所述音频信息进行傅里叶变换处理,能够使生成的所述频谱图具有时频信息,通过对所述频谱图进行压缩处理,提高梅尔尺度滤波器处理所述压缩信息的效率。
生成单元115根据所述梅谱信息及所述声纹识别模型生成识别结果。
在本发明的至少一个实施例中,所述识别结果是指所述识别音频所对应的结果。所述识别结果包括是本人及不是本人两种结果。
需要强调的是,为进一步保证上述识别结果的私密和安全性,上述识别结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述生成单元115根据所述梅谱信息及所述声纹识别模型生成识别结果包括:
将所述梅谱信息输入至所述声纹识别模型中,得到输出分数;
计算所述输出分数与第一预设阈值的差值,得到第一数值,并计算所述输出分数与第二预设阈值的差值,得到第二数值,所述第一预设阈值小于所述第二预设阈值;
若所述第一数值的绝对值小于所述第二数值的绝对值,将所述第一预设阈值所对应的结果确定为所述识别结果;或者
若所述第一数值的绝对值大于所述第二数值的绝对值,将所述第二预设阈值所对应的结果确定为所述识别结果。
其中,所述第一预设阈值是根据不是本人的配置结果而预先设定的阈值,所述第一预设阈值通常设定为0。
所述第二预设阈值是根据是本人的配置结果而预先设定的阈值,所述第二预设阈值通常设定为1。
例如,所述输出分数为0.7,则所述第一数值为0.7,所述第二数值为-0.3,经计算,所述第一数值的绝对值为0.7大于所述第二数值的绝对值0.3,因此,所述识别结果为所述第二预设阈值所对应的结果,即,所述识别结果为:是本人。
通过所述第一预设阈值及所述第二预设阈值能够对所述输出分数所对应的结果进行分析,从而提高所述识别结果的准确性。
由以上技术方案可以看出,本发明通过多个网络层对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行处理,并根据计算得到的损失值调整每个网络层的网络参数,由于无需对所述声纹训练样本进行数据打标签,提高了所述声纹识别模型的训练效率,同时,能够避免人工打标签带来的样本误差,提高了所述声纹识别模型的训练精度,进而提高所述识别结果的准确性。
如图3所示,是本发明实现声纹识别方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如声纹识别程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、处理单元111、计算单元112、调整单元113、预处理单元114及生成单元115。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种声纹识别方法,所述处理器13可执行所述计算机可读指令从而实现:
获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息;
获取预设学习器,所述预设学习器包括多个网络层;
基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量;
根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值;
根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型;
当接收到识别请求时,从所述识别请求获取识别音频;
对所述识别音频进行预处理,得到所述识别音频的梅谱信息;
根据所述梅谱信息及所述声纹识别模型生成识别结果。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息;
获取预设学习器,所述预设学习器包括多个网络层;
基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量;
根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值;
根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型;
当接收到识别请求时,从所述识别请求获取识别音频;
对所述识别音频进行预处理,得到所述识别音频的梅谱信息;
根据所述梅谱信息及所述声纹识别模型生成识别结果。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种声纹识别方法,其特征在于,所述声纹识别方法包括:
获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息;
获取预设学习器,所述预设学习器包括多个网络层;
基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量;
根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值;
根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型;
当接收到识别请求时,从所述识别请求获取识别音频;
对所述识别音频进行预处理,得到所述识别音频的梅谱信息;
根据所述梅谱信息及所述声纹识别模型生成识别结果。
2.如权利要求1所述的声纹识别方法,其特征在于,所述基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量包括:
每个网络层中包括卷积网络、全连接网络及正则网络;
基于所述卷积网络分别对所述声纹训练信息、所述基准声纹信息及所述特征声纹信息进行卷积处理,得到所述声纹训练信息的第一卷积信息、所述基准声纹信息的第二卷积信息及所述特征声纹信息的第三卷积信息;
获取所述全连接网络中的权值矩阵及偏置向量;
根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息;
基于所述正则网络分别对所述第一声纹信息、所述第二声纹信息及所述第三声纹信息进行正则化处理,得到所述声纹训练信息的所述训练声纹向量、所述基准声纹信息的所述基准声纹向量及所述特征声纹信息的所述特征声纹向量。
3.如权利要求2所述的声纹识别方法,其特征在于,所述根据所述权值矩阵及所述偏置向量分别对所述第一卷积信息、所述第二卷积信息及所述第三卷积信息进行处理,得到所述声纹训练信息的第一声纹信息、所述基准声纹信息的第二声纹信息及所述特征声纹信息的第三声纹信息包括:
分别计算所述权值矩阵与所述第一卷积信息、所述第二卷积信息及所述第三卷积信息的乘积,得到所述声纹训练信息的第一运算向量、所述基准声纹信息的第二运算向量及所述特征声纹信息的运算向量;
分别计算所述偏置向量与第一运算向量、所述第二运算向量及所述运算向量的总和,得到所述声纹训练信息的所述第一声纹信息、所述基准声纹信息的所述第二声纹信息及所述特征声纹信息的所述第三声纹信息。
4.如权利要求1所述的声纹识别方法,其特征在于,所述根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值包括:
计算所述基准声纹向量与所述训练声纹向量的第一相似度;
计算所述基准声纹向量与所述特征声纹向量的第二相似度;
计算所述第一相似度与所述第二相似度的差值,得到相似度差值,并计算所述相似度差值与预设边界值的总和,得到初始损失;
将所述初始损失写入预设集合中,得到目标集合;
将所述目标集合中取值最大的元素确定为所述损失值。
5.如权利要求1所述的声纹识别方法,其特征在于,所述从所述识别请求获取识别音频包括:
解析所述识别请求的报文,得到所述报文携带的数据信息;
从所述数据信息中获取与预设标签对应的信息作为检测编号,所述预设标签用于指示识别对象;
确定所述识别请求的生成系统;
从所述生成系统的日志库中获取包含所述检测编号及音频标识的日志作为音频日志;
从所述音频日志中获取与所述音频标识对应的信息作为所述识别音频。
6.如权利要求1所述的声纹识别方法,其特征在于,所述对所述识别音频进行预处理,得到所述识别音频的梅谱信息包括:
提取所述识别音频中每帧的音频信息;
对所述音频信息进行傅里叶变换处理,得到所述识别音频的频谱图;
对所述频谱图进行压缩处理,得到压缩信息;
基于梅尔尺度滤波器处理所述压缩信息,得到所述梅谱信息。
7.如权利要求1所述的声纹识别方法,其特征在于,所述根据所述梅谱信息及所述声纹识别模型生成识别结果包括:
将所述梅谱信息输入至所述声纹识别模型中,得到输出分数;
计算所述输出分数与第一预设阈值的差值,得到第一数值,并计算所述输出分数与第二预设阈值的差值,得到第二数值,所述第一预设阈值小于所述第二预设阈值;
若所述第一数值的绝对值小于所述第二数值的绝对值,将所述第一预设阈值所对应的结果确定为所述识别结果;或者
若所述第一数值的绝对值大于所述第二数值的绝对值,将所述第二预设阈值所对应的结果确定为所述识别结果。
8.一种声纹识别装置,其特征在于,所述声纹识别装置包括:
获取单元,用于获取声纹训练样本,所述声纹训练样本中包括多个样本用户的声纹训练信息、基准声纹信息及特征声纹信息;
所述获取单元,还用于获取预设学习器,所述预设学习器包括多个网络层;
处理单元,用于基于每个网络层分别处理所述声纹训练信息、所述基准声纹信息及所述特征声纹信息,得到所述声纹训练信息的训练声纹向量、所述基准声纹信息的基准声纹向量及所述特征声纹信息的特征声纹向量;
计算单元,用于根据所述训练声纹向量、所述基准声纹向量及所述特征声纹向量计算所述预设学习器的损失值;
调整单元,用于根据所述损失值调整每个网络层的网络参数,得到与所述预设学习器对应的声纹识别模型;
所述获取单元,用于当接收到识别请求时,从所述识别请求获取识别音频;
预处理单元,用于对所述识别音频进行预处理,得到所述识别音频的梅谱信息;
生成单元,用于根据所述梅谱信息及所述声纹识别模型生成识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的声纹识别方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的声纹识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110734846.8A CN113421575B (zh) | 2021-06-30 | 2021-06-30 | 声纹识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110734846.8A CN113421575B (zh) | 2021-06-30 | 2021-06-30 | 声纹识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113421575A true CN113421575A (zh) | 2021-09-21 |
CN113421575B CN113421575B (zh) | 2024-02-06 |
Family
ID=77717935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110734846.8A Active CN113421575B (zh) | 2021-06-30 | 2021-06-30 | 声纹识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421575B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107068154A (zh) * | 2017-03-13 | 2017-08-18 | 平安科技(深圳)有限公司 | 基于声纹识别的身份验证的方法及系统 |
CN109243467A (zh) * | 2018-11-14 | 2019-01-18 | 龙马智声(珠海)科技有限公司 | 声纹模型构建方法、声纹识别方法及系统 |
CN110289003A (zh) * | 2018-10-10 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 一种声纹识别的方法、模型训练的方法以及服务器 |
CN110838295A (zh) * | 2019-11-17 | 2020-02-25 | 西北工业大学 | 一种模型生成方法、声纹识别方法及对应装置 |
US20200294509A1 (en) * | 2018-05-08 | 2020-09-17 | Ping An Technology (Shenzhen) Co., Ltd. | Method and apparatus for establishing voiceprint model, computer device, and storage medium |
CN111783939A (zh) * | 2020-05-28 | 2020-10-16 | 厦门快商通科技股份有限公司 | 声纹识别模型训练方法、装置、移动终端及存储介质 |
CN112185347A (zh) * | 2020-09-27 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 语种识别方法、装置、服务器及存储介质 |
CN112259106A (zh) * | 2020-10-20 | 2021-01-22 | 网易(杭州)网络有限公司 | 声纹识别方法、装置、存储介质及计算机设备 |
WO2021051608A1 (zh) * | 2019-09-20 | 2021-03-25 | 平安科技(深圳)有限公司 | 一种基于深度学习的声纹识别方法、装置及设备 |
CN112562691A (zh) * | 2020-11-27 | 2021-03-26 | 平安科技(深圳)有限公司 | 一种声纹识别的方法、装置、计算机设备及存储介质 |
CN112750441A (zh) * | 2021-04-02 | 2021-05-04 | 北京远鉴信息技术有限公司 | 一种声纹的识别方法、装置、电子设备及存储介质 |
-
2021
- 2021-06-30 CN CN202110734846.8A patent/CN113421575B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107068154A (zh) * | 2017-03-13 | 2017-08-18 | 平安科技(深圳)有限公司 | 基于声纹识别的身份验证的方法及系统 |
US20200294509A1 (en) * | 2018-05-08 | 2020-09-17 | Ping An Technology (Shenzhen) Co., Ltd. | Method and apparatus for establishing voiceprint model, computer device, and storage medium |
CN110289003A (zh) * | 2018-10-10 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 一种声纹识别的方法、模型训练的方法以及服务器 |
US20210050020A1 (en) * | 2018-10-10 | 2021-02-18 | Tencent Technology (Shenzhen) Company Limited | Voiceprint recognition method, model training method, and server |
CN109243467A (zh) * | 2018-11-14 | 2019-01-18 | 龙马智声(珠海)科技有限公司 | 声纹模型构建方法、声纹识别方法及系统 |
WO2021051608A1 (zh) * | 2019-09-20 | 2021-03-25 | 平安科技(深圳)有限公司 | 一种基于深度学习的声纹识别方法、装置及设备 |
CN110838295A (zh) * | 2019-11-17 | 2020-02-25 | 西北工业大学 | 一种模型生成方法、声纹识别方法及对应装置 |
CN111783939A (zh) * | 2020-05-28 | 2020-10-16 | 厦门快商通科技股份有限公司 | 声纹识别模型训练方法、装置、移动终端及存储介质 |
CN112185347A (zh) * | 2020-09-27 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 语种识别方法、装置、服务器及存储介质 |
CN112259106A (zh) * | 2020-10-20 | 2021-01-22 | 网易(杭州)网络有限公司 | 声纹识别方法、装置、存储介质及计算机设备 |
CN112562691A (zh) * | 2020-11-27 | 2021-03-26 | 平安科技(深圳)有限公司 | 一种声纹识别的方法、装置、计算机设备及存储介质 |
CN112750441A (zh) * | 2021-04-02 | 2021-05-04 | 北京远鉴信息技术有限公司 | 一种声纹的识别方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
梁宁欣: "基于时域信号的端到端的说话人识别算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 2, pages 136 - 364 * |
Also Published As
Publication number | Publication date |
---|---|
CN113421575B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111694826B (zh) | 基于人工智能的数据增强方法、装置、电子设备及介质 | |
CN113032528B (zh) | 案件分析方法、装置、设备及存储介质 | |
CN113435196B (zh) | 意图识别方法、装置、设备及存储介质 | |
CN113656547B (zh) | 文本匹配方法、装置、设备及存储介质 | |
CN113094478B (zh) | 表情回复方法、装置、设备及存储介质 | |
CN113470684A (zh) | 音频降噪方法、装置、设备及存储介质 | |
CN115222443A (zh) | 客户群体划分方法、装置、设备及存储介质 | |
CN113268597B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN113705468A (zh) | 基于人工智能的数字图像识别方法及相关设备 | |
CN113903361A (zh) | 基于人工智能的语音质检方法、装置、设备及存储介质 | |
CN114037545A (zh) | 客户推荐方法、装置、设备及存储介质 | |
CN113470672A (zh) | 语音增强方法、装置、设备及存储介质 | |
CN113450822A (zh) | 语音增强方法、装置、设备及存储介质 | |
CN113420545B (zh) | 摘要生成方法、装置、设备及存储介质 | |
CN113627186B (zh) | 基于人工智能的实体关系检测方法及相关设备 | |
CN113435357B (zh) | 语音播报方法、装置、设备及存储介质 | |
CN113420143B (zh) | 文书摘要生成方法、装置、设备及存储介质 | |
CN113486680B (zh) | 文本翻译方法、装置、设备及存储介质 | |
CN113408265B (zh) | 基于人机交互的语义解析方法、装置、设备及存储介质 | |
CN112949305B (zh) | 负反馈信息采集方法、装置、设备及存储介质 | |
CN113421575B (zh) | 声纹识别方法、装置、设备及存储介质 | |
CN113516205A (zh) | 基于人工智能的数据分类方法、装置、设备及存储介质 | |
CN113343700A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN113269179A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN113468334B (zh) | 密文情感分类方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |