CN112750441B - 一种声纹的识别方法、装置、电子设备及存储介质 - Google Patents

一种声纹的识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112750441B
CN112750441B CN202110359278.8A CN202110359278A CN112750441B CN 112750441 B CN112750441 B CN 112750441B CN 202110359278 A CN202110359278 A CN 202110359278A CN 112750441 B CN112750441 B CN 112750441B
Authority
CN
China
Prior art keywords
vector
target
audio
voiceprint
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110359278.8A
Other languages
English (en)
Other versions
CN112750441A (zh
Inventor
闫士一
王秋明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yuanjian Information Technology Co Ltd
Original Assignee
Beijing Yuanjian Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yuanjian Information Technology Co Ltd filed Critical Beijing Yuanjian Information Technology Co Ltd
Priority to CN202110359278.8A priority Critical patent/CN112750441B/zh
Publication of CN112750441A publication Critical patent/CN112750441A/zh
Application granted granted Critical
Publication of CN112750441B publication Critical patent/CN112750441B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供了一种声纹的识别方法、装置、电子设备及存储介质,识别方法包括:获取的将获取的声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量;将时域特征向量和频域特征向量顺次输入训练好的目标卷积网络中的拼接层和第二卷积层中,得到待检测音频对应的目标声纹嵌入向量;根据目标声纹嵌入向量和预设声纹嵌入向量,确定待检测音频是否来自目标对象。本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。

Description

一种声纹的识别方法、装置、电子设备及存储介质
技术领域
本申请涉及声音识别技术领域,尤其是涉及一种声纹的识别方法、装置、电子设备及存储介质。
背景技术
声纹属于生理特征的一种,因为每个人的声带结构、发音习惯、居住环境的不同,其声纹几乎是独一无二的。声纹识别技术是一种通过声音判别说话人身份的技术,是把声信号转换成电信号,使用计算机进行识别的过程。
现有技术中,卷积神经网络是目前声纹识别竞赛所采用的常用方法,但是不同维度的卷积网络均存在这不同程度的问题,其中,维度高的卷积网络的计算复杂度高,这样会导致声纹的识别速度差,而维度低的卷积网络的处理速度快,但精度难和准确率难以保证。
发明内容
有鉴于此,本申请的目的在于提供一种声纹的识别方法、装置、电子设备及存储介质,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
本申请主要包括以下几个方面:
第一方面,本申请实施例提供了一种声纹的识别方法,所述识别方法包括:
从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量;
将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量;
将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量;
根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
在一种可能的实施方式中,通过以下方式提取出声学特征信息:
获取所述待检测音频;
针对所述待检测音频进行分帧处理和傅里叶变换处理,确定频谱特征图谱;
从所述频谱特征图谱中,提取出所述声学特征信息。
在一种可能的实施方式中,所述将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量,包括:
将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量;
将所述时域特征向量的进行特征转置,得到频域特征向量。
在一种可能的实施方式中,通过以下方式训练得到目标卷积网络:
获取多个样本音频,以及每个所述样本音频对应的标签信息;所述标签信息用于表征每个所述样本音频中样本对象对应的真实声纹嵌入向量;
根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络。
在一种可能的实施方式中,所述根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络,包括:
将每个所述样本音频输入初始卷积网络,得到每个样本音频的预测声纹嵌入向量;
根据各个所述样本音频的所述预测声纹嵌入向量和所述真实声纹嵌入向量之间的损失值,对初始卷积网络进行训练,得到训练好的目标卷积网络。
在一种可能的实施方式中,所述根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象,包括:
计算所述目标声纹嵌入向量和预设声纹嵌入向量的相似度;
若所述相似度大于或等于预设阈值,确定所述待检测音频是来自目标对象;
若所述相似度小于所述预设阈值,确定所述待检测音频不是来自目标对象。
第二方面,本申请实施例还提供了一种声纹的识别装置,所述装置包括:
提取模块,用于从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量;
拼接模块,用于将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量;
获取模块,用于将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量;
确定模块,用于根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
在一种可能的实施方式中,所述确定模块包括:
判断单元,用于计算所述目标声纹嵌入向量和预设声纹嵌入向量,判断所述目标声纹嵌入向量和预设声纹嵌入向量之间的相似度;
确定单元,用于若所述相似度大于或等于预设阈值,确定所述待检测音频是来自目标对象;
若所述相似度小于所述预设阈值,确定所述待检测音频不是来自目标对象。
第三方面,本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如上述第一方面或第一方面中任一种可能的实施方式中所述的识别方法的步骤。
第四方面,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述第一方面或第一方面中任一种可能的实施方式中所述的识别方法的步骤。
本申请实施例提供的声纹的识别方法及装置,与现有技术相比,本申请通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种声纹的识别方法的流程图;
图2示出了本申请实施例所提供的另一种声纹的识别方法的流程图;
图3示出了本申请实施例所提供的一种声纹的识别装置的结构示意图;
图4示出了本申请实施例所提供的另一种声纹的识别装置的结构示意图;
图5示出了本申请实施例所提供的一种电子设备的结构示意图。
图中:
300-识别装置;310-提取模块;320-拼接模块;330-获取模块;340-确定模块;341-判断单元;342-确定单元;500-电子设备;510-处理器;520-存储器;530-总线。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中的附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的全部其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“声纹的识别”,给出以下实施方式,对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。
本申请实施例下所述方法、装置、电子设备或计算机可读存储介质可以应用于任何需要进行岩性的分类的场景,本申请实施例并不对具体的应用场景作限制,任何使用本申请实施例提供的声纹的识别方法及装置的方案均在本申请保护范围内。
值得注意的是,经研究发现,在本申请提出之前,现有技术中,二维卷积神经网络是目前声纹识别竞赛所采用的常用方法。但二维卷积计算量较大,在一些计算能力较差的嵌入式设备上,基于二维卷积的声纹识别系统的识别的实时性较差,在一定程度上阻碍了声纹识别技术在嵌入式设备上的应用。
基于此,本申请实施例提供了一种声纹的识别方法、装置、电子设备及存储介质,通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
为便于对本申请进行理解,下面结合具体实施例对本申请提供的技术方案进行详细说明。
请参阅图1,图1为本申请实施例所提供的一种声纹的识别方法的流程图。所如图1中所示,本申请实施例提供的一种声纹的识别方法,所述识别方法包括:
S101、从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量。
该步骤中,所述训练好的目标卷积网络中的第一卷积层用于将二维的所述声学特征信息转化为一维的时域特征向量和一维的频域特征向量。
这里,所述练好的目标卷积网络中的第一卷积层只有一次卷积结构,在将所述维的所述声学特征信息转化为一维的时域特征向量和一维的频域特征向量之后,不会在进行第二次来自于第一卷积层结构的卷积,所述二维的特征信息的计算速度和卷积速度远远小于一维的特征信息,因此,将所述二维特征信息转化为所述一维特征信息,可以大大的提升所述一时域特征向量和所述频域特征向量卷积的速度,进而提升了声纹识别的速度,增强了声纹识别的实时性。
可选的,通过以下方式提取出声学特征信息:
获取所述待检测音频。
针对所述待检测音频进行分帧处理和傅里叶变换处理,确定频谱特征图谱。
这里,所述特征图谱是由所述待检测音频经由所述分帧处理和傅里叶变换处理得到的,例如,以3秒音频为例,窗长、窗移分别为0.025s、0.01s,特征采用39维MFCC,则可以得到 300*39二维频谱图,这里的二维频谱图即为所述特征图谱,所述特征图谱为所述训练好的目标卷积网络的输入。
从所述频谱特征图谱中,提取出所述声学特征信息。
这里,所述声学特征信息包括但不限制于梅尔频率倒谱系数、Fbank以及感知线性预测。
可选的,所述将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量,包括:
将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量。
这里,从获取的待检测音频中提取出声学特征信息MFCC,生成二维的特征图谱,根据所述特征图谱,提取声学特征信息,将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量。
其中,例如,将每8个所述声学特征信息组成,具体表示为:
Fa=[B,S_len,F_dim]
这里,Fa表示输入的Tensor形状,B表示batchsize大小,S_len表示输入声学特征长度,F_dim表示声学特征频率维度大小。本发明中,B=8,S_len=300,F_dim=30。
这样,将Fa输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量Na,Na表达式具体为:
Na=conv1d(Fa)=[B,out_channel,F_dim]
其中,out_channel表示一维卷积输出channel大小,本发明中,out_channel=512。
将所述时域特征向量的进行特征转置,得到频域特征向量。
这里,将所述时域特征向量Na的后两维特征向量进行转置,生成所述频域特征向量Nb,Nb的表达式具体为:
Nb=conv1d(Fb)=[B,out_channel,S_len]
可选的,通过以下方式训练得到目标卷积网络:
获取多个样本音频,以及每个所述样本音频对应的标签信息;所述标签信息用于表征每个所述样本音频中样本对象对应的真实声纹嵌入向量。
根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络。
这里,将每个所述样本音频输入初始卷积网络,得到每个样本音频的预测声纹嵌入向量,根据各个所述样本音频的所述预测声纹嵌入向量和所述真实声纹嵌入向量之间的损失值,对初始卷积网络进行训练,得到训练好的目标卷积网络。
其中,当各个所述样本音频的所述预测声纹嵌入向量和所述真实声纹嵌入向量之间的损失值小于预设阈值时,训练截止,得到训练好的目标卷积网络。
这样,通过Amsoftmax损失函数得到所述预测声纹嵌入向量和所述真实声纹嵌入向量之间的损失值之间的误差,将误差通过BP(Back Propagation)算法误差的反向传播。
S102、将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量。
该步骤中,具体的将所述时域特征向量Na和所述频域特征向量Nb进行拼接,拼接后表示为Nc,所述Nc的表达式为:
Nc=Na+Nb=[B,out_channel,F_dim+S_len]=[8,512,330]
S103、所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量。
该步骤中,将拼接特征向量Nc输入训练好的所述目标卷积网络中的第二卷积层中,其中,所述第二卷积层位于所述第一卷积层和所述拼接层之后,且所述第二卷积层由至少一个卷积层和所述卷积层对应的卷积核组成。
这里,所述第二卷积层的数量为训练好的所述目标卷积网络中,除所述第一卷积层和所述拼接层之外的剩余的卷积层。
S104、根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
该步骤中,根据所述目标声纹嵌入向量,生成所述目标声纹嵌入向量的embedding,并对所述目标声纹嵌入向量的embedding进行打分,根据所述打分结构,判断所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
本申请实施例提供的声纹的识别方法,与现有技术中相比,通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
请参阅图2,图2为本申请另一实施例提供的声纹的识别方法的流程图。如图2中所示,本申请实施例提供的一种声纹的识别方法,所述识别方法包括:
S201、从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量。
S202、将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量。
S203、将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量。
S204、根据所述目标声纹嵌入向量和预设声纹嵌入向量,判断所述目标声纹嵌入向量和预设声纹嵌入向量之间的相似度。
该步骤中,根据所述目标声纹嵌入向量,生成所述目标声纹嵌入向量的embedding,并对所述目标声纹嵌入向量的embedding进行打分,根据所述打分结构,判断所述目标声纹嵌入向量和预设声纹嵌入向量之间的相似度;所述预设声纹嵌入向量为所述目标对象对应的向量。
S205、若所述相似度大于或等于预设阈值,确定所述待检测音频是来自目标对象。
该步骤中,若所述相似度小于预设阈值,确定所述待检测音频不是来自目标对象。
其中,S201至S203的描述可以参照S101至S103的描述,并且能达到相同的技术效果,对此不做赘述。
本申请实施例提供的声纹的识别方法,与现有技术中相比,通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
请参阅图3、图4,图3为本申请实施例所提供的一种声纹的识别装置的结构示意图,图4为本申请实施例所提供的另一种声纹的识别装置的结构示意图。如图3中所示,一种声纹的识别装置,所述识别装置300包括:
提取模块310,用于从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量;
拼接模块320,用于将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量;
获取模块330,用于将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量;
确定模块340,用于根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
可选的,所述提取模块中通过以下方式提取出声学特征信息:
获取所述待检测音频。
针对所述待检测音频进行分帧处理和傅里叶变换处理,确定频谱特征图谱。
从所述频谱特征图谱中,提取出所述声学特征信息。
可选的,所述提取模块具体用于:
将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量。
将所述时域特征向量的进行特征转置,得到频域特征向量。
可选的,通过以下方式训练得到目标卷积网络:
获取多个样本音频,以及每个所述样本音频对应的标签信息;所述标签信息用于表征每个所述样本音频中样本对象对应的真实声纹嵌入向量。
根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络。
可选的,所述根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络,包括:
将每个所述样本音频输入初始卷积网络,得到每个样本音频的预测声纹嵌入向量。
根据各个所述样本音频的所述预测声纹嵌入向量和所述真实声纹嵌入向量之间的损失值,对初始卷积网络进行训练,得到训练好的目标卷积网络。
本申请实施例提供的声纹的识别装置,与现有技术中相比,通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
请参阅图4,图4示出了本申请实施例所提供的另一种声纹的识别装置的结构示意图。如图4中所示,一种声纹的识别装置,所述识别装置300包括:
提取模块310,用于从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量。
拼接模块320,用于将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量。
获取模块330,用于将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量。
确定模块340,用于根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
可选的,所述确定模块340包括:
判断单元341,用于计算所述目标声纹嵌入向量和预设声纹嵌入向量,判断所述目标声纹嵌入向量和预设声纹嵌入向量之间的相似度。
确定单元342,用于若所述相似度大于或等于预设阈值,确定所述待检测音频是来自目标对象。
本申请实施例提供的声纹的识别装置,与现有技术中相比,通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
基于同一申请构思,请参阅图5,图5为本申请实施例所提供的一种电子设备的结构示意图。如图5中所示,所述电子设备500包括处理器510、存储器520和总线530。
所述存储器520存储有所述处理器510可执行的机器可读指令,当电子设备500运行时,所述处理器510与所述存储器520之间通过总线530通信,所述机器可读指令被所述处理器510执行时,可以执行如上述图1以及图2所示方法实施例中的识别方法的步骤,具体实现方式可参见方法实施例。
具体地,所述机器可读指令被所述处理器510执行时可以执行如下处理:
从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量。
将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量。
将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量。
根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量。
本申请实施例中,通过将从待检测的音频中提取的声学特征信息分别输入训练好的目标卷积网络中的第一卷积层、拼接层以及第二卷积层中,将二维的特征向量转化为一维的特征向量,本申请在一维卷积基础上,通过对时域信息特征和频域信息特征拼接,并利用新的网络结构进行声纹识别,既保证了快速的声纹识别速度,又提高了声纹识别的实时性能。
基于同一申请构思,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时可以执行如上述图1以及图2所示方法实施例中的声纹的识别方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种声纹的识别方法,其特征在于,所述识别方法包括:
从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量;其中,所述训练好的目标卷积网络中的第一卷积层用于将二维的所述声学特征信息转化为一维的时域特征向量和一维的频域特征向量;
将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量;
将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量;其中,所述第二卷积层位于所述第一卷积层和所述拼接层之后,且所述第二卷积层由至少一个卷积层和所述卷积层对应的卷积核组成;
根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量;
所述将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量,包括:
将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量;
将所述时域特征向量的进行特征转置,得到频域特征向量。
2.根据权利要求1所述的识别方法,其特征在于,通过以下方式提取出声学特征信息:
获取所述待检测音频;
对所述待检测音频进行分帧处理和傅里叶变换处理,确定频谱特征图谱;
从所述频谱特征图谱中,提取出所述声学特征信息。
3.根据权利要求1所述的识别方法,其特征在于,通过以下方式训练得到目标卷积网络:
获取多个样本音频,以及每个所述样本音频对应的标签信息;所述标签信息用于表征每个所述样本音频中样本对象对应的真实声纹嵌入向量;
根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络。
4.根据权利要求3所述的识别方法,其特征在于,所述根据各个所述样本音频以及每个所述本音频对应的标签信息,对初始卷积网络进行训练,得到训练好的目标卷积网络,包括:
将每个所述样本音频输入初始卷积网络,得到每个样本音频的预测声纹嵌入向量;
根据各个所述样本音频的所述预测声纹嵌入向量和所述真实声纹嵌入向量之间的损失值,对初始卷积网络进行训练,得到训练好的目标卷积网络。
5.根据权利要求1所述的识别方法,其特征在于,所述根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象,包括:
计算所述目标声纹嵌入向量和预设声纹嵌入向量之间的相似度;
若所述相似度大于或等于预设阈值,确定所述待检测音频是来自目标对象;
若所述相似度小于所述预设阈值,确定所述待检测音频不是来自目标对象。
6.一种声纹的识别装置,其特征在于,所述识别装置包括:
提取模块,用于从获取的待检测音频中提取出声学特征信息,并将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量;其中,所述训练好的目标卷积网络中的第一卷积层用于将二维的所述声学特征信息转化为一维的时域特征向量和一维的频域特征向量;
拼接模块,用于将所述时域特征向量和所述频域特征向量输入训练好的目标卷积网络中的拼接层中,得到拼接特征向量;
获取模块,用于将所述拼接特征向量输入训练好的所述目标卷积网络中的第二卷积层中,得到所述待检测音频对应的目标声纹嵌入向量;其中,所述第二卷积层位于所述第一卷积层和所述拼接层之后,且所述第二卷积层由至少一个卷积层和所述卷积层对应的卷积核组成;
确定模块,用于根据所述目标声纹嵌入向量和预设声纹嵌入向量,确定所述待检测音频是否来自目标对象;所述预设声纹嵌入向量为所述目标对象对应的向量;
所述提取模块中将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量和频域特征向量,包括:
将所述声学特征信息输入训练好的目标卷积网络中的第一卷积层中,得到时域特征向量;
将所述时域特征向量的进行特征转置,得到频域特征向量。
7.根据权利要求6所述的识别装置,其特征在于,所述确定模块包括:
判断单元,用于计算所述目标声纹嵌入向量和预设声纹嵌入向量,判断所述目标声纹嵌入向量和预设声纹嵌入向量之间的相似度;
确定单元,用于若所述相似度大于或等于预设阈值,确定所述待检测音频是来自目标对象;
若所述相似度小于所述预设阈值,确定所述待检测音频不是来自目标对象。
8.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器运行时执行如上述权利要求1至5任一所述的识别方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如上述权利要求1至5任一所述的识别方法的步骤。
CN202110359278.8A 2021-04-02 2021-04-02 一种声纹的识别方法、装置、电子设备及存储介质 Active CN112750441B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110359278.8A CN112750441B (zh) 2021-04-02 2021-04-02 一种声纹的识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110359278.8A CN112750441B (zh) 2021-04-02 2021-04-02 一种声纹的识别方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112750441A CN112750441A (zh) 2021-05-04
CN112750441B true CN112750441B (zh) 2021-07-23

Family

ID=75651713

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110359278.8A Active CN112750441B (zh) 2021-04-02 2021-04-02 一种声纹的识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112750441B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450828A (zh) * 2021-06-25 2021-09-28 平安科技(深圳)有限公司 音乐流派的识别方法、装置、设备及存储介质
CN113421575B (zh) * 2021-06-30 2024-02-06 平安科技(深圳)有限公司 声纹识别方法、装置、设备及存储介质
CN113782033B (zh) * 2021-09-26 2023-11-24 广东电网有限责任公司 一种声纹识别方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108899037A (zh) * 2018-07-05 2018-11-27 平安科技(深圳)有限公司 动物声纹特征提取方法、装置及电子设备
CN109584887A (zh) * 2018-12-24 2019-04-05 科大讯飞股份有限公司 一种声纹信息提取模型生成、声纹信息提取的方法和装置
CN110299142A (zh) * 2018-05-14 2019-10-01 桂林远望智能通信科技有限公司 一种基于网络融合的声纹识别方法及装置
CN112053695A (zh) * 2020-09-11 2020-12-08 北京三快在线科技有限公司 声纹识别方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299142A (zh) * 2018-05-14 2019-10-01 桂林远望智能通信科技有限公司 一种基于网络融合的声纹识别方法及装置
CN108899037A (zh) * 2018-07-05 2018-11-27 平安科技(深圳)有限公司 动物声纹特征提取方法、装置及电子设备
WO2020006935A1 (zh) * 2018-07-05 2020-01-09 平安科技(深圳)有限公司 动物声纹特征提取方法、装置及计算机可读存储介质
CN109584887A (zh) * 2018-12-24 2019-04-05 科大讯飞股份有限公司 一种声纹信息提取模型生成、声纹信息提取的方法和装置
CN112053695A (zh) * 2020-09-11 2020-12-08 北京三快在线科技有限公司 声纹识别方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112750441A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN112750441B (zh) 一种声纹的识别方法、装置、电子设备及存储介质
CN106683680B (zh) 说话人识别方法及装置、计算机设备及计算机可读介质
CN105976812B (zh) 一种语音识别方法及其设备
KR101988222B1 (ko) 대어휘 연속 음성 인식 장치 및 방법
WO2021128741A1 (zh) 语音情绪波动分析方法、装置、计算机设备及存储介质
CN109741732B (zh) 命名实体识别方法、命名实体识别装置、设备及介质
CN110718228B (zh) 语音分离方法、装置、电子设备及计算机可读存储介质
WO2019191554A1 (en) Adaptive permutation invariant training with auxiliary information for monaural multi-talker speech recognition
CN111933129A (zh) 音频处理方法、语言模型的训练方法、装置及计算机设备
US20160111112A1 (en) Speaker change detection device and speaker change detection method
KR20140028174A (ko) 음성 인식 방법 및 이를 적용한 전자 장치
CN111429948A (zh) 一种基于注意力卷积神经网络的语音情绪识别模型及方法
CN113707125B (zh) 一种多语言语音合成模型的训练方法及装置
CN111798840A (zh) 语音关键词识别方法和装置
CN111309905A (zh) 一种对话语句的聚类方法、装置、电子设备及存储介质
CN107680584B (zh) 用于切分音频的方法和装置
CN110570870A (zh) 一种文本无关的声纹识别方法、装置及设备
Shabani et al. Speech recognition using principal components analysis and neural networks
Ustubioglu et al. Robust copy-move detection in digital audio forensics based on pitch and modified discrete cosine transform
CN113793599B (zh) 语音识别模型的训练方法和语音识别方法及装置
JP2015175859A (ja) パターン認識装置、パターン認識方法及びパターン認識プログラム
CN113555007A (zh) 语音拼接点检测方法及存储介质
CN112767950A (zh) 一种声纹识别方法、装置及计算机可读存储介质
Gupta et al. A study on speech recognition system: a literature review
CN111785256A (zh) 声学模型训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant