CN113689863A - 一种声纹特征提取方法、装置、设备及存储介质 - Google Patents
一种声纹特征提取方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113689863A CN113689863A CN202111124456.5A CN202111124456A CN113689863A CN 113689863 A CN113689863 A CN 113689863A CN 202111124456 A CN202111124456 A CN 202111124456A CN 113689863 A CN113689863 A CN 113689863A
- Authority
- CN
- China
- Prior art keywords
- dynamic
- feature
- static
- sample
- voiceprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 109
- 230000003068 static effect Effects 0.000 claims abstract description 153
- 238000012549 training Methods 0.000 claims abstract description 57
- 238000013528 artificial neural network Methods 0.000 claims abstract description 27
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000000034 method Methods 0.000 abstract description 20
- 238000012795 verification Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种声纹特征提取方法、装置、设备及存储介质,方法包括:获取声纹训练样本的样本静态特征,样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;基于差分算法根据样本静态特征获取样本动态特征;根据样本静态特征和样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;将预置目标静态特征输入动态特征提取模型中进行动态特征提取,得到目标动态特征,目标动态特征维度小于样本动态特征维度。本申请能够解决现有的声纹动静态信息维度较大,产生了较多冗余数据,导致模型优化效率低,且易产生冗余参数技术问题。
Description
技术领域
本申请涉及声纹识别技术领域,尤其涉及一种声纹特征提取方法、装置、设备及存储介质。
背景技术
声纹识别是生物识别技术的一种,也称为说话人识别,包括说话人辨认和说话人确认两种过程。声纹识别就是把声信号转换成电信号,再用计算机进行识别。不同的任务和应用会使用不同的声纹识别技术,如缩小刑侦范围时可能需要辨认技术,而银行交易时则需要确认技术。
现有的声纹识别中会关注到声纹的动静态信息。通常一个信息是静态的,缺乏与其前后时刻对应的信息的协同效应;为了增强相邻时刻信息之间的协同效应,同时需要关注动态特征。然而现有获取的动静态信息维度较大,产生了较多的冗余信息,不利于优化模型的计算效率,且会导致模型产生冗余参数。
发明内容
本申请提供了一种声纹特征提取方法、装置、设备及存储介质,用于解决现有的声纹动静态信息维度较大,产生了较多冗余数据,导致声纹识别模型优化效率低,且易产生冗余参数技术问题。
有鉴于此,本申请第一方面提供了一种声纹特征提取方法,包括:
获取声纹训练样本的样本静态特征,所述样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;
基于差分算法根据所述样本静态特征获取样本动态特征;
根据所述样本静态特征和所述样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;
将预置目标静态特征输入所述动态特征提取模型中进行动态特征提取,得到目标动态特征,所述目标动态特征维度小于所述样本动态特征维度。
优选地,所述基于差分算法根据所述样本静态特征获取样本动态特征,包括:
基于差分算法对所述第一静态子特征和所述第二静态子特征作一阶差分运算,得到一阶差分特征;
基于差分算法对所述第一静态子特征、所述第二静态子特征和所述第三静态子特征作二阶差分运算,得到二阶差分特征;
将所述第一静态子特征、所述一阶差分特征和所述二阶差分特征进行拼接,得到样本动态特征。
优选地,所述根据所述样本静态特征和所述样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型,包括:
将所述样本静态特征输入初始差分神经网络中进行动态特征提取,得到预测动态特征;
根据所述预测动态特征和所述样本动态特征进行均方误差计算,得到度量值;
基于所述度量值对所述初始差分神经网络进行迭代训练,直至所述度量值达到预置训练阈值,得到动态特征提取模型。
优选地,所述将预置目标静态特征输入所述动态特征提取模型中进行动态特征提取,得到目标动态特征,之后还包括:
获取所述目标静态特征和所述目标动态特征对应的声纹标签;
根据所述目标动态特征和所述声纹标签对初始声纹识别模型进行声纹识别训练,得到目标声纹识别模型。
本申请第二方面提供了一种声纹特征提取装置,包括:
第一获取模块,用于获取声纹训练样本的样本静态特征,所述样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;
第二获取模块,用于基于差分算法根据所述样本静态特征获取样本动态特征;
模型训练模块,用于根据所述样本静态特征和所述样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;
特征提取模块,用于将预置目标静态特征输入所述动态特征提取模型中进行动态特征提取,得到目标动态特征,所述目标动态特征维度小于所述样本动态特征维度。
优选地,所述第二获取模块,具体包括:
一阶计算子模块,用于基于差分算法对所述第一静态子特征和所述第二静态子特征作一阶差分运算,得到一阶差分特征;
二阶计算子模块,用于基于差分算法对所述第一静态子特征、所述第二静态子特征和所述第三静态子特征作二阶差分运算,得到二阶差分特征;
特征拼接子模块,用于将所述第一静态子特征、所述一阶差分特征和所述二阶差分特征进行拼接,得到样本动态特征。
优选地,所述模型训练模块,具体包括:
动态预测子模块,用于将所述样本静态特征输入初始差分神经网络中进行动态特征提取,得到预测动态特征;
误差计算子模块,用于根据所述预测动态特征和所述样本动态特征进行均方误差计算,得到度量值;
迭代优化子模块,用于基于所述度量值对所述初始差分神经网络进行迭代训练,直至所述度量值达到预置训练阈值,得到动态特征提取模型。
优选地,还包括:
第三获取模块,用于获取所述目标静态特征和所述目标动态特征对应的声纹标签;
声纹模型训练模块,用于根据所述目标动态特征和所述声纹标签对初始声纹识别模型进行声纹识别训练,得到目标声纹识别模型。
本申请第三方面提供了一种声纹特征提取设备,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面所述的声纹特征提取方法。
本申请第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面所述的声纹特征提取方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请中,提供了一种声纹特征提取方法,包括:获取声纹训练样本的样本静态特征,样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;基于差分算法根据样本静态特征获取样本动态特征;根据样本静态特征和样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;将预置目标静态特征输入动态特征提取模型中进行动态特征提取,得到目标动态特征,目标动态特征维度小于样本动态特征维度。
本申请提供的声纹特征提取方法中,基于样本静态特征获取对应的样本动态特征,但是这种方法得到的样本动态特征维度可能比较大,仅用作动态特征提取模型的训练中,训练好的动态特征提取模型能够压缩特征维度,确保减少动态特征的冗余度,进而保证后续的声纹识别模型的计算效率和参数紧凑性。本申请能够解决现有的声纹动静态信息维度较大,产生了较多冗余数据,导致声纹识别模型优化效率低,且易产生冗余参数技术问题。
附图说明
图1为本申请实施例提供的一种声纹特征提取方法的一个流程示意图;
图2为本申请实施例提供的一种声纹特征提取方法的另一个流程示意图;
图3为本申请实施例提供的一种声纹特征提取装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解,请参阅图1,本申请提供的一种声纹特征提取方法的实施例一,包括:
步骤101、获取声纹训练样本的样本静态特征,样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征。
步骤102、基于差分算法根据样本静态特征获取样本动态特征。
步骤103、根据样本静态特征和样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型。
步骤104、将预置目标静态特征输入动态特征提取模型中进行动态特征提取,得到目标动态特征,目标动态特征维度小于样本动态特征维度。
本申请实施例提供的声纹特征提取方法中,基于样本静态特征获取对应的样本动态特征,但是这种方法得到的样本动态特征维度可能比较大,仅用作动态特征提取模型的训练中,训练好的动态特征提取模型能够压缩特征维度,确保减少动态特征的冗余度,进而保证后续的声纹识别模型的计算效率和参数紧凑性。本申请实施例能够解决现有的声纹动静态信息维度较大,产生了较多冗余数据,导致声纹识别模型优化效率低,且易产生冗余参数技术问题。
以上为本申请提供的一种声纹特征提取方法的一个实施例,以下为本申请提供的一种声纹特征提取方法的另一个实施例。
为了便于理解,请参阅图2,本申请提供了一种声纹特征提取方法的实施例二,包括:
步骤201、获取声纹训练样本的样本静态特征,样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征。
获取样本音频信息,样本音频信息包括连续的多帧音频帧,例如,一端音频信息可以包括3帧音频帧。样本音频信息是电子设备本地采集的或者是本地存储的音频数据库中获取的,也可以是与电子设备连接的另一电子设备发送的,还可以是电子设备从服务器下载的。提取多帧音频帧中每一帧音频帧对应的静态特征,可以得到多个样本静态特征。样本静态特征可以为梅尔倒谱系数(Mel-scaleFrequency Cepstral Coefficients,简称MFCC)、常数Q变换静态特征等,静态特征的维度可以为12维、13维等,在此不做限定。
样本音频信息在提取特征之前还需要进行预处理操作,例如预加重、分帧、加窗处理等;然后对预处理后的音频帧进行快速傅里叶变换,将音频帧从时域信号转换为频域信号;接着通过梅尔滤波器对音频帧进行滤波,实现对音频帧的平滑处理,以消除多个频域的音频帧的谐波,得到音频帧对应的梅尔频谱特征;最后对梅尔频谱特征取对数,即可得到样本静态特征。
步骤202、基于差分算法对第一静态子特征和第二静态子特征作一阶差分运算,得到一阶差分特征。
步骤203、基于差分算法对第一静态子特征、第二静态子特征和第三静态子特征作二阶差分运算,得到二阶差分特征。
步骤204、将第一静态子特征、一阶差分特征和二阶差分特征进行拼接,得到样本动态特征。
具体的计算过程分为一阶差分运算和二阶差分运算:
Y(k)=X(k)-X(k-1)
Z(k)=Y(k)-Y(k-1)=X(k)-2X(k-1)+X(k-2)
其中,Y(k)为一阶差分特征,X(k)为第一静态子特征,X(k-1)为第二静态子特征,X(k-2)为第三静态子特征,Z(x)为二阶差分特征。
步骤205、将样本静态特征输入初始差分神经网络中进行动态特征提取,得到预测动态特征。
步骤206、根据预测动态特征和样本动态特征进行均方误差计算,得到度量值。
均方误差的计算过程为:
其中,Δω为均方误差,yi为第i帧音频帧对应的预测动态特征,yi'为第i帧音频帧对应的样本动态特征,n为样本动态特征的数量。
步骤207、基于度量值对初始差分神经网络进行迭代训练,直至度量值达到预置训练阈值,得到动态特征提取模型。
动态特征提取模型包括输入层、隐藏层和输出层,其中隐藏层能够对特征向量降维;且隐藏层的层数至少为1层,具体层数可以根据实际需要进行设定。将样本静态特征输入到初始差分神经网络的输入层,通过初始差分神经网络的输入层将样本静态特征传输至初始差分神经网络的隐藏层进行维度压缩;获得初始差分神经网络的隐藏层输出的维度压缩后的动态特征;将维度压缩后的动态特征输入至初始差分神经网络的输出层进行维度增大,获得维度增大后的动态特征作为预测动态特征。
预测动态特征与样本动态特征之间计算的均方误差能够反映动态特征提取模型的动态特征预测能力的好坏,因此,可以根据均方误差计算得到的度量值对模型进行优化迭代训练,以期望获取到最优的动态特征提取模型。具体的预置训练阈值可以根据具体情况设置,达到预置训练阈值则认为训练已经收敛。
如果样本静态特征中包括3帧音频帧对应的静态特征,且每个样本静态特征均是12维,那么相应的样本动态特征为12维。但是隐藏层可以根据调整神经元的数量确定目标动态特征的维数,使得目标动态特征的维度小于样本动态特征。
步骤208、将预置目标静态特征输入动态特征提取模型中进行动态特征提取,得到目标动态特征,目标动态特征维度小于样本动态特征维度。
目标静态特征的获取方式与样本静态特征的获取方式相同,在此不再赘述。由于动态特征提取模型的隐藏层输出的动态特征经过维度压缩,削减了维度冗余,以该目标动态特征作为声纹识别中待训练网络的输入参数,能够降低训练参数的冗余度。
步骤209、获取目标静态特征和目标动态特征对应的声纹标签。
步骤210、根据目标动态特征和声纹标签对初始声纹识别模型进行声纹识别训练,得到目标声纹识别模型。
声纹标签一般是指目标静态特征对应的音频帧所属人,也即音频标签,目标静态特征与目标动态特征相对应。声纹标签是采用标记工具对音频信息进行标记得到的。
根据目标动态特征构成的数据集对初始声纹识别模型进行训练,以建立输入训练参数和声纹标签之间的对应关系。获取校验参数和校验参数对应的声纹标签,将校验参数输入声纹模型,获得声纹模型输出的校验结果。当校验结果与校验参数对应的声纹标签匹配时,则说明声纹模型已训练完成,获得训练完成的声纹模型,该已训练的声纹模型可以对目标音频信息进行声纹识别,以确定发音者的身份。按照声纹结果对目标音频信息进行分类,将声纹结果相同的音频信息归为同一类,便于管理和调用音频信息。
可以理解的是,若是获取的声纹标签是语言种类,例如不同语种,那么声纹识别模型主要用于识别音频的语种;若是获取的声纹标签是不同人,那么声纹识别模型主要用于音频归属人的识别。具体的模型训练方式相同,在此不作赘述。
本申请实施例提供的声纹特征提取方法中,基于样本静态特征获取对应的样本动态特征,但是这种方法得到的样本动态特征维度可能比较大,仅用作动态特征提取模型的训练中,训练好的动态特征提取模型能够压缩特征维度,确保减少动态特征的冗余度,进而保证后续的声纹识别模型的计算效率和参数紧凑性。本申请实施例能够解决现有的声纹动静态信息维度较大,产生了较多冗余数据,导致声纹识别模型优化效率低,且易产生冗余参数技术问题。
以上为本申请提供的一种声纹特征提取方法的一个实施例,以下为本申请提供的一种声纹特征提取装置的一个实施例。
为了便于理解,请参阅图3,本申请还提供了一种声纹特征提取装置的实施例,包括:
第一获取模块301,用于获取声纹训练样本的样本静态特征,样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;
第二获取模块302,用于基于差分算法根据样本静态特征获取样本动态特征;
模型训练模块303,用于根据样本静态特征和样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;
特征提取模块304,用于将预置目标静态特征输入动态特征提取模型中进行动态特征提取,得到目标动态特征,目标动态特征维度小于样本动态特征维度。
进一步地,第二获取模块302,具体包括:
一阶计算子模块3021,用于基于差分算法对第一静态子特征和第二静态子特征作一阶差分运算,得到一阶差分特征;
二阶计算子模块3022,用于基于差分算法对第一静态子特征、第二静态子特征和第三静态子特征作二阶差分运算,得到二阶差分特征;
特征拼接子模块3023,用于将第一静态子特征、一阶差分特征和二阶差分特征进行拼接,得到样本动态特征。
进一步地,模型训练模块303,具体包括:
动态预测子模块3031,用于将样本静态特征输入初始差分神经网络中进行动态特征提取,得到预测动态特征;
误差计算子模块3032,用于根据预测动态特征和样本动态特征进行均方误差计算,得到度量值;
迭代优化子模块3033,用于基于度量值对初始差分神经网络进行迭代训练,直至度量值达到预置训练阈值,得到动态特征提取模型。
进一步地,还包括:
第三获取模块305,用于获取目标静态特征和目标动态特征对应的声纹标签;
声纹模型训练模块306,用于根据目标动态特征和声纹标签对初始声纹识别模型进行声纹识别训练,得到目标声纹识别模型。
为了便于理解,本申请还提供了一种声纹特征提取设备,设备包括处理器以及存储器;
存储器用于存储程序代码,并将程序代码传输给处理器;
处理器用于根据程序代码中的指令执行上述方法实施例中的声纹特征提取方法。
为了便于理解,本申请还提供了一种计算机可读存储介质,计算机可读存储介质用于存储程序代码,程序代码用于执行上述方法实施例中的声纹特征提取方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以通过一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:RandomAccess Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种声纹特征提取方法,其特征在于,包括:
获取声纹训练样本的样本静态特征,所述样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;
基于差分算法根据所述样本静态特征获取样本动态特征;
根据所述样本静态特征和所述样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;
将预置目标静态特征输入所述动态特征提取模型中进行动态特征提取,得到目标动态特征,所述目标动态特征维度小于所述样本动态特征维度。
2.根据权利要求1所述的声纹特征提取方法,其特征在于,所述基于差分算法根据所述样本静态特征获取样本动态特征,包括:
基于差分算法对所述第一静态子特征和所述第二静态子特征作一阶差分运算,得到一阶差分特征;
基于差分算法对所述第一静态子特征、所述第二静态子特征和所述第三静态子特征作二阶差分运算,得到二阶差分特征;
将所述第一静态子特征、所述一阶差分特征和所述二阶差分特征进行拼接,得到样本动态特征。
3.根据权利要求1所述的声纹特征提取方法,其特征在于,所述根据所述样本静态特征和所述样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型,包括:
将所述样本静态特征输入初始差分神经网络中进行动态特征提取,得到预测动态特征;
根据所述预测动态特征和所述样本动态特征进行均方误差计算,得到度量值;
基于所述度量值对所述初始差分神经网络进行迭代训练,直至所述度量值达到预置训练阈值,得到动态特征提取模型。
4.根据权利要求1所述的声纹特征提取方法,其特征在于,所述将预置目标静态特征输入所述动态特征提取模型中进行动态特征提取,得到目标动态特征,之后还包括:
获取所述目标静态特征和所述目标动态特征对应的声纹标签;
根据所述目标动态特征和所述声纹标签对初始声纹识别模型进行声纹识别训练,得到目标声纹识别模型。
5.一种声纹特征提取装置,其特征在于,包括:
第一获取模块,用于获取声纹训练样本的样本静态特征,所述样本静态特征包括第一静态子特征、第二静态子特征和第三静态子特征;
第二获取模块,用于基于差分算法根据所述样本静态特征获取样本动态特征;
模型训练模块,用于根据所述样本静态特征和所述样本动态特征对初始差分神经网络进行动态特征提取训练,得到动态特征提取模型;
特征提取模块,用于将预置目标静态特征输入所述动态特征提取模型中进行动态特征提取,得到目标动态特征,所述目标动态特征维度小于所述样本动态特征维度。
6.根据权利要求5所述的声纹特征提取装置,其特征在于,所述第二获取模块,具体包括:
一阶计算子模块,用于基于差分算法对所述第一静态子特征和所述第二静态子特征作一阶差分运算,得到一阶差分特征;
二阶计算子模块,用于基于差分算法对所述第一静态子特征、所述第二静态子特征和所述第三静态子特征作二阶差分运算,得到二阶差分特征;
特征拼接子模块,用于将所述第一静态子特征、所述一阶差分特征和所述二阶差分特征进行拼接,得到样本动态特征。
7.根据权利要求5所述的声纹特征提取装置,其特征在于,所述模型训练模块,具体包括:
动态预测子模块,用于将所述样本静态特征输入初始差分神经网络中进行动态特征提取,得到预测动态特征;
误差计算子模块,用于根据所述预测动态特征和所述样本动态特征进行均方误差计算,得到度量值;
迭代优化子模块,用于基于所述度量值对所述初始差分神经网络进行迭代训练,直至所述度量值达到预置训练阈值,得到动态特征提取模型。
8.根据权利要求5所述的声纹特征提取装置,其特征在于,还包括:
第三获取模块,用于获取所述目标静态特征和所述目标动态特征对应的声纹标签;
声纹模型训练模块,用于根据所述目标动态特征和所述声纹标签对初始声纹识别模型进行声纹识别训练,得到目标声纹识别模型。
9.一种声纹特征提取设备,其特征在于,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-4任一项所述的声纹特征提取方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1-4任一项所述的声纹特征提取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111124456.5A CN113689863B (zh) | 2021-09-24 | 2021-09-24 | 一种声纹特征提取方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111124456.5A CN113689863B (zh) | 2021-09-24 | 2021-09-24 | 一种声纹特征提取方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113689863A true CN113689863A (zh) | 2021-11-23 |
CN113689863B CN113689863B (zh) | 2024-01-16 |
Family
ID=78587184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111124456.5A Active CN113689863B (zh) | 2021-09-24 | 2021-09-24 | 一种声纹特征提取方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113689863B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610708A (zh) * | 2017-06-09 | 2018-01-19 | 平安科技(深圳)有限公司 | 识别声纹的方法及设备 |
CN109036437A (zh) * | 2018-08-14 | 2018-12-18 | 平安科技(深圳)有限公司 | 口音识别方法、装置、计算机装置及计算机可读存储介质 |
CN110111814A (zh) * | 2019-05-20 | 2019-08-09 | 国家计算机网络与信息安全管理中心 | 网络类型识别方法及装置 |
CN111128229A (zh) * | 2019-08-05 | 2020-05-08 | 上海海事大学 | 语音分类方法、装置及计算机存储介质 |
CN111243575A (zh) * | 2020-01-15 | 2020-06-05 | 北京工业大学 | 基于扩张卷积神经网络的方言种属识别方法 |
CN111554306A (zh) * | 2020-04-26 | 2020-08-18 | 兰州理工大学 | 一种基于多特征的声纹识别方法 |
AU2020102516A4 (en) * | 2020-09-30 | 2020-11-19 | Du, Jiahui Mr | Health status monitoring system based on speech analysis |
CN112102846A (zh) * | 2020-09-04 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、电子设备以及存储介质 |
CN112951245A (zh) * | 2021-03-09 | 2021-06-11 | 江苏开放大学(江苏城市职业学院) | 一种融入静态分量的动态声纹特征提取方法 |
-
2021
- 2021-09-24 CN CN202111124456.5A patent/CN113689863B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107610708A (zh) * | 2017-06-09 | 2018-01-19 | 平安科技(深圳)有限公司 | 识别声纹的方法及设备 |
CN109036437A (zh) * | 2018-08-14 | 2018-12-18 | 平安科技(深圳)有限公司 | 口音识别方法、装置、计算机装置及计算机可读存储介质 |
CN110111814A (zh) * | 2019-05-20 | 2019-08-09 | 国家计算机网络与信息安全管理中心 | 网络类型识别方法及装置 |
CN111128229A (zh) * | 2019-08-05 | 2020-05-08 | 上海海事大学 | 语音分类方法、装置及计算机存储介质 |
CN111243575A (zh) * | 2020-01-15 | 2020-06-05 | 北京工业大学 | 基于扩张卷积神经网络的方言种属识别方法 |
CN111554306A (zh) * | 2020-04-26 | 2020-08-18 | 兰州理工大学 | 一种基于多特征的声纹识别方法 |
CN112102846A (zh) * | 2020-09-04 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、电子设备以及存储介质 |
AU2020102516A4 (en) * | 2020-09-30 | 2020-11-19 | Du, Jiahui Mr | Health status monitoring system based on speech analysis |
CN112951245A (zh) * | 2021-03-09 | 2021-06-11 | 江苏开放大学(江苏城市职业学院) | 一种融入静态分量的动态声纹特征提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113689863B (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112562691B (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
CN110827801B (zh) | 一种基于人工智能的自动语音识别方法及系统 | |
CN107481717B (zh) | 一种声学模型训练方法及系统 | |
CN112949708B (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
CN110909613A (zh) | 视频人物识别方法、装置、存储介质与电子设备 | |
CN107517207A (zh) | 服务器、身份验证方法及计算机可读存储介质 | |
CN107610709A (zh) | 一种训练声纹识别模型的方法及系统 | |
CN112053695A (zh) | 声纹识别方法、装置、电子设备及存储介质 | |
CN115062143A (zh) | 语音识别与分类方法、装置、设备、冰箱及存储介质 | |
CN111402891A (zh) | 语音识别方法、装置、设备和存储介质 | |
EP3989217B1 (en) | Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium | |
CN113327621A (zh) | 模型训练方法、用户识别方法、系统、设备及介质 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN116564315A (zh) | 一种声纹识别方法、装置、设备及存储介质 | |
US10910000B2 (en) | Method and device for audio recognition using a voting matrix | |
CN113327584B (zh) | 语种识别方法、装置、设备及存储介质 | |
CN118135999A (zh) | 基于边缘设备的离线语音关键词识别方法及装置 | |
CN111524524B (zh) | 声纹识别方法、装置、设备及存储介质 | |
CN116665675A (zh) | 语音转写方法、系统、电子设备和存储介质 | |
CN113035176A (zh) | 语音数据处理方法、装置、计算机设备及存储介质 | |
CN112199498A (zh) | 一种养老服务的人机对话方法、装置、介质及电子设备 | |
CN116844567A (zh) | 一种基于多特征重建融合的深度合成音频检测方法及系统 | |
CN116312559A (zh) | 跨信道声纹识别模型的训练方法、声纹识别方法及装置 | |
CN113689863B (zh) | 一种声纹特征提取方法、装置、设备及存储介质 | |
CN113053409B (zh) | 音频测评方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |