CN108899037B - 动物声纹特征提取方法、装置及电子设备 - Google Patents
动物声纹特征提取方法、装置及电子设备 Download PDFInfo
- Publication number
- CN108899037B CN108899037B CN201810729268.7A CN201810729268A CN108899037B CN 108899037 B CN108899037 B CN 108899037B CN 201810729268 A CN201810729268 A CN 201810729268A CN 108899037 B CN108899037 B CN 108899037B
- Authority
- CN
- China
- Prior art keywords
- animal
- voiceprint
- voice
- animal voice
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241001465754 Metazoa Species 0.000 title claims abstract description 447
- 238000000605 extraction Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 98
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000001228 spectrum Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 19
- 238000009432 framing Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 3
- 230000003595 spectral effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 2
- 241000282887 Suidae Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 241001125840 Coryphaenidae Species 0.000 description 1
- 241000257303 Hymenoptera Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Toys (AREA)
Abstract
本申请公开了一种动物声纹特征提取方法、装置及电子设备,涉及动物身份识别技术领域,可以准确提取动物声纹特征,进而提高动物身份识别效果。所述方法包括:获取动物语音数据;从所述动物语音数据中提取动物语音特征向量;将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征。
Description
技术领域
本发明涉及动物身份识别技术领域,尤其是涉及到动物声纹特征提取方法、装置及电子设备。
背景技术
在最新的动物身份识别系统中,可以采用提取动物声纹特征来识别动物身份信息,进而确定动物身份。声纹识别是生物识别的一种,不同物种、不同个体均有其独特的声纹信息,人类可以通过动物声音区分出来是哪种动物,但是对于同一物种的不同个体发出的声音通过人耳确很难直接识别出来。
具体在动物身份识别过程中,实验测试的技术人员会将动物语音数据经过处理后放入语音库中,建立动物声纹特征库,通过动物声纹特征库记录动物的身份信息,进一步对确定身份的动物语音数据进行标签,从而确定动物身份,以便于在需要验证动物身份信息时,通过将待识别动物语音数据与动物声纹特征库中的动物语音数据进行比对,识别动物身份信息。
现有的动物声纹特征提取方法通常是将动物声音信号转换为语谱图,语谱图是声音信号的一种图像化表示方式,声音在各个频率点的幅值大小用颜色来区分,再通过不同的处理手段得到动物声纹特征。然而,通过分析语谱图的方式来提取动物声纹特征的准确度较低,使得动物声纹特征提取准确度受影响,另外,在提取动物声纹特征的过程中,环境的嘈杂以及多种声音的混杂都会影响声纹提取的效果。
发明内容
本发明实施例提供了动物声纹特征提取方法、装置及电子设备,解决了相关技术中无法准确提取动物声纹特征的问题。
根据本发明实施例的第一方面,提供一种动物声纹特征提取方法,所述方法包括:
获取动物语音数据;
从所述动物语音数据中提取动物语音特征向量;
将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征。
进一步地,在所述获取动物语音数据之后,所述方法还包括:
对所述动物语音数据进行预处理,得到处理后的动物语音数据;
按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列;
所述从所述动物语音数据中提取动物语音特征向量包括:
从所述多帧动物语音序列中提取出与所述多帧动物语音序列一一对应的多个动物语音特征向量。
进一步地,当所述动物语音特征向量用于反映动物语音在频谱结构随时间变化的特征信息,所述从所述动物语音数据中提取动物语音特征向量包括:
对每帧动物语音序列进行傅立叶变换得到每帧动物语音序列的频谱,并对所述每帧动物语音序列的频谱取模平方得到动物语音序列的功率谱;
通过预设滤波器对所述动物语音序列的功率谱滤波,得到动物语音序列的对数能量;
对所述动物语音序列的对数能量进行离散余弦变换,得到动物语音特征向量。
进一步地,当所述动物语音特征向量用于反映动物语音在频谱结构上的特征信息,所述从所述动物语音数据中提取动物语音特征向量包括:
对每帧动物语音序列进行时域分析以及频域分析,计算每帧动物语音序列的时域特征参数以及频域特征参数;
根据所述时域特征参数以及频域特征参数,得到动物语音特征向量。
进一步地,所述卷积神经网络为多层结构的网络模型,所述将所述动物语音特征向量输入至卷积神经网络进行训练,得到用于识别动物身份的动物声纹特征包括:
通过所述卷积神经网络模型的卷积层提取所述动物语音特征向量的局部声纹信息;
通过所述卷积神经网络模型的全连接层将提取到的局部声纹信息进行连接,得到多维度的局部声纹信息;
通过所述卷积神经网络模型的池化层对所述多维度的局部声纹信息进行降维处理,得到动物声纹特征。
进一步地,在所述通过所述卷积神经网络模型的卷积层提取所述动物语音特征向量的局部声纹信息之前,所述方法还包括:
对每次输入至所述卷积神经网络模型卷积层的动物语音特征向量进行拼帧处理。
进一步地,在所述将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征之后,所述方法还包括:
根据提取出的不同动物声纹特征,建立动物声纹特征库,所述不同动物声纹特征携带有唯一动物身份信息;
当接收到动物身份验证请求时,将待识别动物身份的动物声纹特征与所述动物声纹特征库中的动物声纹特征进行比对,确定动物身份信息。
根据本发明实施例的第二方面,提供一种动物声纹特征提取装置,所述装置包括:
获取单元,用于获取动物语音数据;
提取单元,用于从所述动物语音数据中提取动物语音特征向量;
训练单元,用于将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征。
进一步地,所述装置还包括:
预处理单元,用于在所述获取动物语音数据之后,对所述动物语音数据进行预处理,得到处理后的动物语音数据;
分帧单元,用于按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列;
所述提取单元,具体用于从所述多帧动物语音序列中提取出与所述多帧动物语音序列一一对应的多个动物语音特征向量。
进一步地,当所述动物语音特征向量用于反映动物语音在频谱结构随时间变化的特征信息,所述提取单元包括:
第一提取模块,用于对每帧动物语音序列进行傅立叶变换得到每帧动物语音序列的频谱,并对所述每帧动物语音序列的频谱取模平方得到动物语音序列的功率谱;
第二提取模块,用于通过预设滤波器对所述动物语音序列的功率谱滤波,得到动物语音序列的对数能量;
第三提取模块,用于对所述动物语音序列的对数能量进行离散余弦变换,得到动物语音特征向量。
进一步地,当所述动物语音特征向量用于反映动物语音在频谱结构上的特征信息,所述提取单元包括:
第四提取模块,用于对每帧动物语音序列进行时域分析以及频域分析,计算每帧动物语音序列的时域特征参数以及频域特征参数;
第五提取模块,用于根据所述时域特征参数以及频域特征参数,得到动物语音特征向量。
进一步地,所述训练单元包括:
第六提取模块,用于通过所述卷积神经网络模型的卷积层提取所述动物语音特征向量的局部声纹信息;
连接模块,用于通过所述卷积神经网络模型的全连接层将提取到的局部声纹信息进行连接,得到多维度的局部声纹信息;
降维模块,用于通过所述卷积神经网络模型的池化层对所述多维度的局部声纹信息进行降维处理,得到动物声纹特征。
进一步地,所述训练单元还包括:
拼帧模块,用于在所述通过所述卷积神经网络模型的卷积层提取所述动物语音特征向量的局部声纹信息之前,对每次输入至所述卷积神经网络模型卷积层的动物语音特征向量进行拼帧处理。
进一步地,所属装置还包括:
建立单元,用于在所述将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征之后,根据提取出的不同动物声纹特征,建立动物声纹特征库,所述不同动物声纹特征携带有唯一动物身份信息;
比对单元,用于当接收到动物身份验证请求时,将待识别动物身份的动物声纹特征与所述动物声纹特征库中的动物声纹特征进行比对,确定动物身份信息。
根据本发明实施例的第三方面,提供一种电子设备,包括上述第二方面所述的动物声纹特征提取装置。
根据本发明实施例的第四方面,提供一种电子设备,包括:存储器,用于存储可执行指令;以及处理器,用于与所述存储器通信以执行所述可执行指令从而完成上述第一方面所述的动物声纹特征提取方法的操作。
通过本发明,从动物语音数据中提取动物语音特征向量,由于动物语音特征向量具有计算简单,区分能力好等优点,通过将动物语音特征向量输入至卷积神经网络模型进行训练,进而提取动物声纹特征,与现有技术通过语谱图的方式来提取动物声纹特征的方法相比,本发明实施例采用更先进的声纹提取技术,通过卷积神经网络模型对动物语音特征向量进行反复训练,从而准确提取动物声纹特征,进而提高动物身份识别效果。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种动物声纹特征提取方法的流程图;
图2是根据本发明实施例的另一种动物声纹特征提取方法的流程图;
图3是根据本发明实施例的一种动物声纹特征提取装置的结构框图;
图4是根据本发明实施例的另一种动物声纹特征提取装置的结构框图;
图5是根据本发明实施例的动物声纹特征提取装置400的框图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
在本实施例中提供了一种动物声纹特征提取方法,图1是根据本发明实施例的一种动物声纹特征提取方法的流程图,如图1所示,该流程包括如下步骤:
步骤S101,获取动物语音数据;
其中,动物语音数据为动物发出声音的数据,相当于动物交流的独特的声音数据,例如,蜜蜂通过翅膀发出声音来传递信息,海豚能像人一样发出悦耳的音符,猪叫声音也可以传递很多信息,如判断猪只的健康情况,识别猪只的身份信息等。
对于本发明实施例,该动物语音数据为从动物身上采集到的音频数据,具体可以通过在动物身上安装采集设备来获取动物语音数据,也可以通过在动物生活场所内安装采集设备,本发明实施例不进行限定,为了保证获取到更准确的动物语音数据,通常在动物脖子上安装可佩带传感器来获取动物语音数据。
步骤S102,从所述动物语音数据中提取动物语音特征向量;
通常情况下,根据参数的稳定性可以将动物语音特征向量分为两大类,一类用于反映动物固有特性(如声道结构等),这类动物语音特征向量主要表现在语音的频谱结构上,包含反映声道共振的频谱包络特征信息和反映声带振动等声源特征的频谱细节构造特征信息,具有代表性的特征参数有基因和共振峰,这类特征不易被模仿,但容易受到健康状况影响;另一类用于反映动物声道运动特征,即发音方式、发音习惯等,主要表现在语音频谱结构随时间的变化上,具有代表性的特征参数有倒谱系数,包含了特征参数的动态特性,这类特征相对稳定且容易被模仿。
对于本发明实施例,动物语音特征向量包含有动物语音数据中的独特的语音信息,相当于后续动物声纹特征提取的准备阶段,通过从动物语音数据中提取动物语音特征向量,可以从动物语音数据中提取出对动物身份识别的有用信息,去掉无关的冗余信息。
步骤S103,将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征。
对于本发明实施例,这里的卷积神经网络模型为可以通过反复训练动物语音特征向量实现提取动物声纹特征的网络结构,该网络结构可以对动物语音特征向量进行训练,并给出正确的输入-输出关系。
具体卷积神经网络模型的结构可以通过卷积层、全连接层以及池化层结构实现,这里的卷积层相当于卷积神经网络的隐含层,可以为多层结构,用于提取更深层次的动物声纹特征;在卷积神经网络模型中,为了减小参数,减低计算,常常在连续卷积层中间隔插入池化层;这里的全连接层与卷积层相似,卷积层的神经元和上一层输出局部区域相连,当然为了减少输出特征向量过多,可以设置两个全连接层,在动物语音特征向量通过若干个卷积层训练后对训练输出的特征向量进行整合。
动物声纹信息是唯一能够识别动物的声音特征,是用电声学仪器显示的携带语言信息的声波频谱图形,虽然动物的发音器官生理构造总是相同的,但是动物在发声过程中使用的器官在尺寸和形态上差异很大,而不同的声道特征也决定了声纹的唯一性,且具有长期稳定的特征信号。
通过本发明,从动物语音数据中提取动物语音特征向量,由于动物语音特征向量具有计算简单,区分能力好等优点,通过将动物语音特征向量输入至卷积神经网络模型进行训练,进而提取动物声纹特征,与现有技术通过语谱图的方式来提取动物声纹特征的方法相比,本发明实施例采用更先进的声纹提取技术,通过卷积神经网络模型对动物语音特征向量进行反复训练,从而准确提取动物声纹特征,进而提高动物身份识别效果。
图2是根据本发明实施例的另一动物声纹特征提取方法的流程图,如图2所示,该方法包括以下步骤:
步骤S201,获取动物语音数据。
应说明的是,这里获取动物语音数据的具体方式与步骤S101中采用相同的实现方式,在此不进行赘述。
对于本发明实施例,考虑到选取动物的种类以及数量问题,如果记录动物语音数据时间过久,则每种动物或者每只动物需要花费大量的处理时间,通过设置预设时间段来控制语音数据采集的时间长度,方便后续对动物语音数据的处理。
步骤S202,对动物语音数据进行预处理,得到处理后的动物语音数据。
对于本发明实施例,预处理可以包括采样量化、预加重、取音框以及加窗等操作。采样量化的目的是将时间、幅值上都连续的动物语音序列转换为在时间上离散、幅值上仍然连续的离散模拟信号,并用规定的数值来表示动物语音序列的幅值。预加重的作用就是为了消除动物发生过程中声带和嘴唇造成的效应,来补偿动物语音序列收到发音系统所压抑的高频部分,并且能突出高频的共振峰。取音框的作用是将动物语音数据进行音框化,通常设置N个取样点集合作为一个观测单位,即一个音框。加窗作用是消除动物语音数据两端的不连续性,避免分析时受到前后相连音框的影响。
步骤S203,按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列。
对于本发明实施例,动物语音数据并非是稳定的音频信号,通过按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列,进而将每一帧动物语音序列看成稳定的音频信号,以便于后续对动物语音序列进行处理。
例如,对动物语音数据进行分帧,通常设置预设时间区间为200~400ms,当然这里不进行限定,具体根据实际情况确定。
步骤S204,从动物语音数据中提取动物语音特征向量。
其中,动物语音特征向量是能够反映动物个体信息的基本特征,这些基本特征必须能够准确、有效地区分不同的发音动物,且对于同一个体,这些基本特征应具有稳定性。
对于不同的动物语音特征向量具有不同的特征参数,而不同的特征参数具有不同的物理意义,例如,基因以及共振峰是表征动物固有特征参数,以全极点模型为基础的LPC可以较为准确地反映动物语音序列的频谱幅度,倒谱系数反映了动物声道的共振特性,将较小的峰值信息和更重要的声道形状信息相分离。
对于本发明实施例,不同的动物语音特征向量具有不同的提取方式,当动物语音特征向量用于反映动物语音在频谱结构随时间变化的特征信息,可以通过下述实现方式从动物语音数据中提取动物语音特征向量,首先对每帧动物语音序列进行傅立叶变换得到每帧动物语音序列的频谱,并对每帧动物语音序列的频谱取模平方得到动物语音序列的功率谱,然后通过预设滤波器对所述动物语音序列的功率谱滤波,得到动物语音序列的对数能量,最后对所述动物语音序列的对数能量进行离散余弦变换,得到动物语音特征向量。当动物语音特征向量用于反映动物语音在频谱结构上的特征信息,可以通过下述实现方式从动物语音数据中提取动物语音特征向量,首先对每帧动物语音序列进行时域分析以及频域分析,然后计算每帧动物语音序列的时域特征参数以及频域特征参数,最后根据时域特征参数以及频域特征参数,得到动物语音特征向量。
通常情况下,MFCC特征是目前使用最为广泛的语音特征之一,具有计算简单、区分能力好等突出优点,可以在一定程度上模拟动物耳朵对语音的处理特点,识别效果较高,所以本发明实施例可以选取梅尔频率倒谱系数(MFCC特征)作为从动物语音数据中提取的动物语音特征向量,由于MFCC特征同样用于反映动物语音在频谱结构随时间变化的特征信息,具体MFCC特征的提取方式如上述步骤所述,在此不进行赘述。
步骤S205,将动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征。
对于本发明实施例,卷积神经网络模型为多层结构的网络模型,通过卷积神经网络模型的卷积层可以提取动物语音特征向量的局部声纹信息,该层相当于神经网络模型的隐含层,这里的局部声纹信息用于反映动物声纹信息的局部特征,可以设置多个卷积层,将提取到的局部声纹信息再次输入卷积层进行局部声纹信息提取,进而提取到更深层次的局部声纹信息;通过卷积神经网络模型的全连接层将提取到的局部声纹信息进行连接,得到多维度的局部声纹信息,为了减少输出大小和降低拟合过程,在得到多维度的局部声纹信息后,通过卷积神经网络模型的池化层对多维度的局部声纹信息进行降维处理,得到动物声纹特征。
需要说明的是,考虑到前后两帧语音特征向量之间的依赖性,在将动物语音特征向量输入至卷积神经网络模型的卷积层进行局部声纹信息提取的过程中,通过对每次输入至卷积神经网络模型卷积层的动物语音特征向量进行拼帧处理,以增加前后帧之间耦合的特征关系,例如,在第一层输入至卷积层的时候对前5帧动物语音特征向量进行拼帧,第二次输入至卷积层的时候对前9帧动物语音特征向量进行拼帧。
例如,设置神经网络模型的层数为15层,前11层作为卷积层,第1层为卷积层,将拼接前后5帧的动物语音向量特征作为第1层神经网络模型的输入参数,如果每帧83维的动物语音特征向量,共得到415维的动物语音特征向量作为输入参数,对动物语音特征向量进行局部声纹信息提取,输出提取到的局部声纹信息,第2层为全连接层,将提取到的局部声纹信息进行连接,第3层为卷积层,同理将第2层神经网络模型输出的局部声纹信息作为第3层神经网络模型的输入参数,对动物语音特征向量进行局部声纹信息提取,输出提取到的局部声纹信息,直至第11层卷积层输出局部声纹信息,第12层为池化层,将前11层训练输出的局部声纹信息进行整合,计算均值和方差,第13-15层为全连接层,对整合后的声纹特征进行降维,输出一维的动物声纹特征,提取出动物声纹特征。
进一步地,在对动物身份进行识别之前,为了保证动物声纹特征的准确度,可以通过对动物声纹特征进行提纯,得到最能够表现动物身份的声纹特征。
例如,通过LDA矩阵对所有1024为的动物声纹特征向量,输出保留可以最大程度表示动物声纹特征的特征向量,提高动物声纹特征的精度。
步骤S206,根据提取出的不同动物声纹特征,建立动物声纹特征库,不同动物声纹特征携带有唯一动物身份信息。
由于动物声纹特征相当于动物特有的标识信息,不同动物声纹特征携带有动物身份信息,为了方便对动物身份进行识别,根据提取出的不同动物声纹特征作为动物声纹样本,建立动物声纹特征库,该声纹特征库相当于存储不同动物声纹特征的数据库,并且每个动物声纹信息携带有动物标识信息,如数字或字母编号等形式,这里不进行限定。
需要说明的是,为了方便后续动物身份识别,可以预先对声纹特征库进行分类整理,如将不同动物物种,不同区域的动物或者不同年龄的动物进行划分,在对动物身份识别之前对无效的动物身份样本进行筛除,节省动物身份验证时间。
步骤S207,当接收到动物身份验证请求时,将待识别动物身份的动物声纹特征与动物声纹特征库中的动物声纹特征进行比对,确定动物身份信息。
由于动物声纹特征库中存储有不同动物声纹样本,在接收到动物身份验证请求时,通过上述步骤S201至步骤S205提取待识别动物身份的动物声纹特征,并将待识别动物身份的动物声纹特征与动物声纹特征库中的动物声纹特征逐一进行比对,从而确定动物身份信息。
通过本发明实施例,从动物语音数据中提取动物语音特征向量,由于动物语音特征向量具有计算简单,区分能力好等优点,通过将动物语音特征向量输入至卷积神经网络模型进行训练,进而提取动物声纹特征,与现有技术通过语谱图的方式来提取动物声纹特征的方法相比,本发明实施例采用更先进的声纹提取技术,通过卷积神经网络模型对动物语音特征向量进行反复训练,从而准确提取动物声纹特征,进而提高动物身份识别效果。
图3是根据本发明实施例的一种动物声纹特征提取装置的结构框图。参照图3,该装置包括获取单元31,提取单元32和训练单元33。
获取单元31,可以用于获取动物语音数据;
提取单元32,可以用于从动物语音数据中提取动物语音特征向量;
训练单元33,可以用于将动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征。
通过本发明,从动物语音数据中提取动物语音特征向量,由于动物语音特征向量具有计算简单,区分能力好等优点,通过将动物语音特征向量输入至卷积神经网络模型进行训练,进而提取动物声纹特征,与现有技术通过语谱图的方式来提取动物声纹特征的方法相比,本发明实施例采用更先进的声纹提取技术,通过卷积神经网络模型对动物语音特征向量进行反复训练,从而准确提取动物声纹特征,进而提高动物身份识别效果。
作为图3中所示动物声纹特征提取装置的进一步说明,图4是根据本发明实施例另一种动物声纹特征提取装置的结构示意图,如图4所示,该装置还包括:
预处理单元34,可以用于在获取动物语音数据之后,对动物语音数据进行预处理,得到处理后的动物语音数据;
分帧单元35,可以用于按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列;
建立单元36,可以用于在将动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征之后,根据提取出的不同动物声纹特征,建立动物声纹特征库,该不同动物声纹特征携带有唯一动物身份信息;
比对单元37,可以用于当接收到动物身份验证请求时,将待识别动物身份的动物声纹特征与动物声纹特征库中的动物声纹特征进行比对,确定动物身份信息。
进一步地,当动物语音特征向量用于反映动物语音在频谱结构随时间变化的特征信息,提取单元32包括:
第一提取模块321,可以用于对每帧动物语音序列进行傅立叶变换得到每帧动物语音序列的频谱,并对每帧动物语音序列的频谱取模平方得到动物语音序列的功率谱;
第二提取模块322,可以用于通过预设滤波器对动物语音序列的功率谱滤波,得到动物语音序列的对数能量;
第三提取模块323,可以用于对动物语音序列的对数能量进行离散余弦变换,得到动物语音特征向量。
进一步地,当动物语音特征向量用于反映动物语音在频谱结构上的特征信息,提取单元32包括:
第四提取模块324,可以用于对每帧动物语音序列进行时域分析以及频域分析,计算每帧动物语音序列的时域特征参数以及频域特征参数;
第五提取模块325,可以用于根据时域特征参数以及频域特征参数,得到动物语音特征向量。
进一步地,训练单元33包括:
第六提取模块331,可以用于通过卷积神经网络模型的卷积层提取动物语音特征向量的局部声纹信息;
连接模块332,可以用于通过卷积神经网络模型的全连接层将提取到的局部声纹信息进行连接,得到多维度的局部声纹信息;
降维模块333,可以用于通过卷积神经网络模型的池化层对多维度的局部声纹信息进行降维处理,得到动物声纹特征。
进一步地,训练单元33还包括:
拼帧模块334,可以用于在通过卷积神经网络模型的卷积层提取动物语音特征向量的局部声纹信息之前,对每次输入至卷积神经网络模型卷积层的动物语音特征向量进行拼帧处理。
图5是根据本发明实施例的动物声纹特征提取装置400的框图。例如,装置400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,装置400可以包括以下一个或多个组件:处理组件402,存储器404,电源组件406,多媒体组件408,音频组件410,I/O(Input/Output,输入/输出)的接口412,传感器组件414,以及通信组件416。
处理组件402通常控制装置400的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件402可以包括一个或多个处理器420来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件402可以包括一个或多个模块,便于处理组件402和其他组件之间的交互。例如,处理组件402可以包括多媒体模块,以方便多媒体组件408和处理组件402之间的交互。
存储器404被配置为存储各种类型的数据以支持在装置400的操作。这些数据的示例包括用于在装置400上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器404可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如SRAM(Static Random Access Memory,静态随机存取存储器),EEPROM(Electrically-Erasable Programmable Read-Only Memory,电可擦除可编程只读存储器),EPROM(Erasable Programmable Read Only Memory,可擦除可编程只读存储器),PROM(Programmable Read-Only Memory,可编程只读存储器),ROM(Read-Only Memory,只读存储器),磁存储器,快闪存储器,磁盘或光盘。
电源组件406为装置400的各种组件提供电力。电源组件406可以包括电源管理系统,一个或多个电源,及其他与为装置400生成、管理和分配电力相关联的组件。
多媒体组件408包括在所述装置400和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括LCD(Liquid Crystal Display,液晶显示器)和TP(TouchPanel,触摸面板)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件408包括一个前置摄像头和/或后置摄像头。当装置400处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件410被配置为输出和/或输入音频信号。例如,音频组件410包括一个MIC(Microphone,麦克风),当装置400处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器404或经由通信组件416发送。在一些实施例中,音频组件410还包括一个扬声器,用于输出音频信号。
I/O接口412为处理组件402和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件414包括一个或多个传感器,用于为装置400提供各个方面的状态评估。例如,传感器组件414可以检测到设备400的打开/关闭状态,组件的相对定位,例如组件为装置400的显示器和小键盘,传感器组件414还可以检测装置400或装置400一个组件的位置改变,用户与装置400接触的存在或不存在,装置400方位或加速/减速和装置400的温度变化。传感器组件414可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件414还可以包括光传感器,如CMOS(Complementary Metal OxideSemiconductor,互补金属氧化物)或CCD(Charge-coupled Device,电荷耦合元件)图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件414还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件416被配置为便于装置400和其他设备之间有线或无线方式的通信。装置400可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件416经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件416还包括NFC(Near Field Communication,近场通信)模块,以促进短程通信。例如,在NFC模块可基于RFID(Radio FrequencyIdentification,射频识别)技术,IrDA(Infra-red Data Association,红外数据协会)技术,UWB(Ultra Wideband,超宽带)技术,BT(Bluetooth,蓝牙)技术和其他技术来实现。
在示例性实施例中,装置400可以被一个或多个ASIC(Application SpecificIntegrated Circuit,应用专用集成电路)、DSP(Digital signal Processor,数字信号处理器)、DSPD(Digital signal Processor Device,数字信号处理设备)、PLD(ProgrammableLogic Device,可编程逻辑器件)、FPGA)(Field Programmable Gate Array,现场可编程门阵列)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述动物声纹特征提取方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由装置400的处理器420执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、RAM(Random Access Memory,随机存取存储器)、CD-ROM(Compact Disc Read-Only Memory,光盘只读存储器)、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由动物声纹特征提取装置的处理器执行时,使得动物声纹特征提取装置能够执行上述动物声纹特征提取方法。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (8)
1.一种动物声纹特征提取方法,其特征在于,所述方法包括:
获取动物语音数据;
从所述动物语音数据中提取动物语音特征向量;
将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征;
在对动物身份进行识别之前,采用LDA矩阵对所述动物声纹特征进行提纯,得到表征动物身份的声纹特征;
在所述获取动物语音数据之后,所述方法还包括:
对所述动物语音数据进行预处理,得到处理后的动物语音数据;
按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列;
所述从所述动物语音数据中提取动物语音特征向量包括:
从所述多帧动物语音序列中提取出与所述多帧动物语音序列一一对应的多个动物语音特征向量;
当所述动物语音特征向量用于反映动物语音在频谱结构上的特征信息,所述从所述动物语音数据中提取动物语音特征向量包括:
对每帧动物语音序列进行时域分析以及频域分析,计算每帧动物语音序列的时域特征参数以及频域特征参数;
根据所述时域特征参数以及频域特征参数,得到动物语音特征向量。
2.根据权利要求1所述的方法,其特征在于,当所述动物语音特征向量用于反映动物语音在频谱结构随时间变化的特征信息,所述从所述动物语音数据中提取动物语音特征向量包括:
对每帧动物语音序列进行傅立叶变换得到每帧动物语音序列的频谱,并对所述每帧动物语音序列的频谱取模平方得到动物语音序列的功率谱;
通过预设滤波器对所述动物语音序列的功率谱滤波,得到动物语音序列的对数能量;
对所述动物语音序列的对数能量进行离散余弦变换,得到动物语音特征向量。
3.根据权利要求1所述的方法,其特征在于,所述卷积神经网络为多层结构的网络模型,所述将所述动物语音特征向量输入至卷积神经网络进行训练,得到用于识别动物身份的动物声纹特征包括:
通过所述卷积神经网络模型的卷积层提取所述动物语音特征向量的局部声纹信息;
通过所述卷积神经网络模型的全连接层将提取到的局部声纹信息进行连接,得到多维度的局部声纹信息;
通过所述卷积神经网络模型的池化层对所述多维度的局部声纹信息进行降维处理,得到动物声纹特征。
4.根据权利要求3所述的方法,其特征在于,在所述通过所述卷积神经网络模型的卷积层提取所述动物语音特征向量的局部声纹信息之前,所述方法还包括:
对每次输入至所述卷积神经网络模型卷积层的动物语音特征向量进行拼帧处理。
5.根据权利要求1-4中任一项所述的方法,其特征在于,在所述将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征之后,所述方法还包括:
根据提取出的不同动物声纹特征,建立动物声纹特征库,所述不同动物声纹特征携带有唯一动物身份信息;
当接收到动物身份验证请求时,将待识别动物身份的动物声纹特征与所述动物声纹特征库中的动物声纹特征进行比对,确定动物身份信息。
6.一种动物声纹特征提取装置,其特征在于,所述装置包括:
获取单元,用于获取动物语音数据;
提取单元,用于从所述动物语音数据中提取动物语音特征向量;
训练单元,用于将所述动物语音特征向量输入至卷积神经网络模型进行训练,得到用于识别动物身份的动物声纹特征;
所述装置,还用于在对动物身份进行识别之前,采用LDA矩阵对所述动物声纹特征进行提纯,得到表征动物身份的声纹特征;
预处理单元,用于在所述获取动物语音数据之后,对所述动物语音数据进行预处理,得到处理后的动物语音数据;
分帧单元,用于按照预设时间区间对处理后的动物语音数据进行分帧操作,得到多帧动物语音序列;
所述提取单元,具体用于从所述多帧动物语音序列中提取出与所述多帧动物语音序列一一对应的多个动物语音特征向量;
当所述动物语音特征向量用于反映动物语音在频谱结构上的特征信息,所述提取单元包括:
第四提取模块,用于对每帧动物语音序列进行时域分析以及频域分析,计算每帧动物语音序列的时域特征参数以及频域特征参数;
第五提取模块,用于根据所述时域特征参数以及频域特征参数,得到动物语音特征向量。
7.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
8.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810729268.7A CN108899037B (zh) | 2018-07-05 | 2018-07-05 | 动物声纹特征提取方法、装置及电子设备 |
PCT/CN2018/111658 WO2020006935A1 (zh) | 2018-07-05 | 2018-10-24 | 动物声纹特征提取方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810729268.7A CN108899037B (zh) | 2018-07-05 | 2018-07-05 | 动物声纹特征提取方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108899037A CN108899037A (zh) | 2018-11-27 |
CN108899037B true CN108899037B (zh) | 2024-01-26 |
Family
ID=64347705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810729268.7A Active CN108899037B (zh) | 2018-07-05 | 2018-07-05 | 动物声纹特征提取方法、装置及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108899037B (zh) |
WO (1) | WO2020006935A1 (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887526B (zh) * | 2019-01-04 | 2023-10-17 | 平安科技(深圳)有限公司 | 对母羊的生理状态检测方法、装置、设备及存储介质 |
CN110120224B (zh) * | 2019-05-10 | 2023-01-20 | 平安科技(深圳)有限公司 | 鸟声识别模型的构建方法、装置、计算机设备及存储介质 |
CN110189757A (zh) * | 2019-06-27 | 2019-08-30 | 电子科技大学 | 一种大熊猫个体识别方法、设备及计算机可读存储介质 |
CN110459225B (zh) * | 2019-08-14 | 2022-03-22 | 南京邮电大学 | 一种基于cnn融合特征的说话人辨认系统 |
CN110517698B (zh) * | 2019-09-05 | 2022-02-01 | 科大讯飞股份有限公司 | 一种声纹模型的确定方法、装置、设备及存储介质 |
CN110570871A (zh) * | 2019-09-20 | 2019-12-13 | 平安科技(深圳)有限公司 | 一种基于TristouNet的声纹识别方法、装置及设备 |
CN110704646A (zh) * | 2019-10-16 | 2020-01-17 | 支付宝(杭州)信息技术有限公司 | 一种豢养物档案建立方法及装置 |
CN111524525B (zh) * | 2020-04-28 | 2023-06-16 | 平安科技(深圳)有限公司 | 原始语音的声纹识别方法、装置、设备及存储介质 |
CN111833884A (zh) * | 2020-05-27 | 2020-10-27 | 北京三快在线科技有限公司 | 一种声纹特征提取方法、装置、电子设备及存储介质 |
CN111816166A (zh) * | 2020-07-17 | 2020-10-23 | 字节跳动有限公司 | 声音识别方法、装置以及存储指令的计算机可读存储介质 |
CN114333767A (zh) * | 2020-09-29 | 2022-04-12 | 华为技术有限公司 | 发声者语音抽取方法、装置、存储介质及电子设备 |
CN112259106B (zh) * | 2020-10-20 | 2024-06-11 | 网易(杭州)网络有限公司 | 声纹识别方法、装置、存储介质及计算机设备 |
CN112420023B (zh) * | 2020-11-26 | 2022-03-25 | 杭州音度人工智能有限公司 | 一种音乐侵权检测方法 |
CN112786059A (zh) * | 2021-03-11 | 2021-05-11 | 合肥市清大创新研究院有限公司 | 一种基于人工智能的声纹特征提取方法及装置 |
CN113035203A (zh) * | 2021-03-26 | 2021-06-25 | 合肥美菱物联科技有限公司 | 一种动态变换语音应答风格的控制方法 |
CN112750441B (zh) * | 2021-04-02 | 2021-07-23 | 北京远鉴信息技术有限公司 | 一种声纹的识别方法、装置、电子设备及存储介质 |
CN113112183B (zh) * | 2021-05-06 | 2024-03-19 | 国家市场监督管理总局信息中心 | 一种出入境危险货物风险评估的方法、系统和可读存储介质 |
CN113793615B (zh) * | 2021-09-15 | 2024-02-27 | 北京百度网讯科技有限公司 | 说话人识别方法、模型训练方法、装置、设备及存储介质 |
CN114049899A (zh) * | 2021-11-23 | 2022-02-15 | 中国林业科学研究院资源信息研究所 | 一种声音识别方法、装置、电子设备及存储介质 |
CN116612769B (zh) * | 2023-07-21 | 2023-09-12 | 志成信科(北京)科技有限公司 | 一种野生动物声音识别方法和装置 |
CN118173107B (zh) * | 2024-05-15 | 2024-07-16 | 百鸟数据科技(北京)有限责任公司 | 基于多模态深度特征层级融合的鸟类声音质量分析方法 |
CN118173102B (zh) * | 2024-05-15 | 2024-07-16 | 百鸟数据科技(北京)有限责任公司 | 一种复杂场景下鸟类声纹识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800316A (zh) * | 2012-08-30 | 2012-11-28 | 重庆大学 | 基于神经网络的声纹识别系统的最优码本设计方法 |
CN104008751A (zh) * | 2014-06-18 | 2014-08-27 | 周婷婷 | 一种基于bp神经网络的说话人识别方法 |
CN104835498A (zh) * | 2015-05-25 | 2015-08-12 | 重庆大学 | 基于多类型组合特征参数的声纹识别方法 |
CN106340309A (zh) * | 2016-08-23 | 2017-01-18 | 南京大空翼信息技术有限公司 | 一种基于深度学习的狗叫情感识别方法及装置 |
CN106683680A (zh) * | 2017-03-10 | 2017-05-17 | 百度在线网络技术(北京)有限公司 | 说话人识别方法及装置、计算机设备及计算机可读介质 |
CN106952649A (zh) * | 2017-05-14 | 2017-07-14 | 北京工业大学 | 基于卷积神经网络和频谱图的说话人识别方法 |
CN107393526A (zh) * | 2017-07-19 | 2017-11-24 | 腾讯科技(深圳)有限公司 | 语音静音检测方法、装置、计算机设备和存储介质 |
CN107464568A (zh) * | 2017-09-25 | 2017-12-12 | 四川长虹电器股份有限公司 | 基于三维卷积神经网络文本无关的说话人识别方法及系统 |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10366302B2 (en) * | 2016-10-10 | 2019-07-30 | Gyrfalcon Technology Inc. | Hierarchical category classification scheme using multiple sets of fully-connected networks with a CNN based integrated circuit as feature extractor |
CN106847293A (zh) * | 2017-01-19 | 2017-06-13 | 内蒙古农业大学 | 设施养殖羊应激行为的声信号监测方法 |
CN108052964A (zh) * | 2017-12-05 | 2018-05-18 | 翔创科技(北京)有限公司 | 牲畜状态检测方法、计算机程序、存储介质及电子设备 |
CN108198562A (zh) * | 2018-02-05 | 2018-06-22 | 中国农业大学 | 一种用于实时定位辨识动物舍内异常声音的方法及系统 |
-
2018
- 2018-07-05 CN CN201810729268.7A patent/CN108899037B/zh active Active
- 2018-10-24 WO PCT/CN2018/111658 patent/WO2020006935A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800316A (zh) * | 2012-08-30 | 2012-11-28 | 重庆大学 | 基于神经网络的声纹识别系统的最优码本设计方法 |
CN104008751A (zh) * | 2014-06-18 | 2014-08-27 | 周婷婷 | 一种基于bp神经网络的说话人识别方法 |
CN104835498A (zh) * | 2015-05-25 | 2015-08-12 | 重庆大学 | 基于多类型组合特征参数的声纹识别方法 |
CN106340309A (zh) * | 2016-08-23 | 2017-01-18 | 南京大空翼信息技术有限公司 | 一种基于深度学习的狗叫情感识别方法及装置 |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN106683680A (zh) * | 2017-03-10 | 2017-05-17 | 百度在线网络技术(北京)有限公司 | 说话人识别方法及装置、计算机设备及计算机可读介质 |
CN106952649A (zh) * | 2017-05-14 | 2017-07-14 | 北京工业大学 | 基于卷积神经网络和频谱图的说话人识别方法 |
CN107393526A (zh) * | 2017-07-19 | 2017-11-24 | 腾讯科技(深圳)有限公司 | 语音静音检测方法、装置、计算机设备和存储介质 |
CN107464568A (zh) * | 2017-09-25 | 2017-12-12 | 四川长虹电器股份有限公司 | 基于三维卷积神经网络文本无关的说话人识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2020006935A1 (zh) | 2020-01-09 |
CN108899037A (zh) | 2018-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108899037B (zh) | 动物声纹特征提取方法、装置及电子设备 | |
CN110310623B (zh) | 样本生成方法、模型训练方法、装置、介质及电子设备 | |
CN107799126B (zh) | 基于有监督机器学习的语音端点检测方法及装置 | |
CN110808063A (zh) | 一种语音处理方法、装置和用于处理语音的装置 | |
CN108762494B (zh) | 显示信息的方法、装置及存储介质 | |
CN111583944A (zh) | 变声方法及装置 | |
US20180054688A1 (en) | Personal Audio Lifestyle Analytics and Behavior Modification Feedback | |
CN111868823B (zh) | 一种声源分离方法、装置及设备 | |
CN111028845A (zh) | 多音频识别方法、装置、设备及可读存储介质 | |
KR20180081922A (ko) | 전자 장치의 입력 음성에 대한 응답 방법 및 그 전자 장치 | |
CN107945806B (zh) | 基于声音特征的用户识别方法及装置 | |
CN113129867B (zh) | 语音识别模型的训练方法、语音识别方法、装置和设备 | |
CN113223542B (zh) | 音频的转换方法、装置、存储介质及电子设备 | |
CN111629156A (zh) | 图像特效的触发方法、装置和硬件装置 | |
US20230386470A1 (en) | Speech instruction recognition method, electronic device, and non-transient computer readable storage medium | |
CN111149172B (zh) | 情绪管理方法、设备及计算机可读存储介质 | |
WO2018214663A1 (zh) | 一种基于语音的数据处理方法、装置和电子设备 | |
CN112820300B (zh) | 音频处理方法及装置、终端、存储介质 | |
CN113113044B (zh) | 音频处理方法及装置、终端及存储介质 | |
CN113764099A (zh) | 基于人工智能的心理状态分析方法、装置、设备及介质 | |
CN109102813B (zh) | 声纹识别方法、装置、电子设备和存储介质 | |
CN112382266A (zh) | 一种语音合成方法、装置、电子设备及存储介质 | |
KR20220005232A (ko) | 음성 인식 기반의 원격 진료 서비스 제공 방법, 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 | |
Nirjon et al. | sMFCC: exploiting sparseness in speech for fast acoustic feature extraction on mobile devices--a feasibility study | |
CN109064720B (zh) | 位置提示方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |