CN105304078B - 目标声数据训练装置和目标声数据训练方法 - Google Patents
目标声数据训练装置和目标声数据训练方法 Download PDFInfo
- Publication number
- CN105304078B CN105304078B CN201510712714.XA CN201510712714A CN105304078B CN 105304078 B CN105304078 B CN 105304078B CN 201510712714 A CN201510712714 A CN 201510712714A CN 105304078 B CN105304078 B CN 105304078B
- Authority
- CN
- China
- Prior art keywords
- eigenvalue
- sample
- training sample
- training
- extraction unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种目标声数据训练装置和目标声数据训练方法,所述目标声数据训练装置包括:样本获取模块,用于获取训练样本;第一特征值提取单元,用于根据所述训练样本利用第一方式获得第一特征值;第二特征值提取单元,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;特征值组合单元,用于组合所述第一特征值和所述第二特征值,获得组合特征值;以及分类器单元,根据所述组合特征值训练获得分类器,本发明中的装置和方法针对同一声数据训练样本获得不同的特征值,基于这些特征值对分类器进行训练,可以增加分类器的稳定性,提高分类器的识别正确率。
Description
技术领域
本发明涉及一种数据训练装置和数据训练方法,特别是一种目标声数据训练装置和目标声数据训练方法,属于声信号处理领域。
背景技术
在声学领域,通过拾取目标的声信号进行分析处理,可以对目标进行识别分类。声探测系统的一个关键功能,即是通过对原有已知目标的训练学习,来学习未知新目标,该能力可以丰富系统目标声特性数据库,提高系统性能。现有探测系统采用了一种目标声数据训练识别的软件技术来实现该功能,通过对现有已知的若干类型的声源样本数据进行样本训练来学习训练出特有的识别分类器,并使用训练好的识别分类器对各种已知未知样本进行初步分类,其中,还可将未知样本也纳入训练学习的正负样本库重新训练学习,以完善提高识别分类器的分类准确度。当训练结束后会得到相应类型的识别参数,这些参数形成了声系数神经网络数据库,可用于某探测系统的目标识别功能中。但是现有技术的分类器训练中采用的方法单一,训练获得的分类器不稳定,识别率低。
发明内容
本发明鉴于现有技术的上述缺点提出,用以解决现有技术中分类器训练中存在的一个或更多个问题,至少提供一种有益的选择。
本发明的技术解决方案是:一种目标声数据训练装置,所述目标声数据训练装置包括:
样本获取模块,用于获取训练样本;
第一特征值提取单元,用于根据所述训练样本利用第一方式获得第一特征值;
第二特征值提取单元,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;
特征值组合单元,用于组合所述第一特征值和所述第二特征值,获得组合特征值;以及
分类器单元,根据所述组合特征值训练获得分类器。
根据优选的实施方式,所述目标声数据训练装置还包括第三特征值提取单元,所述第三特征值提取单元用于根据所述训练样本利用与所述第一方式和所述第二方式不同的第三方式获得第三特征值,所述特征值组合单元组合所述第一特征值、所述第二特征值和所述第三特征值获得所述组合特征值。
根据优选的实施方式,所述目标声数据训练装置还包括样本繁殖单元,所述样本繁殖单元用于对所述样本获取单元所获取的训练样本中数量过少的正样本或负样本进行繁殖。
根据优选的实施方式,所述第一特征值提取单元对于正训练样本利用高斯混合模型获得所述第一特征值,对于负训练样本利用通用背景模型获得所述第一特征值。
根据优选的实施方式,所述第二特征值提取单元包括:
周期图特征提取单元,用于提取所述训练样本的周期图特征;以及
有效特征值提取单元,用于根据所述周期图特征获得有效特征值,作为所述第二特征值。
根据优选的实施方式,所述第二特征值提取单元包括:
AR谱特征提取单元,用于提取所述训练样本的AR谱特征;以及
有效特征值提取单元,用于根据所述AR谱特征获得有效特征值,作为所述第二特征值。
根据优选的实施方式,当第二特征值提取单元包括AR谱特征提取单元和有效特征值提取单元时,所述第三特征值提取单元包括:
周期图特征提取单元,用于提取所述训练样本的周期图特征;以及
第二有效特征值提取单元,用于根据所述周期图特征获得有效特征值,作为所述第三特征值。
根据优选的实施方式,所述有效特征值提取单元和所述第二有效特征值提取单元均采用PCA方法进行有效特征提取。
根据另一实施方式,一种目标声数据训练装置,所述目标声数据训练装置包括:
样本获取单元,用于获取训练样本;
第一特征值提取单元,用于根据所述训练样本利用第一方式获得第一特征值;
第二特征值提取单元,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;
分类系数获取单元,根据所述第一特征值获取第一神经网络分类系数,并根据所述第二特征值获取第二神经网络分类系数;
组合系数获取单元,用于组合所述第一神经网络分类系数和所述第二神经网络分类系数,获得组合分类系数。
分类器单元,用于根据所述组合分类系数训练获得分类器。
根据又一实施方式,一种目标声数据训练方法,包括以下步骤:
样本获取步骤,用于获取训练样本;
第一特征向量提取步骤,用于根据所述训练样本利用第一方式获得第一特征值;
第二特征值提取步骤,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;
特征值组合步骤,用于组合所述第一特征值和所述第二特征值,获得组合特征值;以及
分类器训练步骤,用于根据所述组合特征值训练获得分类器。
本发明利用不同的方式针对同一声数据训练样本获得不同的特征值,基于这些特征值对分类器进行训练,可以增加分类器的稳定性,提高分类器的识别正确率。
附图说明
图1示出了依据本发明一种实施方式的目标声数据训练装置的示意图;
图2示出了依据本发明的另一种实施方式的目标声数据训练装置;
图3示出了依据本发明的再一种实施方式的目标声数据训练装置;
图4示出了依据本发明的又一种实施方式的目标声数据训练装置;
图5示出了依据本发明的一种实施方式的分类器的示意图;
图6示出了在本发明第一种实施方式对应的目标声数据训练装置基础上构建的目标声数据识别系统;
图7示出了依据本发明第一种实施方式的目标声数据训练方法;
图8示出了依据本发明的又一种实施方式的目标声数据训练方法。
具体实施方式
下面结合附图对本发明的具体实施方式进行进一步的详细描述。以下仅为对本发明实质内容的详细说明,不涉及对本申请及使用的限制,此外,任何前述背景技术、简述或以下的详细描述中的理论、构想均不构成对本发明范围的限制。以下具体实施方式本质上仅是示例性的,并不意图限制本申请以及用途。此外,并不意图受前述背景技术或者发明内容或者以下具体实施方式中所列的任何理论的限制。
如图1所示,根据本发明的一种实施方式,目标声数据训练装置包括训练样本获取单元101,用于获取训练样本;第一特征值提取单元102,用于根据所述训练样本利用第一方式获得第一特征值;第二特征值提取单元103,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;特征值组合单元104,用于组合所述第一特征值和所述第二特征值,获得组合特征值;以及分类器单元105,根据所述组合特征值训练获得分类器。
训练样本获取单元101可以通过显示器、鼠标和键盘来获得训练样本,也可以通过存储设备、声音播放设备、网络接口等各种方式来获得训练样本,形成训练样本库。训练样本包括正训练样本和负训练样本。正训练样本为待训练类型的样本数据,负训练样本为非待训练类型的样本数据。例如对于直升机声数据来说,如果作为训练样本的声数据是直升机发出的,则其为正训练样本(正样本),反之,为负训练样本(负样本)。
第一特征值提取单元102采用第一方式获得训练样本的特征值。根据本发明的一种实施方式,其采用高斯混合模型对正样本进行特征提取,获得第一特征值。而对负样本,则采用通用背景模型进行特征提取,获得第一特征值。这通常适用于训练样本为高速动态变化(轨迹、速度、加速度等运动状态属性变化较快)的声信号的情况。即目标声数据高速动态变化的情况,例如对于战斗机等的声数据。
根据本发明的一种实施方式,第二特征值提取单元103采用与第一方式不同的第二方式获得训练样本的特征值。
根据本发明的一种实施方式,第二特征值提取单元103包括均未示出的周期图特征提取单元和有效特征值提取单元。周期图特征提取单元用于提取所述训练样本的周期图特征;以及有效特征值提取单元,用于根据所述周期图特征获得有效特征值,作为所述第二特征值。
根据本发明的一种实施方式,第二特征值提取单元103包括均未示出的AR谱特征提取单元和有效特征值提取单元。AR谱特征提取单元用于提取所述训练样本的AR谱特征;有效特征值提取单元用于根据所述AR谱特征获得有效特征值,作为所述第二特征值。
下面对周期图特征提取单元和有效特征值提取单元以及AR谱特征提取单元进行简要的说明。
周期图特征提取单元采用周期图法进行原始特征提取。周期图法是一种灵活简单的非参数化方法,通过修正周期图法估计信号的功率谱,其定义为:
式中,N为样本序列的长度,x(n)表示样本数据,c(n)是窗函数,
式中C(ω)是窗函数c(n)的傅里叶变换
由于周期图方法估计的功率谱为有偏估计,为了减少偏差,在实现时,窗函数c(n)采用的是Hanning窗,C(ω)是窗函数c(n)的傅里叶变换,并且功率谱通过多帧平滑。这里功率谱即是一种特征值。上述公式只是示例性的,本领域的技术人员可以想到各种进行周期图特征提取的方法。
根据本发明的一种实施方式,有效特征值提取单元可以采用主成分分析方法(即Principal Comonents Analysis,简称PCA方法)对提取后的特征进行处理,从而获得最终用于分类识别的特征。PCA的主要作用是:1)降维,原始特征的维数可能比较大,将其映射到低维空间有利于分类器设计;2)消除噪声;3)提取对分类最有效的特征。PCA的基础是K-L(Karhunen-Loève)变换。
当然,目前常用的其他声数据提取与处理方法也可适用于本发明。
根据本发明的一种实施方式,AR谱特征提取单元采用AR谱估计来获得原始特征值。AR谱估计是一种参数化谱估计方法,它的主要步骤是利用AR模型对样本序列进行建模,然后通过谱估计子计算功率谱密度。本发明的一种实施方式选用的是Yule-Walker方程来进行AR参数的估计。一阶AR模型的Yule-Walker矩阵方程为:
从这个矩阵方程可解a11与分别为:
a11=-Rx(1)/Rx(0)
再从二阶AR模型的矩阵方程:
解得a22,a21,σ2分别为
a21=a11+a22a11
以此类推得递推公式:
aki=ak-1,i+akkak-1,k-i
本领域的技术人员可以根据以上的公式和说明获得特征值,也可以采用其他的已知的方法获得特征值。
特征值组合单元104对第一特征值和第二特征值进行组合,从而获得组合特征值。分类器模块105根据该组合特征获得神经网络分类系数,从而训练获得分类器,或各子分类器。
图2示出了依据本发明的另一种实施方式的目标声数据训练装置。如图2所示,与图1所示的实施方式的不同仅仅在于其增加了样本繁殖单元106,所述样本繁殖单元用于对所述训练样本获取单元101所获取的训练样本中数量过少的正样本或负样本进行繁殖。
如果所述训练样本获取单元101所获取的训练样本中正负两类训练样本量之间差值的绝对值与正训练样本量的比值超过预设的阈值(例如30%,当然可以根据经验或其他因素进行设定),则样本繁殖单元106进行样本繁殖。
根据一种实施方式,样本繁殖单元106采用少类样本合成过采样技术(即Synthetic Minority Over-sampling Technique,简称SMOTE过采样算法)对这两类训练样本中数量较少的一类训练样本进行繁殖,并将繁殖以后的样本加入对应类型的原训练样本中构建训练样本库。
由于传统的过采样算法在所处理的各类不同样本量差距过大的情况下会因为决策区间过小而引起分类器过拟合,使用SMOTE算法,对于少类样本点,首先从其同类中随机选择某样本,计算二者之间对应向量范数的差值,乘以一个单位随机向量后与原始的属性向量相加从而生成一个新的属性向量,按照这种方式反复执行将产生新的合成样本,可以把这些合成样本也加入原始训练样本中以供样本训练使用。所述SMOTE过采样算法由过采样率和繁殖近邻数决定,所述过采样率N的取值范围为:N≥100,繁殖近邻数k的取值范围为:N/100≤k<T,其中T为原始正样本数与负样本数之和。在其取值范围内,过采样率选取得越大,算法耗时越久。
图3示出了依据本发明的再一种实施方式的目标声数据训练装置。如图3所示,所述目标声数据训练装置还包括第三特征值提取单元107,所述第三特征值提取单元用于根据所述训练样本利用与所述第一方式和所述第二方式不同的第三方式获得第三特征值,所述特征值组合单元104组合所述第一特征值、所述第二特征值和所述第三特征值获得所述组合特征值。
根据这种方式,例如第一特征值提取单元102可以对于正训练样本利用高斯混合模型获得所述第一特征值,对于负训练样本利用通用背景模型获得所述第一特征值。第二特征值提取单元103可以包括周期图特征提取单元和有效特征值提取单元。该周期图特征提取单元用于提取所述训练样本的周期图特征。该有效特征值提取单元用于根据所述周期图特征获得有效特征值,作为所述第二特征值。所述第三特征值提取单元可以包括AR谱特征提取单元和有效特征值提取单元。所述AR谱特征提取单元用于提取所述训练样本的AR谱特征;以及有效特征值提取单元用于根据所述AR谱特征获得有效特征值,作为所述第三特征值。
本领域技术人员可以显而易见地知道,可以如图2那样,增加样本繁殖单元106。
图4示出了依据本发明的又一种实施方式的目标声数据训练装置。如图4所示,依据本发明的一种实施方式的目标声数据训练装置包括训练样本获取单元101,用于获取训练样本;第一特征值提取单元102,用于根据所述训练样本利用第一方式获得第一特征值;第二特征值提取单元103,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;分类系数获取单元108,根据所述第一特征值获取第一神经网络分类系数,并根据所述第二特征值获取第二神经网络分类系数;组合系数获取单元109,用于组合所述第一神经网络分类系数和所述第二神经网络分类系数,获得组合分类系数,以及分类器单元110,用于根据所述组合分类系数训练获得分类器。以上神经网络分类系数通过BP算法进行神经网络系数训练学习得到,当然,本领域的技术人员可以根据以上方法获取神经网络系数,也可以采用其他的已知的方法获取神经网络系数。
根据本发明的一种实施方式,分类器或子分类器可以采用神经网络分类器,具体为三层前馈神经网络,示意图如图5所示,包括输入层、隐层和输出层,所述输入层接受特征向量的输入,其单元数与特征向量的维数一致;输出层计算单元数目对应目标类型数(即通过本训练识别将目标分成多少类)。隐层的数目较难确定,一般可以先选较多的隐层单元数,待训练学习完成后,再逐步删除一些隐层单元,使网络更为精简。删除的原则可以考虑某一隐层单元的贡献。本发明中训练学习的各子类目标神经网络分类器的输入层为20层,隐层为170层,输出层为2层,用于目标二分性分类。
采用标准的反向传播(Back-Propagation,简称BP)算法对神经网络分类器参数进行设置,其主要思想是通过从后向前逐层传播输出层误差的方式间接算出隐层误差。算法分为两个阶段:第一阶段是信息的正向传播过程,根据输入信息从输入层经隐层到输出层逐层计算各单元的输出值;第二阶段是误差的反向传播过程,根据输出误差逐层向前计算出隐层各单元的误差,并使用此误差修正前层的权值。
所述分类器参数包括步长、惯性项、收敛阈值和迭代次数,步长的取值范围为:(0.1,3),惯性项取值范围为:[0.9,1),收敛阈值取值范围为:(0,1),迭代次数例如可以为100。这些数值都是示例性的,不是对本发明保护范围的限制,可以根据实际情况选择合适的系数。
在具体训练时,针对每一种类型的训练样本通过AdaBoost算法训练出一组神经网络分类器,识别时根据所有神经网络的输出进行决策分类。与传统统计方法相比,它具有处理速度快、容错性好、抗干扰性强、自组织性好等优点。
除本发明提供的分类器及分类器参数设置方法、训练方法以外,其他的分类器及其他参数设置方法、训练方法也适用于本发明。
在本发明的基础上,可以构建一个目标声数据识别系统,具体系统示意图如图6所示,该识别系统包括特征提取模块601和分类器模块602。
从根本上来说,目标声数据识别系统的特征提取模块601包括了图1到图4的图中所示的目标声数据训练装置中除分类器模块之外的其他部件。尽管图6中示出的特征提取模块601包括的为图1中所示的部件,但本领域技术人员可以知道,其可以如图2-图4中所示的那样实现。
而分类器模块602包括多个子类目标分类器和决策器,每个子类目标分类器对应一个目标声数据训练学习系统得到的分类器,子类目标分类器的数目与待识别的数据类型相对应,各子类目标神经网络分类器各自独立,互不影响。
在识别时,决策器根据先验知识,根据目标关重顺序,顺次通过各个子类目标神经网络分类器进行判断,如果某子类神经网络分类器对该类目标识别输出的置信度超过门限,即确定为该子类目标,则结束并跳出识别步骤,否则继续通过下一个子类神经网络分类器进行判定,如果通过所有子类神经网络分类器都未判断成对应子类(即所有子类神经网络分类器全部执行完毕后都未超过门限),则判定为本次识别未发现关重目标。这种方法的好处是能够清晰明确地对各种目标进行分类。
根据本发明的一种实施方式,本发明提出了一种目标声数据训练学习方法,具体流程图如图7所示,包括以下步骤:
样本获取步骤201,用于获取训练样本;所述获取训练样本可以通过显示器、鼠标和键盘来获得,也可以通过存储设备、声音播放设备、网络接口等各种方式来获得,最终形成训练样本库,训练样本包括正训练样本和负训练样本。
第一特征向量提取步骤202,用于根据所述训练样本利用第一方式获得第一特征值;
根据一种实施方式,上述步骤可以由第一特征值提取单元102实现。根据本发明的一种实施方式,其采用高斯混合模型对正样本进行特征提取,获得第一特征值。而对负样本,则采用通用背景模型进行特征提取,获得第一特征值。这通常适用于训练样本为高速动态变化(轨迹、速度、加速度等运动状态属性变化较快)的声信号的情况。即目标声数据高速动态变化的情况,例如对于战斗机等的声数据。
第二特征值提取步骤203,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;第二特征值为周期图特征值或AR谱特征值;
上述步骤可以由第二特征值提取单元103实现,根据本发明的一种实施方式,第二特征值提取单元103包括均未示出的周期图特征提取单元和有效特征值提取单元。周期图特征提取单元用于提取所述训练样本的周期图特征;以及有效特征值提取单元,用于根据所述周期图特征获得有效特征值,作为所述第二特征值。
根据本发明的一种实施方式,第二特征值提取单元103包括均未示出的AR谱特征提取单元和有效特征值提取单元。AR谱特征提取单元用于提取所述训练样本的AR谱特征;有效特征值提取单元用于根据所述AR谱特征获得有效特征值,作为所述第二特征值。
特征值组合步骤204,用于组合所述第一特征值和所述第二特征值,获得组合特征值;上述步骤由特征值组合单元104实现;以及
分类器训练步骤205,用于根据所述组合特征值训练获得分类器,上述步骤由分类器模块105实现。
本领域技术人员可以显而易见地知道,可以在该方法中增加样本繁殖步骤,用于对所述样本获取单元所获取的训练样本中数量过少的正样本或负样本进行繁殖;
此外,还可以增加第三特征值提取步骤,所述第三特征值提取步骤用于根据所述训练样本利用与所述第一方式和所述第二方式不同的第三方式获得第三特征值,所述特征值组合步骤204组合所述第一特征值、所述第二特征值和所述第三特征值获得所述组合特征值。
根据本发明的另一种实施方式,本发明提出了一种目标声数据训练学习方法,具体流程图如图8所示,包括以下步骤:
样本获取步骤201,用于获取训练样本;
第一特征向量提取步骤202,用于根据所述训练样本利用第一方式获得第一特征值;
第二特征值提取步骤203,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;
分类系数获取步骤206,根据所述第一特征值获取第一神经网络分类系数,并根据所述第二特征值获取第二神经网络分类系数;
组合系数获取步骤207,用于组合所述第一神经网络分类系数和所述第二神经网络分类系数,获得组合分类系数。以上神经网络分类系数通过BP算法进行神经网络系数训练学习得到,当然,本领域的技术人员可以根据以上方法获取神经网络系数,也可以采用其他的已知的方法获取神经网络系数。
分类器训练步骤208,用于根据所述组合分类系数训练获得分类器。
应该注意的是,尽管在图中上述的步骤202和203被示为并行处理,但是也可以依次处理,并且处理顺序方面也没有限制。
上述两种方法中的特征值提取方法、有效特征值提取、样本繁殖方法、神经网络分类系数获取与组合方法等,并不限于本发明申请文件中记载的内容,目前已知的特征值提取方法、有效特征值提取、样本繁殖方法、神经网络分类系数获取与组合方法等也可适用于本发明。
应该注意的是,对装置的描述可以用来帮助对方法流程的理解,对方法流程的描述也可以用来对装置进行解释。
下面给出依据本发明的方法和装置的具体实践的实验结果。
具体实施例
(a)选择训练类型为直升机;
(b)数据建模;
(c)进行参数设置:步长设置为0.3,惯性项设置为0.95,收敛阈值设为0.001,迭代次数设为100;
(d)对其子类目标神经网络分类器进行学习训练;
(e)选择训练类型为直升机训练完毕后,采用三组直升机声数据进行识别分类测试,其分类概率分别是99.5%、95.1%和98.6%。采用三组非直升机类声数据进行识别分类测试,其分类概率分别是0.01%,0%和0%。
(f)选择训练类型为喷气式飞行器;
(g)重复步骤(b)至步骤(d);
(h)训练完毕后,采用三组喷气式声数据进行识别分类测试,其分类概率分别是99.4%、99.7%和100%。采用三组非喷气类声数据进行识别分类测试,其分类概率分别是6.7%,0%和0%。
通过实施例数据可以看出,本发明所描述的声数据训练识别方法具有较高的识别率,在试验中,对多组螺旋桨类、喷气类和其他类等目标声数据进行训练识别,其识别结果可达80%以上。
因而,根据本发明的实施方式进行训练得到的分类器可以稳定工作,识别率高。通过这种方法训练学习得到的分类器的目标正确识别概率可达到80%以上。
对于本领域普通技术人员而言,可能会增加新的优点以及作一些修改,本发明并不受已经描述的具体实施方式的局限,具有更宽的范围。因此,根据这些具体的描述而进行的一些修改,并不脱离本申请人发明点的实质。
Claims (9)
1.一种目标声数据训练装置,其特征在于,所述目标声数据训练装置包括:
样本获取单元,用于获取训练样本;所述训练样本包括正训练样本和负训练样本;所述正训练样本为待训练类型的样本数据,所述负训练样本为非待训练类型的样本数据;
第一特征值提取单元,用于根据所述训练样本利用第一方式获得第一特征值;所述第一特征值提取单元对于正训练样本利用高斯混合模型获得所述第一特征值,对于负训练样本利用通用背景模型获得所述第一特征值;
第二特征值提取单元,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;特征值组合单元,用于组合所述第一特征值和所述第二特征值,获得组合特征值;以及
分类器单元,根据所述组合特征值训练获得分类器。
2.根据权利要求1所述的目标声数据训练装置,其特征在于,所述目标声数据训练装置还包括第三特征值提取单元,所述第三特征值提取单元用于根据所述训练样本利用与所述第一方式和所述第二方式不同的第三方式获得第三特征值,所述特征值组合单元组合所述第一特征值、所述第二特征值和所述第三特征值获得所述组合特征值。
3.根据权利要求1所述的目标声数据训练装置,其特征在于,所述目标声数据训练装置还包括样本繁殖单元,所述样本繁殖单元用于对所述样本获取单元所获取的训练样本中数量过少的正样本或负样本进行繁殖。
4.根据权利要求1所述的目标声数据训练装置,其特征在于,所述第二特征值提取单元包括:
周期图特征提取单元,用于提取所述训练样本的周期图特征;以及
有效特征值提取单元,用于根据所述周期图特征获得有效特征值,作为所述第二特征值。
5.根据权利要求2所述的目标声数据训练装置,其特征在于,所述第二特征值提取单元包括:
AR谱特征提取单元,用于提取所述训练样本的AR谱特征;以及
有效特征值提取单元,用于根据所述AR谱特征获得有效特征值,作为所述第二特征值。
6.根据权利要求5所述的目标声数据训练装置,其特征在于,所述第三特征值提取单元包括:
周期图特征提取单元,用于提取所述训练样本的周期图特征;以及
第二有效特征值提取单元,用于根据所述周期图特征获得有效特征值,作为所述第三特征值。
7.根据权利要求6所述的目标声数据训练装置,其特征在于,所述有效特征值提取单元和所述第二有效特征值提取单元均采用PCA方法进行有效特征提取。
8.一种目标声数据训练装置,其特征在于,所述目标声数据训练装置包括:
样本获取单元,用于获取训练样本;所述训练样本包括正训练样本和负训练样本;所述正训练样本为待训练类型的样本数据,所述负训练样本为非待训练类型的样本数据;
第一特征值提取单元,用于根据所述训练样本利用第一方式获得第一特征值;所述第一特征值提取单元对于正训练样本利用高斯混合模型获得所述第一特征值,对于负训练样本利用通用背景模型获得所述第一特征值;
第二特征值提取单元,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;
分类系数获取单元,根据所述第一特征值获取第一神经网络分类系数,并根据所述第二特征值获取第二神经网络分类系数;
组合系数获取单元,用于组合所述第一神经网络分类系数和所述第二神经网络分类系数,获得组合分类系数;以及
分类器单元,用于根据所述组合分类系数训练获得分类器。
9.一种目标声数据训练方法,其特征在于,包括以下步骤:
样本获取步骤,用于获取训练样本;所述训练样本包括正训练样本和负训练样本;所述正训练样本为待训练类型的样本数据,所述负训练样本为非待训练类型的样本数据;
第一特征向量提取步骤,用于根据所述训练样本利用第一方式获得第一特征值;第一特征提取单元对于正训练样本利用高斯混合模型获得所述第一特征值,对于负训练样本利用通用背景模型获得所述第一特征值;
第二特征值提取步骤,用于根据所述训练样本利用与所述第一方式不同的第二方式获得第二特征值;
特征值组合步骤,用于组合所述第一特征值和所述第二特征值,获得组合特征值;以及
分类器训练步骤,用于根据所述组合特征值训练获得分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510712714.XA CN105304078B (zh) | 2015-10-28 | 2015-10-28 | 目标声数据训练装置和目标声数据训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510712714.XA CN105304078B (zh) | 2015-10-28 | 2015-10-28 | 目标声数据训练装置和目标声数据训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105304078A CN105304078A (zh) | 2016-02-03 |
CN105304078B true CN105304078B (zh) | 2019-04-30 |
Family
ID=55201251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510712714.XA Active CN105304078B (zh) | 2015-10-28 | 2015-10-28 | 目标声数据训练装置和目标声数据训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105304078B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373612B2 (en) * | 2016-03-21 | 2019-08-06 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
CN107564580B (zh) * | 2017-09-11 | 2019-02-12 | 合肥工业大学 | 基于集成学习的胃镜图像辅助处理系统及方法 |
CN107973206A (zh) * | 2017-12-29 | 2018-05-01 | 通力电梯有限公司 | 自动扶梯润滑状态监测系统及用于其的声音收集装置 |
CN109784387A (zh) * | 2018-12-29 | 2019-05-21 | 天津南大通用数据技术股份有限公司 | 基于神经网络和贝叶斯模型的多层次递进分类方法及系统 |
CN111538806B (zh) * | 2019-01-21 | 2023-04-07 | 阿里巴巴集团控股有限公司 | 查询负例的泛化方法及装置 |
CN112825250A (zh) * | 2019-11-20 | 2021-05-21 | 芋头科技(杭州)有限公司 | 语音唤醒方法、设备、存储介质及程序产品 |
CN112327293B (zh) * | 2020-10-20 | 2023-05-23 | 西北工业大学 | 一种基于分形特征智能学习的海面目标检测方法 |
CN114360523A (zh) * | 2022-03-21 | 2022-04-15 | 深圳亿智时代科技有限公司 | 关键词数据集获取、模型训练方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685634A (zh) * | 2008-09-27 | 2010-03-31 | 上海盛淘智能科技有限公司 | 一种儿童语音情感识别方法 |
CN103021406A (zh) * | 2012-12-18 | 2013-04-03 | 台州学院 | 基于压缩感知的鲁棒性语音情感识别方法 |
CN103440863A (zh) * | 2013-08-28 | 2013-12-11 | 华南理工大学 | 一种基于流形的语音情感识别方法 |
CN104882144A (zh) * | 2015-05-06 | 2015-09-02 | 福州大学 | 基于声谱图双特征的动物声音识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10360901B2 (en) * | 2013-12-06 | 2019-07-23 | Nuance Communications, Inc. | Learning front-end speech recognition parameters within neural network training |
-
2015
- 2015-10-28 CN CN201510712714.XA patent/CN105304078B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685634A (zh) * | 2008-09-27 | 2010-03-31 | 上海盛淘智能科技有限公司 | 一种儿童语音情感识别方法 |
CN103021406A (zh) * | 2012-12-18 | 2013-04-03 | 台州学院 | 基于压缩感知的鲁棒性语音情感识别方法 |
CN103440863A (zh) * | 2013-08-28 | 2013-12-11 | 华南理工大学 | 一种基于流形的语音情感识别方法 |
CN104882144A (zh) * | 2015-05-06 | 2015-09-02 | 福州大学 | 基于声谱图双特征的动物声音识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105304078A (zh) | 2016-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105304078B (zh) | 目标声数据训练装置和目标声数据训练方法 | |
CN107464210B (zh) | 一种基于生成式对抗网络的图像风格迁移方法 | |
CN108564129B (zh) | 一种基于生成对抗网络的轨迹数据分类方法 | |
CN108986835B (zh) | 基于改进gan网络的语音去噪方法、装置、设备及介质 | |
CN110289003A (zh) | 一种声纹识别的方法、模型训练的方法以及服务器 | |
CN110349597B (zh) | 一种语音检测方法及装置 | |
CN110490230A (zh) | 基于深度卷积生成对抗网络的水声目标识别方法 | |
CN111985533B (zh) | 一种基于多尺度信息融合的增量式水声信号识别方法 | |
CN109378003A (zh) | 一种声纹模型训练的方法和系统 | |
CN110310345A (zh) | 一种基于自动分工隐聚类生成对抗网络的图像生成方法 | |
CN105184260A (zh) | 一种图像特征提取方法及行人检测方法及装置 | |
Han et al. | Speech emotion recognition with a ResNet-CNN-Transformer parallel neural network | |
CN105261367A (zh) | 一种说话人识别方法 | |
CN114897023B (zh) | 一种基于水声目标敏感差异特征提取的水声目标辨识方法 | |
CN109255339B (zh) | 基于自适应深度森林人体步态能量图的分类方法 | |
Zhu et al. | Speaker Recognition System Based on weighted feature parameter | |
CN114863938A (zh) | 一种基于注意力残差和特征融合的鸟语识别方法和系统 | |
CN110619311A (zh) | 一种基于eemd-ica-svm的数据分类方法 | |
CN108268461A (zh) | 一种基于混合分类器的文本分类装置 | |
CN113239880A (zh) | 基于改进随机森林的雷达辐射源识别方法 | |
CN112052880A (zh) | 一种基于更新权值支持向量机的水声目标识别方法 | |
Henri et al. | A deep transfer learning model for the identification of bird songs: A case study for Mauritius | |
CN113806543B (zh) | 一种基于残差跳跃连接的门控循环单元的文本分类方法 | |
CN115455670A (zh) | 一种基于高斯混合模型的非高斯噪声模型建立方法 | |
CN114818789A (zh) | 一种基于数据增强的船舶辐射噪声识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |