CN113111786A - 基于小样本训练图卷积网络的水下目标识别方法 - Google Patents

基于小样本训练图卷积网络的水下目标识别方法 Download PDF

Info

Publication number
CN113111786A
CN113111786A CN202110403699.6A CN202110403699A CN113111786A CN 113111786 A CN113111786 A CN 113111786A CN 202110403699 A CN202110403699 A CN 202110403699A CN 113111786 A CN113111786 A CN 113111786A
Authority
CN
China
Prior art keywords
sample
feature
point
intercepted
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110403699.6A
Other languages
English (en)
Other versions
CN113111786B (zh
Inventor
吴金建
莫周
石光明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110403699.6A priority Critical patent/CN113111786B/zh
Publication of CN113111786A publication Critical patent/CN113111786A/zh
Application granted granted Critical
Publication of CN113111786B publication Critical patent/CN113111786B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Abstract

本发明公开了一种基于小样本训练图卷积网络的水下目标识别方法,主要解决现有技术中对水下声音数据进行特征提取导致信息丢失以及小样本的水声数据无法有效拟合网络的问题。本发明的步骤如下:(1)生成小样本的训练集;(2)提取训练集中每个样本的特征;(3)构建特征矩阵集合;(4)构建知识图谱;(5)将知识图谱转换为连接矩阵;(6)构建图卷积网络;(7)训练图卷积网络;(8)对水下目标进行识别。本发明通过提取多个特征充分表征水声信号的特性,并且利用知识图谱融合特征特性,对小样本数据下网络的拟合提供了优化方向,具有网络不易过拟合、准确率高的优点。

Description

基于小样本训练图卷积网络的水下目标识别方法
技术领域
本发明属于信号处理技术领域,更进一步涉及声音目标识别技术领域中的一种基于小样本训练图卷积网络的水下目标识别方法。本发明针对水下声音数据获取难度大,特征提取导致信息丢失等多个现实问题,利用图网络进行知识嵌入以丰富先验知识的手段实现水下小样本目标的识别。
背景技术
目前,国内外对于水下目标分类识别的主要方法是基于语音信号处理与分类器相结合的模式识别方法,通常采用的方法一般包括利用声呐采集数据、对数据进行预处理、特征提取、分类决策等流程。最重要的两个步骤是特征提取和分类方法的选择。特征的提取一般是单一特征向量或是多特征向量直接拼接形成新的特征向量,分类识别的模型主要是一些主流的经典机器学习方法和深度学习方法,如K近邻、聚类、支撑矢量机、深度神经网络DNN(Deep Neural Networks)等。这些方法尽管在水下目标识别任务中取得了较好的分类结果,但是由于提取的特征数量不多,因此在特征提取操作后存在着信息丢失的风险;没有结合先验知识考虑到特征之间的联系性,盲目的对特征进行简单的拼接,而没有利用先验知识对特征之间联系性进行表征;在使用深度学习网络进行分类是还需要大量的数据对网络进行训练。因此在针对小样本情况下的水下目标识别时,分类精度并不高。
中国海洋大学在其申请的专利文献“一种多特征融合的水下目标识别方法”(申请号:202010930201.7申请公布号:CN112183582A)中公开了一种对声音信号从时域提取的短时能量特征和从频域提取的伽马通频率倒谱系数GFCC(Gammatone frequency cepstralcoefficients)进行首尾相接融合形成新的特征向量进行目标识别的方法。该方法的具体步骤为:对采集到的水声信号进行标准化处理,将结果映射到[0,1]之间,然后对信号分别在时域和频域上提取短时能量特征和GFCC特征,并将其首尾拼接形成融合成新的特征向量,用卷积神经网络(Convolutional Neural Networks)CNN-长短期记忆网络LSTM(LongShort-Term Memory)集成时序网络模型进行分类预测。该方法通过模拟人耳的听觉感知特性,提高了水下目标识别方法的分类精度。但是,该方法仍然存在的不足之处是,由于该方法提取到的特征数量少,无法全面的表征出原始声音信号各种特性,而且各个特征所表征的信息既独立而有相互影响,利用已有的先验知识对特征之间联系性进行表征,能够更好的将知识嵌入到输入数据中,而该方法中直接将两个特征直接进行拼接融合,则会丢失这部分信息。
王升贵等人在其发表的论文“基于深度学习的水下目标识别方法研究”(基于深度学习的水下目标识别方法研究[J].舰船科学技术,2020,42(23):141-145.)中提出了一种利用深度卷积神经网络对目标LOFAR图特征提取后,利用全连接网络对信号进行分类的方法。该方法的具体步骤为:利用深度卷积神经网络自适应实现对目标二维时频谱图(LOFAR)特征提取,然后采用全连接层将特征变换至类别空间,最后利用softmax函数实现水下目标智能辨识。该方法有效的降低了噪声的影响。但是,该方法仍然存在的不足之处是,由于该方法使用的网络包括了三个卷积层,以及一个全连接层,因此需要大量训练数据,但是当样本的数量不足时,无法有效的拟合网络。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于小样本训练图卷积神经网络的水下目标识别方法,用于解决提取信号特征少,无法全面表征水下目标声音特性的问题和样本不足时无法有效拟合网络的问题。
实现本发明目的的思路是:通过提取水声信号的六个特征,全面的表征水声信号的音调特性、音色特性、响度特性、规律性特性以及水声信号的深度特征特性,解决了工程应用中水声信号特征提取后只能获得上述一种或两种特性的信息,而丢失其余类别特性的信息的问题。本发明根据各个特征的物理定义构建知识图谱,利用知识图谱对输入特征的相同特性进行聚合,缩小了网络搜索最优解的优化空间,解决了工程应用中数据样本不足时无法有效拟合网络的问题。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)生成小样本的训练集:
(1a)从每类水声信号中选取至少10个样本,每个样本对应一个类标签,如若样本为多通道信号,则只取第一个通道的信号信息,并将所有样本的采样率统一处理到16000Hz;
(1b)从32000、48000、60000中任选一个值作为汉明窗中点的总数;
(1c)利用窗函数对每一个样本进行加窗分帧处理,将加窗分帧后的所有截取样本和标签组成训练集;
(2)提取训练集中每个样本的特征:
(2a)对每个截取样本进行与步骤(1c)中相同的加窗分帧处理,得到每个截取样本切割的二次截取样本;分别利用谱滚降点生成方法、谱质心计算公式、能量计算公式、过零率计算公式、自相关系数计算公式,计算每个截取样本切割的每个二次截取样本的短时频谱滚降点、短时谱质心、短时能量、短时过零率、短时自相关系数,将每个截取样本切割的每一个二次截取样本的短时谱滚降点、短时谱质心、短时能量、短时过零率、短时自相关系数分别拼接,得到该截取样本的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征;
(2b)将在步骤(1c)得到的每个截取样本输入到VGGish网络中,将网络的输出作为该截取样本的不可描述语义特征;
(2c)分别对每个样本的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征进行主成成分分析,将该样本的每一个特征的维度都降低到128;
(3)构建特征矩阵集合:
(3a)将每一个水声信号的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征依次按行拼接,组成该水声信号的特征矩阵;
(3b)将所有水声信号的特征矩阵组合成特征矩阵集合;
(4)构建知识图谱:
根据特征各自的物理定义,将降维后的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征分别划分为音调、音色、响度、规律性四类,并将每个特征与其同类特征相连;将不可描述语义特征归为深度特征类;并将不可描述语义特征与每个特征相连,将连接后的特征组成知识图谱;
(5)将知识图谱转换为连接矩阵:
(5a)将降维后的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征分别编号为1,2,3,4,5,6;
(5b)初始化一个维度为6*6的全零的连接矩阵,根据知识图谱,谱质心特征与过零率特征相连接,则连接矩阵的第二行第四列的值和第四行第二列的值设置为1,不可描述语义特征与其他五个特征相连接,则连接矩阵的第六行的所有元素和第六列的所有元素值设置为1;
(5c)将连接矩阵的对角元素值设置为1;
(6)构建图卷积网络:
构建一个四层的图卷积网络,其结构为:第一图卷积层,第二图卷积层,第一全连接层,第二全连接层,四个网络层依次连接;将第一、第二图卷积层的特征映射矩阵大小分别设置为128*100,100*64,第一、第二全连接层的特征映射单元分别为384个,3个;
(7)训练图卷积网络:
将特征矩阵集合和连接矩阵输入到图卷积网络中,对网络中的两个特征映射矩阵和两个特征映射单元迭代更新,当损失函数的输出小于0.01或训练迭代次数达到350次时停止训练,得到训练好的图卷积网络;
(8)对水下目标进行识别:
将待识别的水下目标的声音信号采用与步骤(2)相同的操作,提取声音信号的六个特征特征,再采用与步骤(3a)相同的拼接操作,得到该声音信号的特征矩阵,将该声音信号的特征矩阵和步骤(5)中得到的连接矩阵一起输入到训练好的图卷积网络中,得到目标声音信号的识别结果。
本发明与现有技术相比具有以下优点:
第一,由于本发明从水声信号中提取了谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征,利用这六个特征分别对水声信号的音调特性、音色特性、响度特性以及水声信号的深度特征特性进行了表征,得到了全面的水声信号特性表达,克服了水声信号特征提取时特征信息丢失的问题,使得本发明提高了水声识别的准确性。
第二,由于本发明根据水声信号的各个特征的实际定义构建了知识图谱,利用知识图谱对特征之间的特性关联程度进行设置,使得本发明充分的聚合了特征之间的相同特性,并将特征之间的相异特性放大,让网络的可分辨性增强,同时也能够更好的让网络拟合,使得本发明在面对样本不足的问题时同样能训练得到不易过拟合的网络。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图1对本发明的实现步骤做进一步的详细描述。
步骤1.生成小样本的训练集。
从每类水声信号中选取至少10个样本,每个样本对应一个类标签,如若样本为多通道信号,则只取第一个通道的信号信息,并将所有样本的采样率统一处理到16000Hz。
从32000、48000、60000中任选一个值作为汉明窗中点的总数。
利用窗函数对每一个样本进行加窗分帧处理。加窗分帧处理是由于水下目标信号发出的声音在宏观上是杂乱的,在微观上是平稳的,因此需要对信号进行加窗分帧处理来得到短时平稳的截取样本。将加窗分帧后的所有截取样本和标签组成训练集。
所述加窗分帧处理的步骤如下。
第1步,按照下式,计算汉明窗中每个点的幅值:
Figure BDA0003021383370000051
其中,ω(n)表示汉明窗中第n个点的幅值,cos表示余弦操作,π表示圆周率,M表示汉明窗中点的总数。
第2步,将每个样本中左起第一个采样点设置为该样本的截取样本起始点,并将该截取样本起始点设置为当前的截取样本起始点。
第3步,从每个样本的当前截取样本起始点后选择
Figure BDA0003021383370000052
个采样点,
Figure BDA0003021383370000053
的取值与M相等,将
Figure BDA0003021383370000054
个采样点中每个采样点依次与汉明窗中各个点的幅值对应相乘,将所有的乘积组成当前迭代的截取样本,并设置截取样本的标签与其对应的样本标签相同。
第4步,将每个样本的当前截取样本起始点向右移动γ个采样点得到更新后的当前截取样本起始点,其中γ=0.5M。
第5步,重复本步骤的第3步、第4步操作,直到当前截取样本起始点到每个样本最后一个采样点数之间的采样点数小于
Figure BDA0003021383370000055
时停止,得到加窗分帧后的所有截取样本。
步骤2.提取训练集中每个样本的特征。
对每个截取样本进行再次进行加窗分帧处理,得到每个截取样本切割的二次截取样本。分别利用谱滚降点生成方法、谱质心计算公式、能量计算公式、过零率计算公式、自相关系数计算公式,计算每个截取样本切割的每个二次截取样本的短时频谱滚降点、短时谱质心、短时能量、短时过零率、短时自相关系数,将每个截取样本切割的每一个二次截取样本的短时谱滚降点、短时谱质心、短时能量、短时过零率、短时自相关系数分别拼接,得到该截取样本的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征。并将每个截取样本输入到VGGish模型网络中,将网络的输出作为该截取样本的不可描述语义特征。
所述谱滚降点生成方法如下。
第1步,对每个截取样本切割的每个二次截取样本进行下述的离散傅里叶变换,得到每个二次截取样本的频域序列:
Figure BDA0003021383370000061
其中,
Figure BDA0003021383370000062
表示第i个截取样本切割的第q个二次截取样本ci,q对应的频域序列中第
Figure BDA0003021383370000063
个频点对应的频率值,
Figure BDA0003021383370000064
表示频域序列中频点的序号,
Figure BDA0003021383370000065
m1表示第i个截取样本切割的第q个二次截取样本ci,q所包含的采样点的总数,∑表示求和操作,k表示二次截取样本中采样点的序号,xi,q(k)表示第i个截取样本切割的第q个二次截取样本中第k个采样点对应的数值,e(·)表示以自然常数e为底的指数操作,j表示虚数单位符号,π表示圆周率。
第2步,在每个频域序列中依次累加每个频点的频率值,当累加值大于整个频域序列值的总和的85%时停止累加,将此时的累加频点总数作为该频域序列的谱滚降点特征值。
所述谱质心生成方法如下。
第1步,对每个截取样本切割后每个二次截取样本采用与上述相同的离散傅里叶变换操作,得到每个二次截取样本的频域序列。
第2步,利用下述公式生成每一个频域序列的谱质心:
Figure BDA0003021383370000071
其中,
Figure BDA0003021383370000072
表示第i个截取样本切割后的第q个二次截取样本ci,q谱质心特征值,L表示频域序列的长度,w表示频域序列中频点的序号,hi,q(w)表示第i个截取样本切割的第q个二次截取样本ci,q对应的频域序列中第w个频点对应的频率值。
所述能量计算公式如下:
Figure BDA0003021383370000073
其中,
Figure BDA0003021383370000074
表示第i个截取样本切割的第q个二次截取样本ci,q的短时能量。
所述过零率计算公式如下:
Figure BDA0003021383370000075
其中,
Figure BDA0003021383370000076
表示第i个截取样本切割的第q个二次截取样本ci,q的短时过零率,sgn(·)表示符号函数,xi,q(k+1)表示第i个截取样本切割的第q个二次截取样本中第k+1个采样点的数值。
所述自相关系数计算公式如下:
Figure BDA0003021383370000077
其中,
Figure BDA0003021383370000078
表示第i个截取样本切割的第q个二次截取样本ci,q的短时自相关系数,
Figure BDA0003021383370000079
表示二次截取样本ci,q的均值,xi,q(k+l)表示第i个截取样本切割的第q个二次截取样本中第k+l个采样点的数值。
分别对每个样本的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征进行主成成分分析,将该样本的每一个特征的维度都降低到128。
步骤3.构建特征矩阵集合。
将每一个水声信号的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征依次按行拼接,组成该水声信号的特征矩阵。
将所有水声信号的特征矩阵组合成特征矩阵集合。
步骤4.构建知识图谱。
根据特征各自的物理定义,将降维后的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征分别划分为音调、音色、响度、规律性四类,并将每个特征与其同类特征相连,不同类的特征之间不相连;将不可描述语义特征归为深度特征类;并将不可描述语义特征与每个特征相连,将连接后的特征组成知识图谱。
将频谱滚降点特征定义为音调类特征的方法为:频谱滚降点特征体现的是水声信号的低频能量占水声信号总能量的比重,表现了水声信号低频能量的强弱程度;音调表示水声信号频率的高低,所以将频谱滚降点特征归为音调类特征。
将过零率特征和谱质心特征定义为音色类特征的方法为:过零率特征体现的是水声信号过零点的次数,表征水声信号波形变化速率特性;谱质心特征是描述水声信号音色属性的重要物理参数之一,是水声信号频率成分的重心;音色表示不同水声信号表现在波形方面总是有与众不同的特性,所以将过零率特征和谱质心特征归为音色类特征。
将能量特征定义为音色类特征的方法为:能量特征体现的是水声信号在不同时刻的强弱程度;响度是描述水声信号强弱的物理量,所以将能量特征归为响度类特征。
将自相关系数特征定义为规律性类特征的方法为:自相关系数特征是水声信号自身的两次观察值之间的相似度,体现出水声信号自身规律程度高低,所以将其归为规律性特征。
将不可描述语义特征定义为深度特征类特征的方法为:不可描述语义特征是通过VGGish网络提取的高维特征,不具有明确的物理含义,所以将该特征归为深度特征类特征。
步骤5.将知识图谱转换为连接矩阵。
将降维后的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征分别编号为1,2,3,4,5,6。
初始化一个维度为6*6的全零的连接矩阵,根据知识图谱,谱质心特征与过零率特征相连接,则连接矩阵的第二行第四列的值和第四行第二列的值设置为1,不可描述语义特征与其他五个特征相连接,则连接矩阵的第六行的所有元素和第六列的所有元素值设置为1。
将连接矩阵的对角元素值设置为1。
步骤6.构建图卷积网络。
构建一个四层的图卷积网络,其结构为:第一图卷积层,第二图卷积层,第一全连接层,第二全连接层,四个网络层依次连接;将第一、第二图卷积层的特征映射矩阵大小分别设置为128*100,100*64,第一、第二全连接层的特征映射单元分别为384个,3个。
步骤7.训练图卷积网络。
将特征矩阵集合和连接矩阵输入到图卷积网络中,对网络中的两个特征映射矩阵和两个特征映射单元迭代更新,当损失函数的输出小于0.01或训练迭代次数达到350次时停止训练,得到训练好的图卷积网络。
步骤8.对水下目标进行识别。
提取待识别水声信号的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征,再将水声信号的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征依次按行拼接,得到该声音信号的特征矩阵,将该声音信号的特征矩阵连接矩阵一起输入到训练好的图卷积网络中,得到目标声音信号的识别结果。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:处理器为Intel i7 9750H CPU,主频为2.60GHz,内存16GB。
本发明的仿真实验的软件平台为:Windows 10操作系统和python 3.6。
2.仿真内容及其结果分析:
本发明仿真实验是采用本发明和一个现有技术(支撑向量机SVM分类方法)分别对输入的水声信号进行分类。
本发明仿真实验所使用的水声信号数据为利用水声信号仿真器生成的三类仿真水声数据,分别为军舰声音、民船声音以及潜艇声音。
下面结合表1对本发明的效果做进一步的描述。
利用两个评价指标(每类分类精度、总精度OA)分别对利用两种方法对三种水声信号数据分类的结果进行评价。
利用下面公式,计算总体精度OA,三类水声信号的每类分类精度,将所有计算结果绘制成表1:
Figure BDA0003021383370000101
Figure BDA0003021383370000102
表1.仿真实验中本发明和现有技术分类结果的定量分析表
Figure BDA0003021383370000103
由表1可以看出,本发明的总体分类精度OA为94.0%,高于支撑向量机SVM技术方法,每一类的分类精度也均高于支撑向量机SVM技术方法,证明本发明可以得到更高的水声信号分类精度。
以上仿真实验表明:本发明的方法利用提取的多个特征,能够全面的将水声信号中的细节信息表达,利用根据特征定义设计的知识图谱,聚合了各个特征之间的特性,并将特征之间的相异特性放大,使得特征的所表达的信息更加突出,更有利于网络学习到关键特征信息,从而让网络有了更正确的优化方向,使得网络不易产生过拟合现象,有利于最后的分类。

Claims (7)

1.基于小样本训练图卷积网络的水下目标识别方法,其特征在于,提取水下目标信号发出的声音的六个特征,并根据特征各自的物理定义构建知识图谱;该方法具体步骤包括如下:
(1)生成小样本的训练集:
(1a)从每类水声信号中选取至少10个样本,每个样本对应一个类标签,如若样本为多通道信号,则只取第一个通道的信号信息,并将所有样本的采样率统一处理到16000Hz;
(1b)从32000、48000、60000中任选一个值作为汉明窗中点的总数;
(1c)利用窗函数对每一个样本进行加窗分帧处理,将加窗分帧后的所有截取样本和标签组成训练集;
(2)提取训练集中每个样本的特征:
(2a)对每个截取样本进行与步骤(1c)中相同的加窗分帧处理,得到每个截取样本切割的二次截取样本;分别利用谱滚降点生成方法、谱质心计算公式、能量计算公式、过零率计算公式、自相关系数计算公式,计算每个截取样本切割的每个二次截取样本的短时频谱滚降点、短时谱质心、短时能量、短时过零率、短时自相关系数,将每个截取样本切割的每一个二次截取样本的短时谱滚降点、短时谱质心、短时能量、短时过零率、短时自相关系数分别拼接,得到该截取样本的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征;
(2b)将在步骤(1c)得到的每个截取样本输入到VGGish网络中,将网络的输出作为该截取样本的不可描述语义特征;
(2c)分别对每个样本的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征进行主成成分分析,将该样本的每一个特征的维度都降低到128;
(3)构建特征矩阵集合:
(3a)将每一个水声信号的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征依次按行拼接,组成该水声信号的特征矩阵;
(3b)将所有水声信号的特征矩阵组合成特征矩阵集合;
(4)构建知识图谱:
根据特征各自的物理定义,将降维后的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征分别划分为音调、音色、响度、规律性四类,并将每个特征与其同类特征相连;将不可描述语义特征归为深度特征类;并将不可描述语义特征与每个特征相连,将连接后的特征组成知识图谱;
(5)将知识图谱转换为连接矩阵:
(5a)将降维后的谱滚降点特征、谱质心特征、能量特征、过零率特征、自相关系数特征和不可描述语义特征分别编号为1,2,3,4,5,6;
(5b)初始化一个维度为6*6的全零的连接矩阵,根据知识图谱,谱质心特征与过零率特征相连接,则连接矩阵的第二行第四列的值和第四行第二列的值设置为1,不可描述语义特征与其他五个特征相连接,则连接矩阵的第六行的所有元素和第六列的所有元素值设置为1;
(5c)将连接矩阵的对角元素值设置为1;
(6)构建图卷积网络:
构建一个四层的图卷积网络,其结构为:第一图卷积层,第二图卷积层,第一全连接层,第二全连接层,四个网络层依次连接;将第一、第二图卷积层的特征映射矩阵大小分别设置为128*100,100*64,第一、第二全连接层的特征映射单元分别为384个,3个;
(7)训练图卷积网络:
将特征矩阵集合和连接矩阵输入到图卷积网络中,对网络中的两个特征映射矩阵和两个特征映射单元迭代更新,当损失函数的输出小于0.01或训练迭代次数达到350次时停止训练,得到训练好的图卷积网络;
(8)对水下目标进行识别:
将待识别的水下目标的声音信号采用与步骤(2)相同的操作,提取声音信号的六个特征,再采用与步骤(3a)相同的拼接操作,得到该声音信号的特征矩阵,将该声音信号的特征矩阵和步骤(5)中得到的连接矩阵一起输入到训练好的图卷积网络中,得到目标声音信号的识别结果。
2.根据权利要求1所述的基于小样本训练图卷积网络的水下目标识别方法,其特征在于,步骤(1b)中所述的加窗分帧处理的步骤如下:
第一步,按照下式,计算汉明窗中每个点的幅值:
Figure FDA0003021383360000031
其中,ω(n)表示汉明窗中第n个点的幅值,cos表示余弦操作,π表示圆周率,M表示汉明窗中点的总数;
第二步,将每个样本中左起第一个采样点设置为该样本的截取样本起始点,并将该截取样本起始点设置为当前的截取样本起始点;
第三步,从每个样本的当前截取样本起始点后选择
Figure FDA0003021383360000032
个采样点,
Figure FDA0003021383360000033
的取值与M相等,将
Figure FDA0003021383360000034
个采样点中每个采样点依次与汉明窗中各个点的幅值对应相乘,将所有的乘积组成当前迭代的截取样本,并设置截取样本的标签与其对应的样本标签相同;
第四步,将每个样本的当前截取样本起始点向右移动γ个采样点得到更新后的当前截取样本起始点,其中γ=0.5M;
第五步,重复第三步、第四步操作,直到当前截取样本起始点到每个样本最后一个采样点数之间的采样点数小于
Figure FDA0003021383360000035
时停止,得到加窗分帧后的所有截取样本。
3.根据权利要求1所述的基于小样本训练图卷积网络的水下目标识别方法,其特征在于,步骤(2a)中所述谱滚降点生成方法如下:
第一步,对每个截取样本切割的每个二次截取样本进行下述的离散傅里叶变换,得到每个二次截取样本的频域序列:
Figure FDA0003021383360000036
其中,
Figure FDA0003021383360000037
表示第i个截取样本切割的第q个二次截取样本ci,q对应的频域序列中第
Figure FDA0003021383360000038
个频点对应的频率值,
Figure FDA0003021383360000039
表示频域序列中频点的序号,
Figure FDA00030213833600000310
m1表示第i个截取样本切割的第q个二次截取样本ci,q所包含的采样点的总数,∑表示求和操作,k表示二次截取样本中采样点的序号,xi,q(k)表示第i个截取样本切割的第q个二次截取样本中第k个采样点对应的数值,e(·)表示以自然常数e为底的指数操作,j表示虚数单位符号,π表示圆周率。
第二步,在每个频域序列中依次累加每个频点的频率值,当累加值大于整个频域序列值的总和的85%时停止累加,将此时的累加频点总数作为该频域序列的谱滚降点特征值。
4.根据权利要求1所述的基于小样本训练图卷积网络的水下目标识别方法,其特征在于,步骤(2a)中所述谱质心生成方法如下:
第一步,对每个截取样本切割后每个二次截取样本采用与权利要求3第一步相同的离散傅里叶变换操作,得到每个二次截取样本的频域序列;
第二步,利用下述公式生成每一个频域序列的谱质心:
Figure FDA0003021383360000041
其中,
Figure FDA0003021383360000042
表示第i个截取样本切割后的第q个二次截取样本ci,q谱质心特征值,L表示频域序列的长度,w表示频域序列中频点的序号,hi,q(w)表示第i个截取样本切割的第q个二次截取样本ci,q对应的频域序列中第w个频点对应的频率值。
5.根据权利要求3所述的基于小样本训练图卷积网络的水下目标识别方法,其特征在于,步骤(2a)中所述的能量计算公式如下:
Figure FDA0003021383360000043
其中,
Figure FDA0003021383360000044
表示第i个截取样本切割的第q个二次截取样本ci,q的短时能量。
6.根据权利要求3所述的基于小样本训练图卷积网络的水下目标识别方法,其特征在于,步骤(2a)中所述的过零率计算公式如下:
Figure FDA0003021383360000045
其中,
Figure FDA0003021383360000046
表示第i个截取样本切割的第q个二次截取样本ci,q的短时过零率,sgn(·)表示符号函数,xi,q(k+1)表示第i个截取样本切割的第q个二次截取样本中第k+1个采样点的数值。
7.根据权利要求3所述的基于小样本训练图卷积网络的水下目标识别方法,其特征在于,步骤(2a)中所述的自相关系数计算公式如下:
Figure FDA0003021383360000051
其中,
Figure FDA0003021383360000052
表示第i个截取样本切割的第q个二次截取样本ci,q的短时自相关系数,
Figure FDA0003021383360000053
表示二次截取样本ci,q的均值,xi,q(k+l)表示第i个截取样本切割的第q个二次截取样本中第k+l个采样点的数值。
CN202110403699.6A 2021-04-15 2021-04-15 基于小样本训练图卷积网络的水下目标识别方法 Active CN113111786B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110403699.6A CN113111786B (zh) 2021-04-15 2021-04-15 基于小样本训练图卷积网络的水下目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110403699.6A CN113111786B (zh) 2021-04-15 2021-04-15 基于小样本训练图卷积网络的水下目标识别方法

Publications (2)

Publication Number Publication Date
CN113111786A true CN113111786A (zh) 2021-07-13
CN113111786B CN113111786B (zh) 2024-02-09

Family

ID=76717057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110403699.6A Active CN113111786B (zh) 2021-04-15 2021-04-15 基于小样本训练图卷积网络的水下目标识别方法

Country Status (1)

Country Link
CN (1) CN113111786B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569773A (zh) * 2021-08-02 2021-10-29 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN116108353A (zh) * 2023-04-12 2023-05-12 厦门大学 一种基于数据分组的小样本深度学习水声目标识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019079972A1 (zh) * 2017-10-24 2019-05-02 深圳和而泰智能控制股份有限公司 特定声音识别方法、设备和存储介质
CN112364779A (zh) * 2020-11-12 2021-02-12 中国电子科技集团公司第五十四研究所 信号处理与深-浅网络多模型融合的水声目标识别方法
WO2021042503A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 信息分类抽取方法、装置、计算机设备和存储介质
CN112488241A (zh) * 2020-12-18 2021-03-12 贵州大学 一种基于多粒度融合网络的零样本图片识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019079972A1 (zh) * 2017-10-24 2019-05-02 深圳和而泰智能控制股份有限公司 特定声音识别方法、设备和存储介质
WO2021042503A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 信息分类抽取方法、装置、计算机设备和存储介质
CN112364779A (zh) * 2020-11-12 2021-02-12 中国电子科技集团公司第五十四研究所 信号处理与深-浅网络多模型融合的水声目标识别方法
CN112488241A (zh) * 2020-12-18 2021-03-12 贵州大学 一种基于多粒度融合网络的零样本图片识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
江彤彤;成金勇;鹿文鹏;: "基于卷积神经网络多层特征提取的目标识别", 计算机系统应用, no. 12 *
鲍开放;顾君忠;杨静;: "基于结构与文本联合表示的知识图谱补全方法", 计算机工程, no. 07 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569773A (zh) * 2021-08-02 2021-10-29 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN113569773B (zh) * 2021-08-02 2023-09-15 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN116108353A (zh) * 2023-04-12 2023-05-12 厦门大学 一种基于数据分组的小样本深度学习水声目标识别方法

Also Published As

Publication number Publication date
CN113111786B (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
Kong et al. Weakly labelled audioset tagging with attention neural networks
CN108053836B (zh) 一种基于深度学习的音频自动化标注方法
CN112364779B (zh) 信号处理与深-浅网络多模型融合的水声目标识别方法
Su et al. Performance analysis of multiple aggregated acoustic features for environment sound classification
CN105488466B (zh) 一种深层神经网络和水声目标声纹特征提取方法
CN111724770B (zh) 一种基于深度卷积生成对抗网络的音频关键词识别方法
CN109815892A (zh) 基于cnn的分布式光纤光栅传感网络的信号识别方法
CN102419974A (zh) 处理语音识别的稀疏表示特征的方法和系统
Kong et al. Radar emitter identification based on deep convolutional neural network
KR20200104019A (ko) 머신러닝 기반의 음성데이터 분석 방법, 장치 및 프로그램
CN113111786B (zh) 基于小样本训练图卷积网络的水下目标识别方法
CN112750442B (zh) 一种具有小波变换的朱鹮种群生态体系监测系统及其方法
CN115762536A (zh) 一种基于桥接Transformer的小样本优化鸟声识别方法
Yang et al. Classification of odontocete echolocation clicks using convolutional neural network
Zhang et al. Temporal Transformer Networks for Acoustic Scene Classification.
Soliman et al. Isolated word speech recognition using convolutional neural network
CN107731235A (zh) 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置
CN112052880A (zh) 一种基于更新权值支持向量机的水声目标识别方法
Li et al. Audio recognition of Chinese traditional instruments based on machine learning
CN113095381B (zh) 一种基于改进型dbn的水声目标辨识方法及系统
Wu et al. Audio-based expansion learning for aerial target recognition
RAMO et al. A novel approach to spoken Arabic number recognition based on developed ant lion algorithm
Hu et al. A lightweight multi-sensory field-based dual-feature fusion residual network for bird song recognition
Chun et al. Research on music classification based on MFCC and BP neural network
Joshi et al. Comparative study of Mfcc and Mel spectrogram for raga classification using CNN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant