CN112163461A - 一种基于多模态融合的水下目标识别方法 - Google Patents

一种基于多模态融合的水下目标识别方法 Download PDF

Info

Publication number
CN112163461A
CN112163461A CN202010931223.5A CN202010931223A CN112163461A CN 112163461 A CN112163461 A CN 112163461A CN 202010931223 A CN202010931223 A CN 202010931223A CN 112163461 A CN112163461 A CN 112163461A
Authority
CN
China
Prior art keywords
data
neural network
marine environment
spectrogram
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010931223.5A
Other languages
English (en)
Other versions
CN112163461B (zh
Inventor
殷波
魏志强
贾东宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202010931223.5A priority Critical patent/CN112163461B/zh
Publication of CN112163461A publication Critical patent/CN112163461A/zh
Application granted granted Critical
Publication of CN112163461B publication Critical patent/CN112163461B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • G06F2218/06Denoising by applying a scale-space analysis, e.g. using wavelet analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Acoustics & Sound (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种基于多模态融合的水下目标识别方法,包括如下步骤:(1)数据采集,声呐信号数据采集和海洋环境数据采集;(2)数据融合与谱图提取,将海洋环境数据进行融合得到一维数据,由声呐信号提取Lofar谱图;(3)模型搭建,构建基于卷积神经网络的多模态融合模型,其中海洋环境数据使用一维卷积神经网络,Lofar谱图使用二维卷积神经网络;(4)目标识别,将采集到的数据输入到对应的网络中进行训练与测试,得到水下目标识别结果。本发明所公开的方法引入了海洋环境数据,结合Lofar谱图,进行多模态融合,两者结合能够为水相目标识别提供更准确更丰富的特征信息。

Description

一种基于多模态融合的水下目标识别方法
技术领域
本发明涉及海洋探测技术领域,特别涉及一种基于多模态融合的水下目标识别方法。
背景技术
21世纪是海洋世纪,人类将全面认识海洋、开发和利用海洋。现代科学技术的发展使人类进入了大规模开发利用海洋的时期,但是海洋环境极其复杂,海洋世界里充满未知和危险,人类在海洋中并不能像在陆地上一样来去自如。因此,我们需要利用各种技术对海洋加深认知。水下无人航行器是一种能够代替人类在海洋工作的小型潜航器,它不仅能够进行水下研究,还具有及其重要的战略意义。为此,水下航行器需要具备完善的水下潜航系统,能够对水下目标进行快速准确的识别。
水下目标识别是当今国内外海洋技术发展的重点和难点。目前,水下目标识别主要是利用被动声呐接收的海洋目标辐射噪声,分析声源属性,提取目标的固有属性,识别水下目标。一直以来,各国被动声呐系统主要利用练有素的声呐员来识别目标,但声呐员判断的准确性受到声呐员自身的经验、身体状况、心理因素等影响较大。因此,各国一直致力于发展被动声呐系统的水下目标自动识别技术,协助并最终代替声呐员完成繁重的识别任务。
早期的水下目标识别技术,目标判断主要依据目标噪声或回波的波形音调、节奏分布特进行识别。随着研究技术和设备的发展,目标识别技术广泛引入了信号处理技术,仪器设备研制和测量水平得到大幅提升,这为水下目标特征量提取和数据收集提供了便利条件。与此同时,传统机器学习方法如支持向量机等逐渐被应用于水下目标识别,但是在处理大量数据时显得尤为困难。大数据时代的到来使得深度学习方法在水下目标识别领域获得了广泛应用,相比于传统的识别技术,采用深度学习算法能够取得更高的识别精度,在水下目标识别的应用中具有更大的研究价值。
目前,水下目标识别的方法主要有三类,分别是原始噪声分析、时频特征和声呐图像。各种方法均能够在一定程度上实现水下目标识别,但由于特征性质单一,识别手段单一等导致其泛化能力不足,不能够完全准确识别。具体缺陷通常来说表现在以下:
(1)实际海洋中存在环境噪声、不同类型声源、多个干扰源等复杂情况,导致声呐采集的信号干扰严重,噪声多,从而不能准确判断水下目标。
(2)时频特征提取原理简单,易于实现,但需要先验知识来设定其中的参数,而固定的参数会使这类特征在复杂海洋环境条件下的识别泛化性较弱。
基于目前现有技术存在的问题,本发明设计了一种基于多模态融合的水下目标识别方法。本发明方法采用基于卷积神经网络的深度学习框架,其输入数据包括Lofar谱图和海洋环境数据,本发明方法共进行了两次多模态数据融合,首先在数据预处理阶段将海洋环境这种多模态数据进行融合,然后在深度学习模型中使用多模态融合算法将多模态特征进行融合,最后输出识别结果。Lofar谱图通过对连续的采样数据作短时傅里叶变换而构成信号表达的三维立体图,可反映信号的非平稳性特征,在水下目标识别中得到了广泛的应用。此外,模型还引入了海洋环境信息,海洋信息包括数据采集点的经纬度、深度、温度和时间,使用串联融合的方法将这些信息融合为一维数据。因为不同的水下目标往往只出现在特定的海域和深度,引入海洋环境信息将会为模型提供更多的特征。
发明内容
为解决上述技术问题,本发明提供了一种基于多模态融合的水下目标识别方法,引入了海洋环境数据,结合Lofar谱图,进行多模态融合,两者结合能够为水相目标识别提供更准确更丰富的特征信息。
为达到上述目的,本发明的技术方案如下:
一种基于多模态融合的水下目标识别方法,包括如下步骤:
(1)数据采集,声呐信号采集和海洋环境数据采集;
(2)数据融合与谱图提取,将海洋环境数据进行融合得到一维数据,由声呐信号提取Lofar谱图;
(3)模型搭建,构建基于卷积神经网络的多模态融合模型,其中海洋环境数据使用一维卷积神经网络,Lofar谱图使用二维卷积神经网络;
(4)目标识别,将采集到的声呐信号和海洋环境数据输入到对应的网络中进行训练与测试,得到水下目标识别结果。
上述方案中,步骤(2)中,对海洋环境数据进行融合的方法如下:
1)将字符数据转换成整型数据;
2)数值拆解,如果数据为小数则拆成两个十进制整型数;
3)扩张数据,使得每个数据占据64个字符长度;
4)归一化处理,使用均值归一化操作,如公式(1)所示:
Figure BDA0002670303950000031
其中,x代表原始数据,函数max、min和mean分别为对原始数据取最大值、最小值和均值,最终得出归一化数据x';
5)串联融合,将归一化后的不同模态数据直接串联成一条数据,如公式(2)所示:
f(x)=concat([local,temp,depth,time]) (2)
其中,local、temp、depth和time分别为对应采样点的经纬度、温度、深度和时间信息,经过concat串联函数实现不同模态的数据融合。
上述方案中,步骤(2)中,由声呐信号提取Lofar谱图的方法如下:
首先,将声呐信号序列划分为部分重叠的若干个信号段,对划分的重叠信号给定一个窗函数,令其在t轴上滑动,再对每段信号做短时傅里叶变换,短时傅里叶变换公式如下:
Figure BDA0002670303950000032
其中,x为声呐信号,t为时间窗的范围,t′为时间,x(t′)为声呐信号序列,γ*(t′-t)为窗函数,j为虚数,f为频率;
最后,取功率谱图即为信号的Lofar谱图,功率谱图定义为公式(4);
Figure BDA0002670303950000033
其中,FT(ω)为信号的短时傅里叶变换,T为信号周期。
上述方案中,步骤(3)的具体方法如下:
1)首先海洋环境数据经过一维卷积神经网络输出特征向量,同时Lofar谱图经过二维卷积神经网络输出特征图;
卷积神经网络中的卷积操作公式如下:
Figure BDA0002670303950000034
其中,w(m,n)为卷积核大小,c(i+m,j+n)为卷积区域,conv(i,j)为卷积结果;
池化操作公式如下:
pooling(u,v)=down(s(u+p,v+q)) (6)
其中s(u+p,v+q)为池化区域,p和q代表池化操作的步长,down为下采样操作,可以取均值或最大值,pooling(u,v)为池化后的结果;
经过卷积神经网络的特征输出公式如下:
F1=Conv1d(ConcateData) (7)
F2=Conv2d(Lofar) (8)
其中,ConcateData为融合后的海洋环境数据,convld为一维卷积,conv2d为二维卷积,F1为海洋环境数据经过一维卷积神经网络输出的特征向量;F2为Lofar谱图经过二维卷积神经网络输出的特征图;
2)将步骤1)得到的特征向量输入到一个全局平均池化层后得到一维卷积的全局特征向量,再将它输入到一个具有两层结构的一维卷积操作中,其输出的大小与Lofar谱图经过二维卷积操作后的通道数一致,公式如下所示:
F3=Conv1d(GAP(F1)) (9)
其中,GAP为全局平均池化;
3)将步骤2)输出的特征向量经过公式(10)的Sigmoid函数输出结果,将输出结果再与Lofar谱图经过二维卷积神经网络输出的特征图相乘,得到一组新的特征图,如公式(11);
Figure BDA0002670303950000041
Figure BDA0002670303950000042
4)将步骤3)输出的特征图输入到一个两层的卷积神经网络中进行训练,核的大小为3*3,通道数为128:
F=Conv2d(F4) (12)
其中,conv2d为二维卷积,F为特征图的融合结果;
再结合全连接层和softmax分类器获得最终的识别准确率:
acc=softmax(FC(F)) (13)
其中,FC为全连接层,softmax为神经网络分类器,acc为识别准确率。
上述方案中,步骤(4)中模型训练方法如下:
1)确保声呐信号和海洋环境数据是对应的,由此得到的Lofar谱图和处理后的海洋环境数据相互匹配;
2)将这些数据打包成数据集,并将其均匀分配至十个文件中,分配方法采用随机种子或哈希函数;
3)对划分的数据集采用十折交叉验证法,即使用一个文件中的数据做测试集,其余九个文件数据做训练集,重复十次后取均值,该值即为平均识别准确率。
通过上述技术方案,本发明提供的一种基于多模态融合的水下目标识别方法具有如下有益效果:
(1)与一般的水下目标识别方法不同,本发明还着重考虑了海洋环境数据,因为很多水下目标往往出现在某一固定的海域和深度,因此引入海洋环境数据是十分必要的。
(2)使用基于Lofar谱图和海洋环境数据的多模态融合模型,Lofar谱图是根据噪声的局部平稳特性对噪声信号连续时域采样,并进行短时傅里叶变换,能够很好的表征水声信号的时频特性,而海洋环境数据则考虑了水下目标的位置和深度等信息,两者有效的融合能够为水下目标识别提供更丰富的特征信息。
(3)本发明使用了海洋环境数据作为一组输入数据,并使用串联融合的方式将各个海洋环境数据进行连接,同时为了突出每个环境数据代表的意义,每个数据都将会重复至一定长度,以防止后续卷积操作丢失数据,最后使用数据归一化,使得每个数据之间具有可比性,能够输入到网络模型中进行训练。
(4)常用的多模态融合算法有Add和concatenate,但因为它们只是简单的特征相加或合并,因此不能有效的结合海洋环境数据,而本发明提出的多模态融合模块结合了注意力机制的思想能够合理的表达海洋环境数据对水下目标识别的影响程度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种基于多模态融合的水下目标识别方法流程示意图;
图2为本发明实施例所公开的多模态融合模型示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于多模态融合的水下目标识别方法,如图1所示,具体实施例如下:
一、数据采集,声呐信号数据采集和海洋环境数据采集;
二、数据融合与谱图提取,将海洋环境数据进行融合得到一维数据,由声呐信号提取Lofar谱图;
1、因为海洋上每个点的环境信息有很多,并且有有用信息,要想利用这些海洋环境信息需要使用合适的数据融合方法进行融合才能将这些环境数据输入到网络模型中进行学习。本发明使用串联融合的方式将环境信息融合成一条一维数据,具体操作步骤如下:
1)将字符数据转换成整型数据;如经纬度所代表的正负号,东经为正,西经为负,北纬为正,南纬为负。
1)2)数值拆解,如果数据为小数则拆成两个十进制整型数;例如温度数据为27.35则会拆成27和35。
2)3)扩张数据,为突出每个环境数据代表的含义并防止后续卷积操作丢失数据,设定每个数据占据64个长度;例如深度数据为15.4拆成15和04后重复这两个数字达到64个长度结束。
4)归一化处理,为了消除各个环境数据之间的量纲关系,使数据之间具有可比性,对每一条相对应的特征进行数值归一化。本发明使用均值归一化操作,如公式(1)所示:
Figure BDA0002670303950000061
其中,x代表原始数据,函数max、min和mean分别为对原始数据取最大值、最小值和均值,最终得出归一化数据x';
5)串联融合,将归一化后的不同模态数据直接串联成一条数据,如公式(2)所示:
f(x)=concat([local,temp,depth,time]) (2)
其中,local、temp、depth和time分别为对应采样点的经纬度、温度、深度和时间信息,经过concat串联函数实现不同模态的数据融合。
2、由声呐信号提取Lofar谱图的方法如下:
在对被动声呐接收到的噪声信号处理时,由于噪声信号的非平稳性,噪声信号的特性会随时间发生显著变化,不能直接使用傅里叶变换进行信号处理,因此使用短时傅里叶变换的Lofar谱图是被动声呐信号处理领域广泛使用的信号处理技术。
首先,将声呐信号序列划分为部分重叠的若干个信号段,对划分的重叠信号给定一个窗函数,令其在t轴上滑动,再对每段信号做短时傅里叶变换,短时傅里叶变换公式如下:
Figure BDA0002670303950000062
其中,x为声呐信号,t为时间窗的范围,t′为时间,x(t′)为声呐信号序列,γ*(t′-t)为窗函数,j为虚数,f为频率;
最后,取功率谱图即为信号的Lofar谱图,功率谱图定义为公式(4);
Figure BDA0002670303950000071
其中,FT(ω)为信号的短时傅里叶变换,T为信号周期。
三、模型搭建,构建基于卷积神经网络的多模态融合模型,其中海洋环境数据使用一维卷积神经网络,Lofar谱图使用二维卷积神经网络;
1)首先海洋环境数据经过一维卷积神经网络输出特征向量,同时Lofar谱图经过二维卷积神经网络输出特征图;
卷积神经网络中的卷积操作公式如下:
Figure BDA0002670303950000072
其中,w(m,n)为卷积核大小,c(i+m,j+n)为卷积区域,conv(i,j)为卷积结果;
池化操作公式如下:
pooling(u,v)=down(s(u+p,v+q)) (6)
其中s(u+p,v+q)为池化区域,p和q代表池化操作的步长,down为下采样操作,可以取均值或最大值,pooling(u,v)为池化后的结果;
经过卷积神经网络的特征输出公式如下:
F1=Conv1d(ConcateData) (7)
F2=Conv2d(Lofar) (8)
其中,ConcateData为融合后的海洋环境数据,convld为一维卷积,conv2d为二维卷积,F1为海洋环境数据经过一维卷积神经网络输出的特征向量;F2为Lofar谱图经过二维卷积神经网络输出的特征图;
2)将步骤1)得到的特征向量输入到一个全局平均池化层后得到一维卷积的全局特征向量,再将它输入到一个具有两层结构的一维卷积操作中,其输出的大小与Lofar谱图经过二维卷积操作后的通道数一致,公式如下所示:
F3=Conv1d(GAP(F1)) (9)
其中,GAP为全局平均池化;
3)将步骤2)输出的特征向量经过公式(10)的Sigmoid函数输出结果,将输出结果再与Lofar谱图经过二维卷积神经网络输出的特征图相乘,得到一组新的特征图,如公式(11);
Figure BDA0002670303950000081
Figure BDA0002670303950000082
4)将步骤3)输出的特征图输入到一个两层的卷积神经网络中进行训练,核的大小为3*3,通道数为128:
F=Conv2d(F4) (12)
其中,conv2d为二维卷积,F为特征图的融合结果;
再结合全连接层和softmax分类器获得最终的识别准确率:
acc=softmax(FC(F)) (13)
其中,FC为全连接层,softmax为神经网络分类器,acc为识别准确率。
本发明使用基于卷积神经网络的深度学习模型,其中海洋环境信息使用一维卷积神经网络,Lofar谱图使用二维卷积神经网络,卷积层具体参数如表1所示。
表1各卷积层的参数设置
kernel size channel stride
layer_1-2 16,5*5 32,32 4,2
layer_3-4 7,3*3 64,64 2,1
layer_5-6 3,3*3 128,128 1,1
注:每个框内左侧为1D-CNN右侧为2D-CNN。
将海洋环境数据和Lofar谱图的输出经过多模态融合模块实现二者的有效融合,最后输入到softmax函数中进行分类识别。多模态融合模型如图2所示。图中的FC代表全连接层。
四、目标识别,将采集到的数据输入到对应的网络中进行训练与测试,得到水下目标识别结果。
模型训练方法如下:
1)确保声呐信号和海洋环境数据是对应的,由此得到的Lofar谱图和处理后的海洋环境数据相互匹配;
2)将这些数据打包成数据集,并将其均匀分配至十个文件中,分配方法采用随机种子或哈希函数;
3)对划分的数据集采用十折交叉验证法,即使用一个文件中的数据做测试集,其余九个文件数据做训练集,重复十次后取均值,该值即为平均识别准确率。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种基于多模态融合的水下目标识别方法,其特征在于,包括如下步骤:
(1)数据采集,声呐信号采集和海洋环境数据采集;
(2)数据融合与谱图提取,将海洋环境数据进行融合得到一维数据,由声呐信号提取Lofar谱图;
(3)模型搭建,构建基于卷积神经网络的多模态融合模型,其中海洋环境数据使用一维卷积神经网络,Lofar谱图使用二维卷积神经网络;
(4)目标识别,将采集到的声呐信号和海洋环境数据输入到对应的网络中进行训练与测试,得到水下目标识别结果。
2.根据权利要求1所述的一种基于多模态融合的水下目标识别方法,其特征在于,步骤(2)中,对海洋环境数据进行融合的方法如下:
1)将字符数据转换成整型数据;
2)数值拆解,如果数据为小数则拆成两个十进制整型数;
3)扩张数据,使得每个数据占据64个字符长度;
4)归一化处理,使用均值归一化操作,如公式(1)所示:
Figure FDA0002670303940000011
其中,x代表原始数据,函数max、min和mean分别为对原始数据取最大值、最小值和均值,最终得出归一化数据x';
5)串联融合,将归一化后的不同模态数据直接串联成一条数据,如公式(2)所示:
f(x)=concat([local,temp,depth,time]) (2)
其中,local、temp、depth和time分别为对应采样点的经纬度、温度、深度和时间信息,经过concat串联函数实现不同模态的数据融合。
3.根据权利要求1所述的一种基于多模态融合的水下目标识别方法,其特征在于,步骤(2)中,由声呐信号提取Lofar谱图的方法如下:
首先,将声呐信号序列划分为部分重叠的若干个信号段,对划分的重叠信号给定一个窗函数,令其在t轴上滑动,再对每段信号做短时傅里叶变换,短时傅里叶变换公式如下:
Figure FDA0002670303940000012
其中,x为声呐信号,t为时间窗的范围,t′为时间,x(t′)为声呐信号序列,γ*(t′-t)为窗函数,j为虚数,f为频率;
最后,取功率谱图即为信号的Lofar谱图,功率谱图定义为公式(4);
Figure FDA0002670303940000021
其中,FT(ω)为信号的短时傅里叶变换,T为信号周期。
4.根据权利要求1所述的一种基于多模态融合的水下目标识别方法,其特征在于,步骤(3)的具体方法如下:
1)首先海洋环境数据经过一维卷积神经网络输出特征向量,同时Lofar谱图经过二维卷积神经网络输出特征图;
卷积神经网络中的卷积操作公式如下:
Figure FDA0002670303940000022
其中,w(m,n)为卷积核大小,c(i+m,j+n)为卷积区域,conv(i,j)为卷积结果;
池化操作公式如下:
pooling(u,v)=down(s(u+p,v+q)) (6)
其中s(u+p,v+q)为池化区域,p和q代表池化操作的步长,down为下采样操作,可以取均值或最大值,pooling(u,v)为池化后的结果;
经过卷积神经网络的特征输出公式如下:
F1=Conv1d(ConcateData) (7)
F2=Conv2d(Lofar) (8)
其中,ConcateData为融合后的海洋环境数据,convld为一维卷积,conv2d为二维卷积,F1为海洋环境数据经过一维卷积神经网络输出的特征向量;F2为Lofar谱图经过二维卷积神经网络输出的特征图;
2)将步骤1)得到的特征向量输入到一个全局平均池化层后得到一维卷积的全局特征向量,再将它输入到一个具有两层结构的一维卷积操作中,其输出的大小与Lofar谱图经过二维卷积操作后的通道数一致,公式如下所示:
F3=Conv1d(GAP(F1)) (9)
其中,GAP为全局平均池化;
3)将步骤2)输出的特征向量经过公式(10)的Sigmoid函数输出结果,将输出结果再与Lofar谱图经过二维卷积神经网络输出的特征图相乘,得到一组新的特征图,如公式(11);
Figure FDA0002670303940000031
Figure FDA0002670303940000032
4)将步骤3)输出的特征图输入到一个两层的卷积神经网络中进行训练,核的大小为3*3,通道数为128:
F=Conv2d(F4) (12)
其中,conv2d为二维卷积,F为特征图的融合结果;
再结合全连接层和softmax分类器获得最终的识别准确率:
acc=softmax(FC(F)) (13)
其中,FC为全连接层,softmax为神经网络分类器,acc为识别准确率。
5.根据权利要求1所述的一种基于多模态融合的水下目标识别方法,其特征在于,步骤(4)中模型训练方法如下:
1)确保声呐信号和海洋环境数据是对应的,由此得到的Lofar谱图和处理后的海洋环境数据相互匹配;
2)将这些数据打包成数据集,并将其均匀分配至十个文件中,分配方法采用随机种子或哈希函数;
3)对划分的数据集采用十折交叉验证法,即使用一个文件中的数据做测试集,其余九个文件数据做训练集,重复十次后取均值,该值即为平均识别准确率。
CN202010931223.5A 2020-09-07 2020-09-07 一种基于多模态融合的水下目标识别方法 Active CN112163461B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010931223.5A CN112163461B (zh) 2020-09-07 2020-09-07 一种基于多模态融合的水下目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010931223.5A CN112163461B (zh) 2020-09-07 2020-09-07 一种基于多模态融合的水下目标识别方法

Publications (2)

Publication Number Publication Date
CN112163461A true CN112163461A (zh) 2021-01-01
CN112163461B CN112163461B (zh) 2022-07-05

Family

ID=73858359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010931223.5A Active CN112163461B (zh) 2020-09-07 2020-09-07 一种基于多模态融合的水下目标识别方法

Country Status (1)

Country Link
CN (1) CN112163461B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926380A (zh) * 2021-01-08 2021-06-08 浙江大学 一种新型水下激光目标智能识别系统
CN113449682A (zh) * 2021-07-15 2021-09-28 四川九洲电器集团有限责任公司 一种基于动态融合模型识别民航领域射频指纹的方法
CN113679413A (zh) * 2021-09-15 2021-11-23 北方民族大学 一种基于vmd-cnn的肺音特征识别分类方法及系统
CN113962303A (zh) * 2021-10-21 2022-01-21 哈尔滨工程大学 基于密度融合的水下试验环境反演方法及系统
CN114462444A (zh) * 2021-12-21 2022-05-10 上海中船船舶设计技术国家工程研究中心有限公司 一种极地考察船的航行状态识别方法及系统
CN114636995A (zh) * 2022-03-16 2022-06-17 中国水产科学研究院珠江水产研究所 一种基于深度学习的水声信号检测方法及系统
CN115294832A (zh) * 2022-07-06 2022-11-04 中国船舶重工集团公司第七一五研究所 一种声呐设备训练数据生成方法
CN115995032A (zh) * 2023-03-23 2023-04-21 中国船舶集团有限公司第七一九研究所 一种多模态特征融合的舰船智能识别方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150078123A1 (en) * 2013-09-16 2015-03-19 Appareo Systems, Llc Synthetic underwater visualization system
CN108629357A (zh) * 2017-03-23 2018-10-09 中国科学院声学研究所 一种用于水下航行器的数据融合方法和系统
CN110245608A (zh) * 2019-06-14 2019-09-17 西北工业大学 一种基于半张量积神经网络的水下目标识别方法
CN110488301A (zh) * 2019-07-17 2019-11-22 中国人民解放军91388部队 一种多源信息融合的声纳综合目标识别方法
CN111627419A (zh) * 2020-05-09 2020-09-04 哈尔滨工程大学 一种基于水下目标及环境信息特征的声音生成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150078123A1 (en) * 2013-09-16 2015-03-19 Appareo Systems, Llc Synthetic underwater visualization system
CN108629357A (zh) * 2017-03-23 2018-10-09 中国科学院声学研究所 一种用于水下航行器的数据融合方法和系统
CN110245608A (zh) * 2019-06-14 2019-09-17 西北工业大学 一种基于半张量积神经网络的水下目标识别方法
CN110488301A (zh) * 2019-07-17 2019-11-22 中国人民解放军91388部队 一种多源信息融合的声纳综合目标识别方法
CN111627419A (zh) * 2020-05-09 2020-09-04 哈尔滨工程大学 一种基于水下目标及环境信息特征的声音生成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张健: "基于深度学习的水下目标识别的研究", 《万方学术》 *
黄涛: "基于多信息源的潜艇目标融合识别系统研究", 《情报指挥控制系统与仿真技术》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926380B (zh) * 2021-01-08 2022-06-24 浙江大学 一种新型水下激光目标智能识别系统
CN112926380A (zh) * 2021-01-08 2021-06-08 浙江大学 一种新型水下激光目标智能识别系统
CN113449682B (zh) * 2021-07-15 2023-08-08 四川九洲电器集团有限责任公司 一种基于动态融合模型识别民航领域射频指纹的方法
CN113449682A (zh) * 2021-07-15 2021-09-28 四川九洲电器集团有限责任公司 一种基于动态融合模型识别民航领域射频指纹的方法
CN113679413A (zh) * 2021-09-15 2021-11-23 北方民族大学 一种基于vmd-cnn的肺音特征识别分类方法及系统
CN113679413B (zh) * 2021-09-15 2023-11-10 北方民族大学 一种基于vmd-cnn的肺音特征识别分类方法及系统
CN113962303A (zh) * 2021-10-21 2022-01-21 哈尔滨工程大学 基于密度融合的水下试验环境反演方法及系统
CN113962303B (zh) * 2021-10-21 2024-04-26 哈尔滨工程大学 基于密度融合的水下试验环境反演方法及系统
CN114462444A (zh) * 2021-12-21 2022-05-10 上海中船船舶设计技术国家工程研究中心有限公司 一种极地考察船的航行状态识别方法及系统
CN114636995A (zh) * 2022-03-16 2022-06-17 中国水产科学研究院珠江水产研究所 一种基于深度学习的水声信号检测方法及系统
CN115294832A (zh) * 2022-07-06 2022-11-04 中国船舶重工集团公司第七一五研究所 一种声呐设备训练数据生成方法
CN115294832B (zh) * 2022-07-06 2024-02-27 中国船舶重工集团公司第七一五研究所 一种声呐设备训练数据生成方法
CN115995032A (zh) * 2023-03-23 2023-04-21 中国船舶集团有限公司第七一九研究所 一种多模态特征融合的舰船智能识别方法和系统

Also Published As

Publication number Publication date
CN112163461B (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
CN112163461B (zh) 一种基于多模态融合的水下目标识别方法
CN109446902A (zh) 一种基于无人平台的海洋环境与目标综合感知方法
CN106847309A (zh) 一种语音情感识别方法
CN105488466B (zh) 一种深层神经网络和水声目标声纹特征提取方法
CN111724770B (zh) 一种基于深度卷积生成对抗网络的音频关键词识别方法
Miao et al. Underwater acoustic signal classification based on sparse time–frequency representation and deep learning
CN108197591A (zh) 一种基于多特征融合迁移学习的鸟类个体识别方法
CN114564982A (zh) 雷达信号调制类型的自动识别方法
CN106844739B (zh) 一种基于神经网络协同训练的遥感图像变化信息检索方法
CN111414954B (zh) 一种岩石图像检索方法及其系统
CN113361636B (zh) 一种图像分类方法、系统、介质及电子设备
CN108810838A (zh) 基于智能手机室内背景声感知的房间级定位方法
CN114722926A (zh) 拖曳式传感器阵列中尺度涡时间序列图卷积聚类方法
CN116338628B (zh) 一种基于学习架构的激光雷达测深方法、装置及电子设备
CN107170004A (zh) 一种无人车单目视觉定位中对匹配矩阵的图像匹配方法
CN116992263A (zh) 一种基于多任务学习的水下航行器自噪声特征提取、识别与分离的方法
Niu et al. Deep learning for ocean acoustic source localization using one sensor
CN113570041B (zh) 一种神经网络以及利用该神经网络压制海上光纤拖缆地震数据噪声的方法
CN108399413B (zh) 一种图片拍摄区域识别及地理定位方法及装置
Qi et al. Underwater acoustic target recognition with fusion feature
Yu et al. Weakly supervised learning of point-level annotation for coral image segmentation
Park et al. Pretrained network-based sound event recognition for audio surveillance applications
CN111965601A (zh) 一种基于核极限学习机的水下声源被动定位方法
CN116597313B (zh) 一种基于改进YOLOv7的舰船光学图像尾迹检测方法
CN111624585A (zh) 一种基于卷积神经网络的水下目标被动检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant