CN113792774A - 一种水中目标智能融合感知方法 - Google Patents
一种水中目标智能融合感知方法 Download PDFInfo
- Publication number
- CN113792774A CN113792774A CN202111022610.8A CN202111022610A CN113792774A CN 113792774 A CN113792774 A CN 113792774A CN 202111022610 A CN202111022610 A CN 202111022610A CN 113792774 A CN113792774 A CN 113792774A
- Authority
- CN
- China
- Prior art keywords
- fusion
- underwater
- neural network
- matrix
- targets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 39
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims description 14
- 239000011159 matrix material Substances 0.000 claims abstract description 40
- 230000008447 perception Effects 0.000 claims abstract description 21
- 238000012795 verification Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000005315 distribution function Methods 0.000 claims abstract description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000009432 framing Methods 0.000 claims description 4
- 238000007500 overflow downdraw method Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
Abstract
本发明提供了一种水中目标智能融合感知方法,提取典型特征和深度特征并进行特征级融合,然后通过神经网路进行分类识别,并输出验证集的混淆矩阵和测试集的分类概率,计算出基本信度分配函数,最后通过证据融合理论进行决策级融合,实现对水中目标的智能融合感知。本发明将增强水中目标的感知能力,进一步提高各类水下探测识别系统性能,提高各类水下探测识别系统性能,可以使我方掌握各类水中目标的情况,从而更好地进行形势预判,掌握水下信息空间的制高点和主动权。
Description
技术领域
本发明涉及水下信号处理领域,尤其是一种涉及水下信号感知,深度神经网络,声信号处理和信息融合等的方法。
背景技术
当前国际形势下的战场实际是信息之间的战场,拥有信息战场上的非对称优势就拥有实际战场上的主动权。随着水下各类传感器监测网和人工智能技术的快速发展,海洋战场情报信息获取逐渐呈现出智能化的新趋势。
信息融合理论起源于水下信号处理,1973年,美国军方利用多个独立连续的声纳信号对敌方潜艇进行探测,发现其性能远优于利用单个声纳对潜艇的探测。这一尝试被认为对现代战争具有非常重要的意义。此后,海洋一直是信息融合最为重要和关注的研究对象。在军用领域,海洋信息融合是海上军事信息系统最为核心的关键支撑技术,其中较为典型的有美国海军90年代的协同作战能力(CEC)系统、21世纪提出的海上力量设想等。
对于水中目标融合感知问题的研究主要集中在水下不确定性信息的汇集和关联,水下信息融合结构和层次的定义优化,信息融合算法的有效性、鲁棒性、自适应性以及融合性能的评价等各个方面。水中目标融合感知研究中代表性的几种方法有Fisher判别分析法、主成分分析法、粗糙集理论、近似网格滤波法、小波分层图像融合法、粒子滤波法、双马尔可夫链模型法和基于熵规范的方法等。随着水中目标感知的智能化、快速化需求,越来越多的研究更加倾向于机器学习的理论方法。基于神经网络的传感器信息融合具有统一的内部知识表示形式,通过学习算法可将网络获得的传感器信息进行融合,便于实现知识自动获取及并行联想推理。
水中目标的各类物理场信号受海洋复杂环境因素的影响,呈现一定的不稳定性,表现为观测物理场信号受海洋信道的时-空-频变动态性、非线性和非高斯性,混响以及环境噪声等干扰和多径效应。单个传感器自身只能获取目标信息的一部分特性,加上海战中双方采取的多种电子对抗技术,导致传感器在获取过程中存在不确定因素,系统获取数据不精确、不完整和不可靠。上述诸种因素会导致仅靠单一传感器的水中目标识别系统因识别率低、鲁棒性差、可靠性不高而不能满足新形势下海战目标识别的要求。因此需利用不同类型传感器采集到的大量水中目标多维异构信息,结合深度神经网络与信息融合等智能方法,实现对水中目标的多级智能融合感知。
发明内容
为了克服现有技术的不足,本发明提供一种水中目标智能融合感知方法。针对单一传感器类型对水中目标识别系统因识别率低、鲁棒性差、可靠性不高的问题,本发明提出一种水中目标多物理场智能融合感知方法。提取典型特征和深度特征并进行特征级融合,然后通过神经网路进行分类识别,并输出验证集的混淆矩阵和测试集的分类概率,计算出基本信度分配函数。最后通过证据融合理论进行决策级融合,实现对水中目标的智能融合感知。本发明将对增强我国对敌方潜艇、军舰、UUV和蛙人等水中目标的感知能力,进一步提高各类水下探测识别系统性能,并为我国领海安全监测提供重要的理论和方法支撑。
本发明解决其技术问题所采用的技术方案的主要步骤如下:
第一步:传感器接收信号及预处理;
将不同物理场的L类传感器置于海洋环境中,获取水下k类目标的接收信号Xl,l=1,2,...L;对各传感器接收到的信号Xl进行时空统一和分帧预处理,得到预处理后的信号X;
第二步:信号特征提取及特征融合;
1)典型特征提取;
提取各信号X的时域、频域和统计域基础特征组成典型特征矩阵A;
2)深层特征提取
通过无监督自编码器提取X的深层特征组成深层特征矩阵B;
δ(X,E,D)=∑Dσ(∑EX)
式中E和D为自编码器网络参数,矩阵σ为非线性函数,通过使重构误差δ最小化训练自编码器网络,得到网络的参数E和D,进一步得到水中目标的深层特征向量B;
B=EX
3)特征级融合
通过串行融合方法将每个传感器的典型特征矩阵A和深层特征B合并为融合特征矩阵Q:
第三步:构建卷积神经网络
针对每个物理场构建具有多层卷积层和池化层的深度卷积神经网络分类器,则共有L个神经网络分类器,将融合特征矩阵Q作为卷积神经网络的输入,输出为水中目标类别标签及其概率值;
第四步:划分数据集并训练网络模型;
将各类目标的融合矩阵Q制作成数据集,将数据集划分成训练集、验证集和测试集,先用训练集对神经网络模型进行预训练,然后用验证集调节卷积神经网络的超参数,验证集分类正确率高于90%时,将此时的网络参数确定为神经网络模型的参数;
第五步:计算局部置信度;
通过每个神经网络分类器在验证集的最终分类混淆矩阵结果,计算每个分类器对每个分类结果的局部置信度:
其中cij表示i类被分类器判断成j类的样本数,k为水中目标的种类数,矩阵中的各个元素cij均通过验证集的分类混淆矩阵Cl获取;
第六步:计算基本信度分配函数;
在测试集进行神经网络分类,第l个分类器识别结果为第i类的输出概率Pl(i),通过验证集的局部置信度和测试集的输出概率计算基本信度分配函数:
ml(i)=Pl(i)Fl(i)
其中Fl(i)为第l个神经网络分类器中分类结果为第i类的局部置信度;
第七步:计算合成可信度;
通过证据融合理论计算不同物理场传感器的合成可信度:
第八步:输出决策结果
实现水中目标多物理场智能融合感知。
所述第三步中卷积神经网络中,卷积层的过程用下式表示:
池化层过程用下式表示:
Z=βdown(Y)+B2
式中,down()表示将Y进行池化操作,β表示乘偏置,B2表示池化偏置项;
输出层采用softmax函数,将分类输出概率映射在[0,1]之间,分类输出概率归一化和为1。
所述第四步中,数据集按照7:2:1划分成训练集、验证集和测试集。
所述第四步中,验证集调节卷积神经网络的超参数为学习率、批大小和迭代次数三类。
本发明的有益效果在于提出一种针对水中目标的多物理场智能融合感知方法。通过特征融合及决策级融合实现对多物理场的信息融合,并利用深度神经网络的实现强鲁棒性的智能感知。本发明将对增强我国对敌方潜艇、UUV和蛙人等水中目标的感知能力,进一步提高各类水下探测识别系统性能,可以使我方掌握各类水中目标的情况,从而更好地进行形势预判,有针对性地做出各类海上布防,掌握水下信息空间的制高点和主动权。同时该方法成功的将多传感器融合感知方法应用在了水中目标感知中,对于海洋目标智能感知,水下异常目标探测和智慧海洋及海洋防御建设具有深远意义,也推动了人工智能技术在海洋领域的进一步发展与应用,为我国海军水下智能武器装备提供技术支撑,为我国海洋军事智能化打下坚实的基础。
附图说明
图1是本发明的总体方法流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
实施例如下:
第一步:传感器接收信号及预处理
将矢量声传感器、压差传感器、甚低频地震波3类传感器置于海洋环境中,获取水下蛙人、UUV和舰艇3类目标的接收信号X1,X2,X3。对各传感器接收到的信号进行时空统一和分帧预处理,可通过确知信号检测等方法实现各传感器采集的信号时刻同步,然后将各类信号进行时长为1s的分帧处理,还可以针对不同传感器采取一些滤波的方法进行相应去噪处理。例如:对矢量水听器的信号采用高通滤波器,对压差传感器的信号采用带通滤波器,对甚低频地震波传感器采用低通滤波器。
第二步:信号特征提取及特征融合
1)典型特征提取
2)深层特征提取
通过无监督自编码器提取其深层特征组成深层特征矩阵B。
δ(X,E,D)=∑Dσ(∑EX)
式中E和D为自编码器网络参数矩阵,σ为非线性函数。通过使重构误差δ最小化来训练自编码器,得到网络的参数E和D,进一步得到水中目标的深层特征向量B。
B=EX
3)特征级融合
通过串行融合方法将各传感器的典型特征矩阵A和深层特征B合并为融合特征矩阵Q。
第三步:构建卷积神经网络
构建具有多层卷积层和池化层的深度卷积神经网络,将融合特征矩阵Q作为卷积神经网络的输入,输出为水中目标类别标签及其概率值。
卷积层的过程用下式表示:
池化层过程可以用下式表示:
Z=βdown(Y)+B2
式中,down()表示将Y进行池化操作,β表示乘偏置,B2表示池化偏置项。
输出层采用softmax函数,将分类输出概率映射在[0,1]之间,并且其归一化和为1。
可构建拥有4层卷积层,4层池化层,2层全连接层的卷积神经网络。卷积核均选用3*3,非线性激励函数选Relu函数,池化层选为2*2的平均池化。第一层全连接层拥有1024个节点,输出层采用softmax函数,输出节点给出分类概率。
第四步:划分数据集并训练网络模型
将数据集按照7:2:1划分成训练集、验证集和测试集。先用训练集训练神经网络模型,然后用验证集调节卷积神经网络的学习率、批次大小和迭代次数三类超参数,通过验证集分类正确率最高来确定神经网络的全部参数。学习率可选为0.0001-0.01,批次大小可选为10-30,迭代次数选为4-6次。
第五步:计算局部置信度
通过每个神经网络分类器在验证集的最终分类混淆矩阵结果,计算每个分类器对每个分类结果的局部置信度。
其中cij表示i类被分类器判断成j类的样本数,水中目标的种类数为3,其数值均通过验证集的分类混淆矩阵Cl获取。
第六步:计算基本信度分配函数
在测试集进行神经网络分类,第l个分类器识别结果为第i类的输出概率Pl(i)。通过验证集的局部置信度和测试集的输出概率计算基本信度分配函数。
ml(i)=Pl(i)Fl(i)
其中Fl(i)为第l个神经网络分类器中分类结果为第i类的局部置信度。
第七步:计算合成可信度
通过证据融合理论计算不同物理场传感器的合成可信度。
第八步:输出决策结果
实现水中目标多物理场智能融合感知。
Claims (6)
1.一种水中目标智能融合感知方法,其特征在于包括下述步骤:
第一步:传感器接收信号及预处理;
将不同物理场的L类传感器置于海洋环境中,获取水下k类目标的接收信号Xl,l=1,2,...L;对各传感器接收到的信号Xl进行时空统一和分帧预处理,得到预处理后的信号X;
第二步:信号特征提取及特征融合;
1)典型特征提取;
提取各信号X的时域、频域和统计域基础特征组成典型特征矩阵A;
2)深层特征提取
通过无监督自编码器提取X的深层特征组成深层特征矩阵B;
δ(X,E,D)=∑Dσ(∑EX)
式中E和D为自编码器网络参数,矩阵σ为非线性函数,通过使重构误差δ最小化训练自编码器网络,得到网络的参数E和D,进一步得到水中目标的深层特征向量B;
B=EX
3)特征级融合
通过串行融合方法将每个传感器的典型特征矩阵A和深层特征B合并为融合特征矩阵Q:
第三步:构建卷积神经网络
针对每个物理场构建具有多层卷积层和池化层的深度卷积神经网络分类器,则共有L个神经网络分类器,将融合特征矩阵Q作为卷积神经网络的输入,输出为水中目标类别标签及其概率值;
第四步:划分数据集并训练网络模型;
将各类目标的融合矩阵Q制作成数据集,将数据集划分成训练集、验证集和测试集,先用训练集对神经网络模型进行预训练,然后用验证集调节卷积神经网络的超参数,验证集分类正确率高于90%时,将此时的网络参数确定为神经网络模型的参数;
第五步:计算局部置信度;
通过每个神经网络分类器在验证集的最终分类混淆矩阵结果,计算每个分类器对每个分类结果的局部置信度:
其中cij表示i类被分类器判断成j类的样本数,k为水中目标的种类数,矩阵中的各个元素cij均通过验证集的分类混淆矩阵Cl获取;
第六步:计算基本信度分配函数;
在测试集进行神经网络分类,第l个分类器识别结果为第i类的输出概率Pl(i),通过验证集的局部置信度和测试集的输出概率计算基本信度分配函数:
ml(i)=Pl(i)Fl(i)
其中Fl(i)为第l个神经网络分类器中分类结果为第i类的局部置信度;
第七步:计算合成可信度;
通过证据融合理论计算不同物理场传感器的合成可信度:
第八步:输出决策结果
实现水中目标多物理场智能融合感知。
3.根据权利要求1所述的水中目标智能融合感知方法,其特征在于:
池化层过程用下式表示:
Z=βdown(Y)+B2
式中,down()表示将Y进行池化操作,β表示乘偏置,B2表示池化偏置项。
4.根据权利要求1所述的水中目标智能融合感知方法,其特征在于:
输出层采用softmax函数,将分类输出概率映射在[0,1]之间,分类输出概率归一化和为1。
5.根据权利要求1所述的水中目标智能融合感知方法,其特征在于:
所述第四步中,数据集按照7:2:1划分成训练集、验证集和测试集。
6.根据权利要求1所述的水中目标智能融合感知方法,其特征在于:
所述第四步中,验证集调节卷积神经网络的超参数为学习率、批大小和迭代次数三类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111022610.8A CN113792774B (zh) | 2021-09-01 | 2021-09-01 | 一种水中目标智能融合感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111022610.8A CN113792774B (zh) | 2021-09-01 | 2021-09-01 | 一种水中目标智能融合感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113792774A true CN113792774A (zh) | 2021-12-14 |
CN113792774B CN113792774B (zh) | 2024-01-12 |
Family
ID=78879437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111022610.8A Active CN113792774B (zh) | 2021-09-01 | 2021-09-01 | 一种水中目标智能融合感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113792774B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5790076A (en) * | 1995-08-28 | 1998-08-04 | Sypniewski; Jozef | Tracking sensor specially for computer applications |
CN110007366A (zh) * | 2019-03-04 | 2019-07-12 | 中国科学院深圳先进技术研究院 | 一种基于多传感器融合的生命搜寻方法以及系统 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN112115822A (zh) * | 2020-09-04 | 2020-12-22 | 西北工业大学 | 一种水下移动目标智能融合感知方法 |
-
2021
- 2021-09-01 CN CN202111022610.8A patent/CN113792774B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5790076A (en) * | 1995-08-28 | 1998-08-04 | Sypniewski; Jozef | Tracking sensor specially for computer applications |
CN110007366A (zh) * | 2019-03-04 | 2019-07-12 | 中国科学院深圳先进技术研究院 | 一种基于多传感器融合的生命搜寻方法以及系统 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN112115822A (zh) * | 2020-09-04 | 2020-12-22 | 西北工业大学 | 一种水下移动目标智能融合感知方法 |
Non-Patent Citations (3)
Title |
---|
LING WANG ET AL.: ""Target localization based on weighted total least squares in underwater acoustic networks"", 《2019 IEEE INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING, COMMUNICATIONS AND COMPUTING (ICSPCC)》 * |
王海燕, 贺一平, 申晓红, 田娜, 胡亮: "相关证据下的水中目标识别方法研究", 探测与控制学报, no. 01 * |
马石磊等: "《兵工学报》", "复杂海洋环境噪声下甚低频声信号检测方法", vol. 41, no. 12 * |
Also Published As
Publication number | Publication date |
---|---|
CN113792774B (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115822B (zh) | 一种水下移动目标智能融合感知方法 | |
CN110728360B (zh) | 一种基于bp神经网络的微能源器件能量识别方法 | |
CN114358123B (zh) | 一种基于深度对抗迁移网络的广义开放集故障诊断方法 | |
CN107255818A (zh) | 一种两维多特征融合的水下目标快速检测方法 | |
CN114595732B (zh) | 基于深度聚类的雷达辐射源分选方法 | |
CN113132399A (zh) | 一种基于时间卷积网络和迁移学习的工业控制系统入侵检测方法 | |
CN108596044B (zh) | 基于深度卷积神经网络的行人检测方法 | |
Ye et al. | Recognition algorithm of emitter signals based on PCA+ CNN | |
CN115114949A (zh) | 一种基于水声信号的舰船目标智能识别方法及系统 | |
CN113707175B (zh) | 基于特征分解分类器与自适应后处理的声学事件检测系统 | |
CN115147645A (zh) | 基于多特征信息融合的膜组件膜污染检测方法 | |
CN113177097B (zh) | 一种基于属性聚类与时空约束的航迹起始判别方法 | |
CN113435276A (zh) | 一种基于对抗残差网络的水声目标识别方法 | |
Liu et al. | Design and performance evaluation of a deep neural network for spectrum recognition of underwater targets | |
CN113792774B (zh) | 一种水中目标智能融合感知方法 | |
CN110969203B (zh) | 基于自相关和cam网络的hrrp数据去冗余方法 | |
Pandey et al. | A metaheuristic autoencoder deep learning model for intrusion detector system | |
CN113570041B (zh) | 一种神经网络以及利用该神经网络压制海上光纤拖缆地震数据噪声的方法 | |
Alouani et al. | A spatio-temporal deep learning approach for underwater acoustic signals classification | |
CN116434074A (zh) | 基于邻支互补显著性和多先验稀疏表征的目标识别方法 | |
Chen et al. | A review of underwater target recognition based on deep learning | |
Kong et al. | Automatic detection technology of sonar image target based on the three-dimensional imaging | |
CN113177520B (zh) | 一种基于集成学习的智能辐射源识别方法 | |
CN113095381B (zh) | 一种基于改进型dbn的水声目标辨识方法及系统 | |
Bach | Improving the classification of propeller ships using lofar and triple loss variational auto encoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |