CN114266977B - 基于超分辨可选择网络的多auv的水下目标识别方法 - Google Patents

基于超分辨可选择网络的多auv的水下目标识别方法 Download PDF

Info

Publication number
CN114266977B
CN114266977B CN202111607003.8A CN202111607003A CN114266977B CN 114266977 B CN114266977 B CN 114266977B CN 202111607003 A CN202111607003 A CN 202111607003A CN 114266977 B CN114266977 B CN 114266977B
Authority
CN
China
Prior art keywords
target
auv
image
similarity
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111607003.8A
Other languages
English (en)
Other versions
CN114266977A (zh
Inventor
于菲
何波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Pengpai Ocean Exploration Technology Co ltd
Original Assignee
Qingdao Pengpai Ocean Exploration Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Pengpai Ocean Exploration Technology Co ltd filed Critical Qingdao Pengpai Ocean Exploration Technology Co ltd
Priority to CN202111607003.8A priority Critical patent/CN114266977B/zh
Publication of CN114266977A publication Critical patent/CN114266977A/zh
Application granted granted Critical
Publication of CN114266977B publication Critical patent/CN114266977B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开一种基于超分辨可选择网络的多AUV的水下目标识别方法,采集声学图像与光学图像信息,进行色彩恢复和数据重构,通过图像超分辨率提升图像质量,实现水下图像的超分辨率;目标特征提取以及目标特征相似度量:基于轻量级的卷积神经网络,融合多AUV收集的目标信息的特征,采用马氏距离计算特征之间的相似度;设定阈值,根据阈值与相似度之间的关系设计学习模型,分别进行不同情况下的目标识别;当相似度高于阈值时,采用改进的迁移学习进行识别,减少AUV计算能耗,保证算法的实时性。当相似度低于阈值时,则采用少样本学习对目标进行识别,对背景复杂造成的特征不明显的目标信息进行集中训练,提取有效特征,减少环境因素的干扰,实现实现多AUV的高效水下目标识别。

Description

基于超分辨可选择网络的多AUV的水下目标识别方法
技术领域
本发明属于海底勘测技术领域,具体涉及一种基于超分辨可选择网络的多AUV水下目标识别方法,用以实现AUV的海洋目标识别。
背景技术
AUV可以广泛应用于科研调查、军事、民用等领域。其上搭载的声学与光学传感器采集的数据使用越来越广泛。传感器信息识别在海洋感知的研究领域中发挥着重要作用,例如障碍物检测以规避风险,水下结构安全检查,搜索感兴趣的目标。在水下成像系统中,声学传感器和光学传感器是用于水下探测的两种主要成像模式,声学图像和光学图像的在线识别是AUV自主能力的关键。
传统的水下目标识别大多是一个人为主动型活动,从收集的大量数据中线下人为推断目标是否存在于该区域,人为识别耗时且昂贵,并且识别率较低;水下环境多为背景,有效目标较少,若想实现全面识别,需要采集大量的水下目标进行识别,此途径需要大量的人力和物力去采集数据,代价较大;线下识别不能实现AUV的实时感知,自主性较差。以上原因限制了AUV感知水下环境,难以完成持续、自主、实时的任务。
目前,利用AUV实现海洋感知,主要采用深度学习方法,但是,对于AUV采集的低质数据往往未进行有效处理,因此,算法的识别精度不高;另外,水下目标较少,样本稀缺,深度神经网络会出现过拟合现象,总而言之,对于基于AUV的水下目标识别仍然存在以下问题:(1)水下图像具有高噪声,高模糊等特性,数据质量较差,不能进行很好的水下目标识别。(2)海洋目标采集困难,数据样本不足,获取有效数据较少,难以进行精确识别。(3)对未知目标不能进行准确识别,导致AUV的水下感知能力较弱
发明内容
本发明为解决水下图像分辨率低、样本缺少以及对于未知目标不能进行有效识别等缺陷而造成的识别率低等问题,提出一种基于超分辨可选择网络的多AUV水下目标识别方法。
本发明是采用以下的技术方案实现的:一种基于超分辨可选择网络的多AUV水下目标识别方法,包括以下步骤:
步骤A、采集声学图像与光学图像信息,进行色彩恢复和数据重构,实现图像超分辨率,提升图像质量;
步骤B、目标特征提取以及目标特征相似度量:基于轻量级的卷积神经网络,融合多AUV收集的目标信息的特征,采用马氏距离计算特征之间的相似度;
步骤C、设定阈值,根据阈值与相似度之间的关系设计学习模型,分别进行不同情况下的目标识别;
当相似度大于等于阈值时,采用改进的迁移学习对目标进行识别:基于改进型的mobilenetv2权重初始化deeplabv3+网络,对目标进行识别;
当相似度小于阈值时,采用少样本学习对目标进行识别,对背景复杂造成的特征不明显的目标信息进行集中训练,提取有效特征;
步骤D、通过多AUV从不同方位对目标进行识别,进而将每个方向的AUV识别信息进行融合得到更精确的识别结果。
进一步的,所述步骤A中,在进行色彩恢复和数据重构时,采用以下方式:
(1)采集图像的色彩恢复处理:
原始图像表示为:
S(x,y)=R(x,y)·L(x,y)
其中,L(x,y)表示亮度图像,R(x,y)表示图像的内在属性,S(x,y)为原始图像,则:
Figure GDA0004059617280000021
其中,r(x,y)为输出图像,*为卷积操作,F(x,y)为中心环绕函数,表示为:
Figure GDA0004059617280000022
其中,c为高斯环绕尺度,λ为尺度值;
色彩恢复的计算公式如下:
Figure GDA0004059617280000023
其中,K为高斯中心环绕函数的个数;
(2)基于CNN的数据重构:
首先获得输入图像X获得一系列特征图:
F1(X)=max(0,W1*X+B1)
其中W1和B1表示滤波器的权重和偏置,max操作对应ReLU激活函数;
然后进行非线性映射:
F2(X)=max(0,W2*F1(X)+B2)
最后进行图像重构:
Y=F(X)=W3*F2(X)+B3
可以实现图像的超分辨率。
进一步的,所述步骤B具体包括以下步骤:
步骤B1、基于卷积神经网络CNN提取目标特征:
(1)对卷积神经网络视觉上进行可视化解释:
Figure GDA0004059617280000031
其中c表示类别,yc是该类别对应的输出结果,A表示卷积输出的特征图,k表示特征图的通道,i,j表示特征图的横纵坐标,Z表示特征图的尺寸;
(2)得到权重后将特征图的通道线性加权融合在一起,公式如下:
Figure GDA0004059617280000032
该过程只保留对于类别c有正作用的区域;
步骤B2、利用马氏距离来度量特征之间的相似性,计算目标特征的相似度:
设每个AUV共采集了m个样本,每个样本中包含了n个特征,则该AUV采集的数据矩阵用X来表示:
X=[X1,X2,…,Xn]
该样本的总体平均值为:
μX=[μX1X2,…,μXn]
Figure GDA0004059617280000033
数据矩阵的协方差为
Figure GDA0004059617280000034
则任意AUV特征向量与源域之间的马氏距离为:
Figure GDA0004059617280000035
通过计算马氏距离,来确定每个AUV当前采集的样本特征是否与源域存储的特征相似。
进一步的,所述步骤C中,迁移学习主要采用以下方式实现:
(1)初始训练:
设源域中的数据为
Figure GDA0004059617280000038
其中
Figure GDA0004059617280000039
为输入高分辨率图像,
Figure GDA00040596172800000310
为迁移学习输出的识别图像;AUV采集的目标域数据为
Figure GDA00040596172800000313
希望应用该网络预测出输入
Figure GDA00040596172800000311
对应的结果
Figure GDA00040596172800000312
P和Q分别为XS和XT的边缘分布,且P≠Q;迁移学习的目的主要是找到XS和XT的潜在的共同表示;令期望的非线性变换为
Figure GDA00040596172800000314
其非线性表示为:
Figure GDA0004059617280000036
Figure GDA0004059617280000037
P和Q之间的距离表示为:
Figure GDA0004059617280000041
通过迁移学习的方法,不断优化P和Q之间的距离,实现对目标域的准确识别;
(2)通过反馈的方式对网络参数(W,b,Lc)进行调整,以减少预测误差:
设Q是源任务的最优知识矩阵,向新任务知识矩阵的转移表示如下:
Qi1=fi1(W,b,Lc)i1∈{1,2,…,N}
Qi1表示AUVi1通过迁移学习获得一个新的知识矩阵,即基于迁移学习的AUV识别目标,fi1为迁移学习方法,W为权重,b为偏置,Lc表示对类别c有正作用的区域。
进一步的,所述步骤C中,少样本学习采用以下方式实现:
(a)基于原型学习模块对给定支持集的查询集进行分类,并学习原型;
(b)利用查询图像和从(a)中学习的原型来输出预测的分割掩码,该分割模块采用了轻量级编码解码器来实现;
(c)每个概率映射都与查询图像连接,尺寸与查询图像相同,然后输入原型分类器以生成一个特征向量,通过相似度度量函数d计算特征向量和原型相似度分数;
进一步的,所述步骤(a)中,支持集用
Figure GDA0004059617280000042
来表示,其中xi2表示[Hi2,Wi2,3],yi2为xi2对应的金标准,NS为支持集的个数;
查询集用
Figure GDA0004059617280000043
来表示,其中xq为不包含在S中的大小为[Hi3,Wi3,3]的图像,NQ为查询集的个数;
假定fθ表示一个含有参数θ的特征提取器,fθ将输入映射到一个含M个通道的特征图,然后使用全局平均池化(GAP)来从特征图中过滤出空间信息,其输出为一个M维的特征向量,定义类别c的均值特征向量:
Figure GDA0004059617280000044
其中Sc是S中只包含语义类c的子集,|Sc|=K,GAP为迁移学习的全局平均池化;
通过fθ的距离度量来学习,在得到原型p后,使用非参数加权最近邻分类器对语义类进行分类,yq能被分解成N+1个二值掩码
Figure GDA0004059617280000045
其中c∈{1,…,N+1}。
进一步的,所述步骤(b)中:
使用编码解码器对数据进行分割:
编码器的输出表示为
I=σ1(W1xq+b1
解码器的输出表示为
D=σ2(W2h+b2
特征提取器的输出为
Figure GDA0004059617280000053
其中,W1和W2为权重,b1和b2为偏置,σ1和σ2分别为分割模块的编码器和解码器,
Figure GDA0004059617280000055
表示分割模块中参数为
Figure GDA0004059617280000057
的特征提取器;
使用上采样将特征图
Figure GDA0004059617280000056
恢复到和(a)模块输出的特征向量相同的大小,再经过叠加,将
Figure GDA0004059617280000054
和原型网络(a)的输出相融合;
然后,使用1×1卷积将上述特征压缩成单通道特征图,并融合不同通道之间的信息,让lα表示softmax前的αth通道,nβ表示归一化后的βth通道的特征映射,如下表示:
lα=Wβ,αnβ
在训练过程中使用多类交叉损失函数:
Figure GDA0004059617280000051
其中,xq为查询集的图像,yq为其对应的标注,Hq和Wq为图像的尺寸,j为遍历空间位置,c∈{1,…,N+1},N为类别个数,通过最小化Jθ(xq,yq)来训练该模型。
进一步的,所述步骤(c)具体采用以下方式实现:
在得到原型分类器后,将每个概率映射都与查询图像连接,将尺寸转换为与查询图像相同,然后输入原型分类器以生成一个特征向量,通过相似度度量函数d计算特征向量和原型相似度分数,步骤如下:
(1)将步骤(b)中的概率特征图与查询数据集xq进行叠加;
(2)使用步骤(a)中的原型分类器fθ对上述步骤的输出进行计算,然后经过全局平均池化(GAP),得到新的特征向量;
(3)通过相似度量函数d,计算(a)中学习得到的原型与上述步骤中的特征向量之间的相似度,并将融合使用的权重与(b)的概率图输出进行概率融合,最后输出识别结果。
进一步的,所述步骤D中具体采用以下方式实现:
基于支持向量机分类与贝叶斯决策融合将多个方向的AUV获得的目标识别结果进行融合,单个AUV的目标识别表示为yi1={yi1,c;c=1,2,…,C},其中,c其C为被识别的目标种类,i1∈I代表了第i1个AUV,根据贝叶斯准则,多AUV目标识别输出为:
Figure GDA0004059617280000052
其中,p(xk|c)表示第k张图像识别为c的概率。
与现有技术相比,本发明的优点和积极效果在于:
本方案基于图像的超分辨率算法,实现色彩恢复和数据重构;基于轻量级的CNN实现目标特征提取以及采用马氏距离计算目标特征相似度量方法;并设定阈值,根据阈值选择采用迁移学习或者少样本目标学习;
通过提出超分辨率方法,对多AUV采集的声学图像与光学图像信息进行色彩恢复和数据重构,提升图像质量,实现水下图像的超分辨率;
采用目标特征提取以及目标特征相似度量方法,根据阈值与相似度之间的关系设计学习模型,分别进行不同情况下的目标识别。当相似度高于阈值时,采用改进的迁移学习进行识别,减少AUV计算能耗,保证算法的实时性。当相似度低于阈值时,则采用少样本学习对目标进行识别,对背景复杂造成的特征不明显的目标信息进行集中训练,提取有效特征,减少环境因素的干扰,实现实现多AUV的高效水下目标识别。能够有效减少作业时间,实现高效率的海洋感知。
附图说明
图1为本发明实施例目标特征提取示意图;
图2为本发明实施例各个模块协同工作的流程示意图,(a)为mobileNetV2的原始结构,(b)为clip_mobilenetv2结构;
图3为本发明实施例可选择网络中的迁移学习网络示意图;
图4为本发明实施例可选择网络中的少样本学习流程图。
具体实施方式
为了能够更加清楚地理解本发明的上述目的、特征和优点,下面结合附图及实施例对本发明做进一步说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开的具体实施例。
本实施例公开一种基于超分辨可选择网络的AUV水下目标识别方法,实现多AUV的高效水下目标识别,总体流程图见表1,包括如下步骤:
步骤A、采集声学图像与光学图像信息,进行色彩恢复和数据重构,通过图像超分辨率提升图像质量,实现水下图像的超分辨率;
步骤B、目标特征提取以及目标特征相似度量:基于轻量级的卷积神经网络,融合多AUV收集的目标信息的特征,采用马氏距离计算特征之间的相似度;
步骤C、设定阈值,根据阈值与相似度之间的关系设计学习模型,分别进行不同情况下的目标识别;
当相似度高于阈值时,采用改进的迁移学习进行识别,减少AUV计算能耗,保证算法的实时性。
当相似度低于阈值时,则采用少样本学习对目标进行识别,对背景复杂造成的特征不明显的目标信息进行集中训练,提取有效特征,减少环境因素的干扰;
步骤D、通过多AUV从不同方位对目标进行识别,将每个识别信息进行融合,可以高效的识别水下目标,提高识别精度。
表1总体流程
Figure GDA0004059617280000071
具体的,所述步骤A中,针对水下目标数据采集,本发明采用搭载AUV的两种传感器:声呐(侧扫声呐或者前视声呐)与水下摄像机,分别采集声学图像与光学图像。
声呐主要实现信号发射、信号采集、信号接收、信号处理,最后上传数据。由于声学传感器采集的图像具有散斑噪声多、图像只有灰度等特性,声学传感器由于其声学性质而提供嘈杂的灰度图像对后续的目标识别带来挑战。水下摄像机主要实现把光学图像信号转变为电信号,并将其传输和存储在AUV内存中,因此得到视频信号,本实施例对其每一帧的数据进行识别。但是获取数据的前提是需要光源辅助,水下光学传感器的可见距离约为5到10米,然而,由于散射和吸收的影响,在大多数情况下,能见度限制在1-2米。光学传感器在具有噪声介质和有限的光源的高浑浊水下环境中采集的图像分辨率低。因此对于光学图像的识别也存在巨大挑战。
同时,水下采集数据手段有限,耗费巨大的人力和物力,采集的数据多为背景,有效信息较少,样本数据匮乏,在先验知识不足的情况下,不能进行精准识别。另外,在AUV的实时采集数据中采集到未知样本,在该情况下不能正确的识别样本目标,降低AUV的实时感知能力。
因此,本发明旨在提升数据质量和优化算法能力,对采集的数据先解决低质量问题,提升分辨率,再将高分辨率数据输入优化的算法中,提升AUV的在线识别能力。
实现有效识别目标的关键是保证输入为高质量的数据,即输入数据应该具有低噪声和高分辨率。在实际应用中,AUV采集的水下图像受到传感器设备持续随机性震荡及环境影响,通常具有模糊和纹理不清晰等特点,对于大部分水下声学图像和光学图像,都具有图像成像质量差的特点。本实施例针对水下弱观测条件下的图像进行超分辨率算法,实现端到端处理数据,使后续识别部分具有更加完整的特征信息。
超分辨率算法包含两个步骤:色彩恢复和数据重构,具体的:
(1)色彩恢复
原始图像可以表示为:
S(x,y)=R(x,y)·L(x,y)
其中,L(x,y)表示亮度图像,对于声学图像数据,默认该值为1,R(x,y)表示图像的内在属性,S(x,y)为原始图像,则:
Figure GDA0004059617280000081
其中,r(x,y)为输出图像,*为卷积操作,F(x,y)为中心环绕函数,可以表示为
Figure GDA0004059617280000082
其中,c为高斯环绕尺度,λ为尺度值。
色彩恢复的计算公式如下:
Figure GDA0004059617280000083
其中,K为高斯中心环绕函数的个数,在本发明中,K默认值为3,
Figure GDA0004059617280000084
(2)数据重构
经过上述步骤,实现了采集图像的色彩恢复处理,但是,为了进一步体现水下图像的纹理信息,实现高分辨率的输入,本实施例进一步采用CNN对图像进行处理,来重构原始图像。该网络为简单的3层卷积神经网络,计算量少,并且可以高效的提取纹理信息。
首先获得输入图像X获得一系列特征图:
F1(X)=max(0,W1*X+B1)
其中W1和B1表示滤波器(卷积核)的权重和偏置,max操作对应ReLU激活函数。
接下来进行非线性映射:
F2(X)=max(0,W2*F1(X)+B2)
最后进行图像重构:
Y=F(X)=W3*F2(X)+B3
经过以上步骤就可以实现图像的超分辨率,为后续的识别网络提供高质量的输入。
所述步骤B中,进行目标特征提取以及目标特征相似度量,具体的:
实现有效识别的另一关键是目标特征的有效收集和提取,考虑到某些目标特征是在已知的先验源域中已经有相应的“知识储备”,证明该目标经过提取特征之后可以认定目标种类,此时直接将超分辨数据进行后续的深度神经网络识别,进行大量的计算,会降低AUV的实时性,在这种情况下,本实施例将该步骤简化,只有该目标与源域特征差距较大时,才可进行进一步的神经网络目标识别。本发明在此增加一步目标特征提取以及计算目标特征的相似度,可以降低后续目标识别的计算量,并且节省在线目标识别时间,提高自主在线识别能力。
(1)对超分辨率的图像进行特征提取,本发明采用基于卷积神经网络(CNN)提取目标特征。目标提取流程图如图1所示:
为了更好地理解CNN提取的特征,对其视觉上进行可视化解释:
Figure GDA0004059617280000091
其中c表示类别,yc是该类别对应的logits(softmax层之前的输出结果),A表示卷积输出的特征图,k表示特征图的通道,ij表示特征图的横纵坐标,Z表示特征图的尺寸。
得到权重后将特征图的通道线性加权融合在一起,公式如下,该过程只保留对于类别c有正作用的区域。
Figure GDA0004059617280000092
(2)计算目标特征的相似度
该相似度计算可以为后续目标识别方法进行判定,若相似度较大,则后续采取改进的轻量级迁移学习,对目标识别网络进行微调即可,简化识别过程,提升识别时间。若相似度较小,则进行少样本目标识别,对背景复杂造成的特征不明显的目标信息进行集中训练,提取有效特征,减少环境因素的干扰。
多AUV系统在目标识别过程中,需要将自身提取的特征分别与存储的特征以及其他AUV对当前目标提取的特征进行比较,本发明利用马氏距离来度量特征之间的相似性。
假设每个AUV共采集了m个样本,每个样本中包含了n个特征,则该AUV采集的数据矩阵用X来表示:
Figure GDA0004059617280000101
上述公式可以用Xk=[x1k,x2k,…,xnk]T,k=1,2,…,n,进而可以表示为X=[X1,X2,…,Xn]
该样本的总体平均值为:
μX=[μX1X2,…,μXn]
Figure GDA0004059617280000102
数据矩阵的协方差为
Figure GDA0004059617280000103
则任意AUV特征向量与源域之间的马氏距离为
Figure GDA0004059617280000104
上式中,通过计算马氏距离,可以得到每个AUV当前采集的样本特征是否与源域存储的特征相似,进而进行第三步的目标识别,若相似度较高,则采用迁移学习对目标进行识别,若相似度较低,则证明存储的特征不足以识别出该目标的种类,此时采用少样本学习对该目标进行识别。
步骤C中,根据阈值与相似度之间的关系确定采用改进的迁移学习进行识别还是采用少样本学习对目标进行识别,具体的:
由于AUV在水下采集数据的人工成本较高,先验知识不够,识别算法不能满足各种目标类型。因此,本发明提出了一种基于可选择网络的目标识别算法(alternativenetwork,AN)。
AN算法根据特征相似度来决定使用算法,对当前AUV的目标特征与源域特征进行比较,根据相似度与阈值τ的差值关系来选择相应的识别方法:
Figure GDA0004059617280000105
根据概率密度函数,归一化之后,本实施例τ取值范围为0.5-07。
(1)迁移学习
由于水下环境复杂多变,AUV在实际工作中所获得的数据并非理想数据,存在目标变形、目标模糊、目标特征不明显等现象,同一目标在动态环境下由不同AUV成像总是会存在差异,当dM(XAUV,XS)≥τ时,表明置信度高,当前目标特征与源域特征相似。因此,在对目标进行识别时需要对识别网络进行调整,使其适用于AUV实时采集的水下目标识别,因此,本实施例采用改进型的轻量级迁移学习来对目标进行识别,该方法识别速度快,节省AUV在线目标识别时间。
考虑到AUV嵌入式系统计算量有限,需要有一个轻量级且精确度高的深度卷积神经网络实时处理信息,本发明主要利用改进型的mobilenetv2(clip_mobilenetv2)权重初始化deeplabv3+网络对目标进行识别,其主干为改进型clip_mobilenetv2。由于AUV实时采集的水下图像质量相比于基准数据集,图像纹理不清晰,特征不明显,因此该网络结合了deeplabv3+空洞卷积的优势,引入更多的尺度信息,将底层特征与高层特征进一步融合,提升分割边界准确度,同时,在上述步骤中已经确定当前AUV采集目标特征与源域相似度很高,因此不需要更深的网络对目标进行识别,更深的网络只会增加计量算,延缓在线识别时间,本发明对该网络进行裁剪,裁剪了4个瓶颈残差块,裁剪部分用1×1的卷积来代替,保证网络尺寸不变性以及AUV输出识别图像的尺寸不变性,clip_mobilenetv2结构见图2。
如图2,(a)为mobileNetV2原始基础结构,在该图展示了四个瓶颈残差块,在图(b)中裁剪了两个瓶颈残差块,采用1×1的卷积来代替原始的瓶颈残差块,通过降维,减少权重参数数量,通过升维,来拓宽特征图,在不改变特征图的尺寸的前提下,实现各通道之间的线性组合,实际上是通道像素之间的线性组合,后接非线性的激活函数,增加更多样的非线性特征。deeplabv3+clip_mobilenetv2大大降低了网络的计算量,相比于原始网络具有更加轻量级特性,其总体流程见图3。
在该迁移学习中,关注的是目标域中存在先验知识(AUV源域)不存在的类别。假设源域中的数据为
Figure GDA0004059617280000114
其中
Figure GDA00040596172800001110
为输入高分辨率图像,
Figure GDA0004059617280000119
为迁移学习输出的识别图像;AUV采集的目标域数据为
Figure GDA0004059617280000115
希望应用该网络预测出输入
Figure GDA0004059617280000116
对应的结果
Figure GDA0004059617280000117
P和Q分别为XS和XT的边缘分布,且P≠Q;迁移学习的目的主要是找到XS和XT的潜在的共同表示;令期望的非线性变换为
Figure GDA0004059617280000118
其非线性表示为:
Figure GDA0004059617280000111
Figure GDA0004059617280000112
P和Q之间的距离表示为:
Figure GDA0004059617280000113
通过提出的迁移学习的方法,不断优化P和Q之间的距离,实现对目标域的可靠识别。
初始训练完成后,可以通过反馈的方式对网络参数(W,b,Lc)进行调整,以减少预测误差。假设Q是源任务的最优知识矩阵,向新任务知识矩阵的转移可以表示如下:
Qi1=fi1(W,b,Lc)i1∈{1,2,…,N}
Qi1表示AUVi1通过迁移学习获得一个新的知识矩阵,即基于迁移学习的AUV识别目标,fi1为迁移学习方法,W为权重,b为偏置,Lc表示对类别c有正作用的区域。
(2)少样本学习
由于AUV是在水下弱观测条件下采集的数据,因此在CNN提取特征时,也会存在dM(XAUV,XS)<τ的情况。在该情况下,AUV采集的目标特征属于未知特征,因此,上述迁移学习的微调对于未知特征不能进行很好的识别,我们需要采用少样本目标识别来提升识别准确率。另外,对于水下大部分采集信息,高精度的预测需要大量的手动注释数据,而由于环境干扰存在识别模糊等情况,这些数据往往难以获得。因此本实施例采用少样本学习方法对该种情况进行水下目标识别。该方法分为三个模块,具体流程见图4:
(a)是原型学习模块,采用上述的迁移学习网络作为原型学习器,原型学习模块对给定支持集的查询集进行分类,并学习原型;
在该模块中,支持集用
Figure GDA0004059617280000123
来表示,其中xi2表示[Hi2,Wi2,3],yi2为xi2对应的金标准,NS为支持集的个数。查询集用
Figure GDA0004059617280000124
来表示,其中xq为不包含在S中的大小为[Hi3,Wi3,3]的图像,NQ为查询集的个数。假定fθ表示一个含有参数θ的特征提取器,fθ将输入映射到一个含M个通道的特征图。然后使用全局平均池化(GAP)来从特征图中过滤出空间信息,其输出为一个M维的特征向量,本实施例定义类别c的均值特征向量:
Figure GDA0004059617280000121
其中Sc是S中只包含语义类c的子集,|Sc|=K,GAP为迁移学习的全局平均池化。
通过fθ的距离度量来学习,在得到原型p后,使用非参数加权最近邻分类器对语义类进行分类。yq能被分解成N+1个二值掩码
Figure GDA0004059617280000125
其中c∈{1,…,N+1}。
优化的目标是最大化
Figure GDA0004059617280000122
(b)是一个分割模块,利用查询图像和从(a)中学习的原型来输出预测的分割掩码,该分割模块采用了轻量级编码解码器来实现;
在该模块中,使用编码解码器对数据进行分割。
编码器的输出表示为
I=σ1(W1xq+b1)
解码器的输出表示为
D=σ2(W2h+b2)
特征提取器的输出为
Figure GDA0004059617280000126
其中,W1和W2为权重,b1和b2为偏置,σ1和σ2分别为分割模块的编码器和解码器。
Figure GDA0004059617280000135
表示分割模块中参数为
Figure GDA0004059617280000136
的特征提取器。
本实施例使用上采样将特征图
Figure GDA0004059617280000133
恢复到和(a)模块输出的特征向量相同的大小,再经过叠加,将
Figure GDA0004059617280000134
和原型网络(a)的输出相融合。
然后,使用1×1卷积将上述特征压缩成单通道特征图,并融合不同通道之间的信息,让lα表示softmax前的αth通道,nβ表示归一化后的βth通道的特征映射,如下表示:
lα=Wβ,αnβ
在训练过程中使用多类交叉损失函数:
Figure GDA0004059617280000131
其中,xq为查询集的图像,yq为其对应的标注,Hq和Wq为图像的尺寸,j为遍历空间位置,c∈{1,…,N+1},N为类别个数,通过最小化Jθ(xq,yq)来训练该模型。
(c)表示每个概率映射都与查询图像连接,尺寸与查询图像相同,然后输入原型分类器以生成一个特征向量,通过相似度度量函数d计算特征向量和原型相似度分数。
在该模块中,在得到原型分类器后,将每个概率映射都与查询图像连接,将尺寸转换为与查询图像相同,然后输入原型分类器以生成一个特征向量,通过相似度度量函数d计算特征向量和原型相似度分数,步骤如下:
1.将(b)模块中的概率特征图与查询数据集xq进行叠加;
2.使用(a)模块中的原型分类器fθ对上述步骤的输出进行计算,然后经过全局平均池化(GAP),得到新的特征向量;
3.通过相似度量函数d,计算(a)模块中学习得到的原型与上述步骤中的特征向量之间的相似度,并将融合使用的权重与(b)的概率图输出进行概率融合,最后输出识别结果。
步骤D、根据上述步骤实现一个AUV的目标识别,进而按照上述方法对不同方向的多个AUV的识别结果进行综合,最后输出识别结果;
每个AUV都有一个目标图像收集和识别功能,以上方法实现了每个AUV的目标识别能力了,本发明将支持向量机(SVM)分类与贝叶斯决策融合应用于多AUV目标识别中来,单个AUV的目标识别可以表示为yi1={yi1,c;c=1,2,…,C},其中,c其C为被识别的目标种类,i1∈I代表了第i1个AUV,根据贝叶斯准则,多AUV目标识别输出为:
Figure GDA0004059617280000132
其中,p(xk|c)表示第k张图像识别为c的概率;通过多AUV从不同方位对目标进行识别,进而将每个识别信息进行融合,可以高效的识别水下目标,提高识别精度。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其它领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (6)

1.一种基于超分辨可选择网络的多AUV水下目标识别方法,其特征在于,包括以下步骤:
步骤A、采集声学图像与光学图像信息,进行色彩恢复和数据重构,实现图像超分辨率,提升图像质量;
(1)采集图像的色彩恢复处理:
原始图像表示为:
S(x,y)=R(x,y)·L(x,y)
其中,L(x,y)表示亮度图像,R(x,y)表示图像的内在属性,S(x,y)为原始图像,则:
Figure FDA0004066451640000011
其中,r(x,y)为输出图像,*为卷积操作,F(x,y)为中心环绕函数,表示为:
Figure FDA0004066451640000012
其中,c为高斯环绕尺度,λ为尺度值;
色彩恢复的计算公式如下:
Figure FDA0004066451640000013
其中,K为高斯中心环绕函数的个数;
(2)基于CNN的数据重构:
首先获得输入图像X获得一系列特征图:
F1(X)=max(0,W1*X+B1)
其中W1和B1表示滤波器的权重和偏置,max操作对应ReLU激活函数;
然后进行非线性映射:
F2(X)=max(0,W2*F1(X)+B2)
最后进行图像重构:
Y=F(X)=W3*F2(X)+B3
实现图像的超分辨率;
步骤B、目标特征提取以及目标特征相似度量;
步骤B1、基于卷积神经网络CNN提取目标特征:
(1)对卷积神经网络视觉上进行可视化解释:
Figure FDA0004066451640000014
其中c表示类别,yc是该类别对应的输出结果,A表示卷积输出的特征图,k表示特征图的通道,i,j表示特征图的横纵坐标,Z表示特征图的尺寸;
(2)得到权重后将特征图的通道线性加权融合在一起,公式如下:
Figure FDA0004066451640000021
该过程只保留对于类别c有正作用的区域;
步骤B2、利用马氏距离来度量特征之间的相似性,计算目标特征的相似度:
设每个AUV共采集了m个样本,每个样本中包含了n个特征,则该AUV采集的数据矩阵用X来表示:
X=[X1,X2,…,Xn]
该样本的总体平均值为:
μX=[μX1X2,…,μXn]
Figure FDA0004066451640000022
数据矩阵的协方差为
Figure FDA0004066451640000023
则任意AUV特征向量与源域之间的马氏距离为:
Figure FDA0004066451640000024
通过计算马氏距离,来确定每个AUV当前采集的样本特征是否与源域存储的特征相似;
步骤C、设定阈值,根据阈值与相似度之间的关系设计学习模型,分别进行不同情况下的目标识别;
当相似度大于等于阈值时,采用改进的迁移学习对目标进行识别:基于改进型的mobilenetv2权重初始化deeplabv3+网络,对目标进行识别,所述改进型的mobilenetv2为在传统mobileNetV2原始基础结构基础上裁剪4个瓶颈残差块,采用1×1的卷积来代替原始的瓶颈残差块;
当相似度小于阈值时,采用少样本学习对目标进行识别,对背景复杂造成的特征不明显的目标信息进行集中训练,提取有效特征;
步骤D、通过多AUV从不同方位对目标进行识别,进而将每个方向的AUV识别信息进行融合得到更精确的识别结果;
基于支持向量机分类与贝叶斯决策融合将多个方向的AUV获得的目标识别结果进行融合,单个AUV的目标识别表示为yi1={yi1,c;c=1,2,…,C},其中,c其C为被识别的目标种类,i1∈I代表了第i1个AUV,根据贝叶斯准则,多AUV目标识别输出为:
Figure FDA0004066451640000025
其中,p(xk|c)表示第k张图像识别为c的概率。
2.根据权利要求1所述的基于超分辨可选择网络的多AUV水下目标识别方法,其特征在于:所述步骤C中,迁移学习主要采用以下方式实现:
(1)初始训练:
设源域中的数据为
Figure FDA0004066451640000031
其中
Figure FDA0004066451640000032
为输入高分辨率图像,
Figure FDA0004066451640000033
为迁移学习输出的识别图像;AUV采集的目标域数据为
Figure FDA0004066451640000034
希望应用该网络预测出输入
Figure FDA0004066451640000035
对应的结果
Figure FDA0004066451640000036
P和Q分别为XS和XT的边缘分布,且P≠Q;迁移学习的目的主要是找到XS和XT的潜在的共同表示;令期望的非线性变换为
Figure FDA0004066451640000037
其非线性表示为:
Figure FDA0004066451640000038
Figure FDA0004066451640000039
P和Q之间的距离表示为:
Figure FDA00040664516400000310
通过迁移学习的方法,不断优化P和Q之间的距离,实现对目标域的准确识别;
(2)通过反馈的方式对网络参数(W,b,Lc)进行调整,以减少预测误差:
设Q是源任务的最优知识矩阵,向新任务知识矩阵的转移表示如下:
Qi1=fi1(W,b,Lc) i1∈{1,2,…,N}
Qi1表示AUVi1通过迁移学习获得一个新的知识矩阵,即基于迁移学习的AUV识别目标,fi1为迁移学习方法,W为权重,b为偏置,Lc表示对类别c有正作用的区域。
3.根据权利要求1所述的基于超分辨可选择网络的多AUV水下目标识别方法,其特征在于:所述步骤C中,少样本学习采用以下方式实现:
(a)基于原型学习模块对给定支持集的查询集进行分类,并学习原型;
(b)利用查询图像和从(a)中学习的原型来输出预测的分割掩码,该分割掩码采用了轻量级编码解码器来实现;
(c)每个概率映射都与查询图像连接,尺寸与查询图像相同,然后输入原型分类器以生成一个特征向量,通过相似度度量函数d计算特征向量和原型相似度分数。
4.根据权利要求3所述的基于超分辨可选择网络的多AUV水下目标识别方法,其特征在于:支持集用
Figure FDA00040664516400000311
来表示,其中xi2表示[Hi2,Wi2,3],yi2为xi2对应的金标准,NS为支持集的个数;
查询集用
Figure FDA00040664516400000312
来表示,其中xq为不包含在S中的大小为[Hi3,Wi3,3]的图像,NQ为查询集的个数;
假定fθ表示一个含有参数θ的特征提取器,fθ将输入映射到一个含M个通道的特征图,然后使用全局平均池化(GAP)来从特征图中过滤出空间信息,其输出为一个M维的特征向量,定义类别c的均值特征向量:
Figure FDA0004066451640000041
其中Sc是S中只包含语义类c的子集,|Sc|=K,GAP为迁移学习的全局平均池化;
通过fθ的距离度量来学习,在得到原型p后,使用非参数加权最近邻分类器对语义类进行分类,yq能被分解成N+1个二值掩码
Figure FDA0004066451640000042
其中c∈{1,…,N+1}。
5.根据权利要求4所述的基于超分辨可选择网络的多AUV水下目标识别方法,其特征在于:所述步骤(b)中:
使用编码解码器对数据进行分割:
编码器的输出表示为
I=σ1(W1xq+b1)
解码器的输出表示为
D=σ2(W2h+b2)
特征提取器的输出为
Figure FDA0004066451640000043
其中,W1和W2为权重,b1和b2为偏置,σ1和σ2分别为分割模块的编码器和解码器,
Figure FDA0004066451640000044
表示分割模块中参数为
Figure FDA0004066451640000045
的特征提取器;
使用上采样将特征图
Figure FDA0004066451640000046
恢复到和(a)模块输出的特征向量相同的大小,再经过叠加,将
Figure FDA0004066451640000047
和原型网络(a)的输出相融合;
然后,使用1×1卷积将上述特征压缩成单通道特征图,并融合不同通道之间的信息,让lα表示softmax前的αth通道,nβ表示归一化后的βth通道的特征映射,如下表示:
lα=Wβ,αnβ
在训练过程中使用多类交叉损失函数:
Figure FDA0004066451640000048
其中,xq为查询集的图像,yq为其对应的标注,Hq和Wq为图像的尺寸,j为遍历空间位置,c∈{1,…,N+1},N为类别个数,通过最小化Jθ(xq,yq)来训练该模型。
6.根据权利要求5所述的基于超分辨可选择网络的多AUV水下目标识别方法,其特征在于:所述步骤(c)具体采用以下方式实现:
在得到原型分类器后,将每个概率映射都与查询图像连接,将尺寸转换为与查询图像相同,然后输入原型分类器以生成一个特征向量,通过相似度度量函数d计算特征向量和原型相似度分数,步骤如下:
(1)将步骤(b)中的概率特征图与查询数据集xq进行叠加;
(2)使用步骤(a)中的原型分类器fθ对上述步骤的输出进行计算,然后经过全局平均池化(GAP),得到新的特征向量;
(3)通过相似度量函数d,计算(a)中学习得到的原型与上述步骤中的特征向量之间的相似度,并将融合使用的权重与(b)的概率图输出进行概率融合,最后输出识别结果。
CN202111607003.8A 2021-12-27 2021-12-27 基于超分辨可选择网络的多auv的水下目标识别方法 Active CN114266977B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111607003.8A CN114266977B (zh) 2021-12-27 2021-12-27 基于超分辨可选择网络的多auv的水下目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111607003.8A CN114266977B (zh) 2021-12-27 2021-12-27 基于超分辨可选择网络的多auv的水下目标识别方法

Publications (2)

Publication Number Publication Date
CN114266977A CN114266977A (zh) 2022-04-01
CN114266977B true CN114266977B (zh) 2023-04-07

Family

ID=80829944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111607003.8A Active CN114266977B (zh) 2021-12-27 2021-12-27 基于超分辨可选择网络的多auv的水下目标识别方法

Country Status (1)

Country Link
CN (1) CN114266977B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114638839B (zh) * 2022-05-18 2022-09-30 中国科学技术大学 基于动态原型学习的小样本视频目标分割方法
CN114973330B (zh) * 2022-06-16 2023-05-30 深圳大学 一种跨场景鲁棒的人员疲劳状态无线检测方法及相关设备
CN115143970B (zh) * 2022-09-01 2022-11-29 安徽大学 一种基于威胁度评估的水下航行器避障方法和系统
CN116883829B (zh) * 2023-09-05 2023-11-21 山东科技大学 多源信息融合驱动的水下场景智能感知方法
CN117437287B (zh) * 2023-12-14 2024-03-19 深圳大学 一种结构先验知识增广与迁移的水下定位方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133966A (zh) * 2017-03-30 2017-09-05 浙江大学 一种基于采样一致性算法的三维声纳图像背景分割方法
CN110059558A (zh) * 2019-03-15 2019-07-26 江苏大学 一种基于改进ssd网络的果园障碍物实时检测方法
CN111062880A (zh) * 2019-11-15 2020-04-24 南京工程学院 一种基于条件生成对抗网络的水下图像实时增强方法
CN111209952A (zh) * 2020-01-03 2020-05-29 西安工业大学 基于改进ssd和迁移学习的水下目标检测方法
CN112526524A (zh) * 2020-12-09 2021-03-19 青岛澎湃海洋探索技术有限公司 一种基于前视声纳图像和auv平台的水下渔网检测方法
CN113111806A (zh) * 2021-04-20 2021-07-13 北京嘀嘀无限科技发展有限公司 用于目标识别的方法和系统
CN113703045A (zh) * 2021-08-27 2021-11-26 电子科技大学 一种基于轻量级网络的地震相识别方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL252657A0 (en) * 2017-06-04 2017-08-31 De Identification Ltd System and method for preventing image recognition
US10956817B2 (en) * 2018-04-18 2021-03-23 Element Ai Inc. Unsupervised domain adaptation with similarity learning for images
WO2020023467A1 (en) * 2018-07-24 2020-01-30 Aquabyte, Inc. Unique identification of freely swimming fish in an aquaculture environment
CN110569695B (zh) * 2018-08-31 2021-07-09 创新先进技术有限公司 基于定损图像判定模型的图像处理方法和装置
CN109815973A (zh) * 2018-12-07 2019-05-28 天津大学 一种适用于鱼类细粒度识别的深度学习方法
CN110245602A (zh) * 2019-06-12 2019-09-17 哈尔滨工程大学 一种基于深度卷积特征的水下静目标识别方法
US11461998B2 (en) * 2019-09-25 2022-10-04 Samsung Electronics Co., Ltd. System and method for boundary aware semantic segmentation
CN111291639B (zh) * 2020-01-20 2023-05-16 西北工业大学 基于分层变分自编码的跨源舰船特征融合学习与识别方法
CN111476292B (zh) * 2020-04-03 2021-02-19 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
IL274559A (en) * 2020-05-10 2021-12-01 Verint Systems Ltd A system and method for learning from a small number of examples
CN111898379B (zh) * 2020-08-14 2023-08-22 思必驰科技股份有限公司 槽填充模型训练方法、电子设备及存储介质
CN112308147B (zh) * 2020-11-02 2024-02-09 西安电子科技大学 基于多源域锚适配器集成迁移的旋转机械故障诊断方法
CN112541441A (zh) * 2020-12-16 2021-03-23 江南大学 一种融合相关滤波的gm-phd视频多目标跟踪方法
CN112733965B (zh) * 2021-02-03 2023-04-07 西安理工大学 一种基于小样本学习的无标签图像分类方法
CN112950584B (zh) * 2021-03-01 2022-07-29 哈尔滨工程大学 一种基于深度学习的涂层表面缺陷识别方法
CN113239980B (zh) * 2021-04-23 2022-07-05 华中科技大学 基于小样本机器学习与超参数优化的水下目标检测方法
CN113221915A (zh) * 2021-05-12 2021-08-06 西北工业大学 一种基于视觉的水下集群邻居识别方法
CN113139536B (zh) * 2021-05-12 2022-11-18 哈尔滨工业大学(威海) 一种基于跨域元学习的文本验证码识别方法、设备及存储介质
CN113392669B (zh) * 2021-05-31 2022-09-23 苏州中科华影健康科技有限公司 一种图像信息检测方法、检测装置及存储介质
CN113642390B (zh) * 2021-07-06 2024-02-13 西安理工大学 一种基于局部注意力网络的街景图像语义分割方法
CN113610173B (zh) * 2021-08-13 2022-10-04 天津大学 一种基于知识蒸馏的多跨域少样本分类方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133966A (zh) * 2017-03-30 2017-09-05 浙江大学 一种基于采样一致性算法的三维声纳图像背景分割方法
CN110059558A (zh) * 2019-03-15 2019-07-26 江苏大学 一种基于改进ssd网络的果园障碍物实时检测方法
CN111062880A (zh) * 2019-11-15 2020-04-24 南京工程学院 一种基于条件生成对抗网络的水下图像实时增强方法
CN111209952A (zh) * 2020-01-03 2020-05-29 西安工业大学 基于改进ssd和迁移学习的水下目标检测方法
CN112526524A (zh) * 2020-12-09 2021-03-19 青岛澎湃海洋探索技术有限公司 一种基于前视声纳图像和auv平台的水下渔网检测方法
CN113111806A (zh) * 2021-04-20 2021-07-13 北京嘀嘀无限科技发展有限公司 用于目标识别的方法和系统
CN113703045A (zh) * 2021-08-27 2021-11-26 电子科技大学 一种基于轻量级网络的地震相识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
盛子旗等.样本仿真结合迁移学习的声呐图像水雷检测.《智能系统学报》.2021,第16卷(第2期),第385-395页. *

Also Published As

Publication number Publication date
CN114266977A (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN114266977B (zh) 基于超分辨可选择网络的多auv的水下目标识别方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN108460341B (zh) 基于集成深度卷积网络的光学遥感图像目标检测方法
CN113436169B (zh) 一种基于半监督语义分割的工业设备表面裂纹检测方法及系统
CN111340738B (zh) 一种基于多尺度渐进融合的图像去雨方法
CN112818969B (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN108804992B (zh) 一种基于深度学习的人群统计方法
CN113158943A (zh) 一种跨域红外目标检测方法
CN111738071B (zh) 一种基于单目摄像机的运动变化的逆透视变换方法
CN111259733A (zh) 一种基于点云图像的船舶识别方法及装置
CN116342894A (zh) 基于改进YOLOv5的GIS红外特征识别系统及方法
CN116258940A (zh) 一种多尺度特征及自适应权重的小目标检测方法
CN111160100A (zh) 一种基于样本生成的轻量级深度模型航拍车辆检测方法
CN111950476A (zh) 基于深度学习的复杂环境下河道船舶自动识别方法
CN115761667A (zh) 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法
Meng et al. A Novel Steganography Algorithm Based on Instance Segmentation.
CN112233079B (zh) 多传感器图像融合的方法及系统
CN115294392A (zh) 基于生成网络模型的可见光遥感图像云去除方法及系统
CN114821174A (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法
CN114743257A (zh) 图像目标行为的检测识别方法
CN113888630A (zh) 一种具备置信度估计的无人机姿态检测方法及系统
CN112785629A (zh) 一种基于无监督深度光流网络的极光运动表征方法
CN112613518A (zh) 一种基于auv的侧扫声呐图像域适应学习实时分割方法
CN117274723B (zh) 一种用于输电巡检的目标识别方法、系统、介质及设备
CN111950549B (zh) 一种基于海天线与视觉显著性融合的海面障碍物检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant