CN113869395A - 基于特征融合及神经网络搜索的轻量型水下目标检测方法 - Google Patents

基于特征融合及神经网络搜索的轻量型水下目标检测方法 Download PDF

Info

Publication number
CN113869395A
CN113869395A CN202111127297.4A CN202111127297A CN113869395A CN 113869395 A CN113869395 A CN 113869395A CN 202111127297 A CN202111127297 A CN 202111127297A CN 113869395 A CN113869395 A CN 113869395A
Authority
CN
China
Prior art keywords
underwater
network
search
land
detection network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111127297.4A
Other languages
English (en)
Other versions
CN113869395B (zh
Inventor
刘日升
付陈平
仲维
樊鑫
罗钟铉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202111127297.4A priority Critical patent/CN113869395B/zh
Publication of CN113869395A publication Critical patent/CN113869395A/zh
Application granted granted Critical
Publication of CN113869395B publication Critical patent/CN113869395B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于特征融合及神经网络搜索的轻量型水下目标检测方法,属于计算机视觉领域。将陆上与水下检测网络特征进行融合,即相加操作,以实现利用陆上先验知识指导水下网络结构建设的目标。同时利用神经网络搜索算法,设计高效搜索空间,采用基于梯度的可微搜索策略,并构建水下超网络结构以及陆上镜像检测结构以直接建立水下降质因素、陆上先验信息与检测网络结构的联系。

Description

基于特征融合及神经网络搜索的轻量型水下目标检测方法
技术领域
本发明属于计算机视觉领域,涉及基于特征融合及神经网络搜索的轻量型水下目标检测方法。
背景技术
水下目标检测在海洋学、水下导航以及渔业等方面有广泛应用。该研究旨在定位出水下图像/视频中感兴趣的目标,准确判断出每个目标的具体类别及其边界框的位置和大小。水下检测场景同陆上相比,存在泥沙遮挡、颜色畸变、不均匀光照和目标遮挡等多种水下降质问题,因此水下检测面临更为巨大的挑战。此外,水下检测通常为移动端作业,对算法复杂性具有较高要求。然而,现阶段的检测算法往往基于大型网络结构,难以满足水下检测对轻量型算法的要求。
深度学习方法是通过神经网络端到端学习水下目标特征,以此完成目标检测任务,基本框架一般包括骨干部分、颈部、兴趣区域部分和头部。将训练数据输入网络中,通过骨干部分进行特征提取得到特征图,接下来颈部融合来自骨干部分不同层的特征图以增强特征信息,兴趣区域部分在最终的特征图上生成目标候选框,最后头部生成目标种类和位置的检测结果。当前基于深度学习的水下目标检测方法主要分为两类方法:一类方法是根据水下场景多泥沙模糊、色偏、光照不均匀等降质因素直接调整陆上目标检测方法,例如使用空洞卷积文献[L.Chen,Z.Liu,L.Tong,Z.Jiang,S.Wang,J.Dong,Hu.Zhou.Underwaterobject detection using invert multi-class adaboost with deep learning.InIJCAI,2020,pages1–8.]、融合多尺度特征等操作来减少特征损失或者增强特征信息文献,如专利[CN112232180A]。第二类方法通过设计损失函数或者额外的增强模块来建立水下降质因素与检测结构件的关系,如专利[CN111627047A]。第一类方法本质上依然关注检测问题本身,并未真正直接建立水下降质因素与检测结构的联系,因此仍未从根本上解决水下色偏、泥沙污浊、光线不均匀等场景问题,从而导致检测效果不佳。第二类方法通过人为方式尝试建立水下降质因素与检测结构之间的关联关系,然而这类启发式方法很难揭示水下复杂多种降质因素背后的规律,因而实际应用效果不佳。此外,这两类方法大多采用复杂的检测网络结构,很难部署到水下作业设备当中。
神经网络搜索是一种从训练数据分布中学习网络结构的方式,主要分为基于强化学习、进化算法和梯度策略这三类方法。当前有些工作采用该方式设计陆上目标检测网络结构。DetNas采用基于进化算法策略的神经网络方法设计检测的骨干部分;NAS-FPN采用基于强化学习策略的神经网络算法搜索检测的颈部部分。这些方法在陆上检测方法种取得一些成果,然而基于这两种策略的神经网络搜索方法的搜索代价昂贵,难以推广使用。基于梯度策略的神经网络搜索方法极大减轻了搜索代价,但迄今为止鲜有工作将该方法应用到水下目标检测当中,且该方法的搜索性能有很大的提升空间。
本发明提出一种基于特征融合及神经网络搜索的轻量型水下目标检测方法。为了直接建立水下降质因素与检测结构之间的关联关系,本发明采用基于梯度的神经网络搜索方法用于水下检测网络结构的设计。此外,为了满足水下检测对于网络结构轻量型的要求,本发明设计了高效的搜索空间以保证搜索结果的轻量性需求。同时,鉴于成熟的陆上检测深度算法体系的发展,本发明设计了水下搜索超网络结构,并依此设计陆上检测网络的结构,期望通过特征融合的方式实现使用陆上检测先验信息辅助水下检测网络结构建立的目的。
发明内容
本发明旨在解决现有基于深度学习的水下目标检测方法的不足,提供一种基于监督学习的陆上目标检测方法辅助水下目标检测网络结构搜索的水下检测方法。改进基于梯度的神经网络搜索算法,设计高效搜索空间、水搜索超网络以及陆上检测结构,建立包含水下降质因素与陆上检测先验信息的水下目标检测结构。
本发明的技术方案如下:
一种基于特征融合及神经网络搜索的轻量型水下目标检测方法,步骤如下:
第一步,准备数据集。预先准备的数据集包括预训练数据集,陆上检测网络训练数据集和水下检测网络训练数据集,具体细节可见下文具体实施方式;
第二步,获得可用的陆上检测网络。首先通过预训练数据集预训练陆上检测网络的骨干部分获得预训练权重。在此基础上,利用陆上检测网络训练数据集进一步训练整个陆上检测网络,获得可用的陆上检测网络;
第三步,搜索水下检测网络。设计高效的搜索空间以及水下搜索超网络,采用基于梯度的神经网络搜索算法,同时将陆上与水下的检测网络特征进行融合,在水下检测网络训练数据集上进行水下检测网络结构的搜索。
3.1所述的特征融合
陆上检测网络的具体形式与水下搜索超网络的结构相同(如图1),其详细参数设置可见3.2节中的描述。水下检测网络训练数据集中的图片输入到陆上检测网络当中,将骨干部分前L层的每层输出抽取出来与水下检测网络的骨干部分中的对应层进行相加操作,该操作即本发明中水下与陆上检测网络的特征融合操作。该操作的目的在于将陆上检测网络的先验信息用于指导水下检测网络的搜索。
3.2所述的基于梯度的神经网络搜索算法
问题定义。水下检测网络结构的搜索问题定义如下,
Figure BDA0003279039430000031
Figure BDA0003279039430000041
其中
Figure BDA0003279039430000042
Figure BDA0003279039430000043
是包含水下各种退化因素的水下检测网络训练数据集。搜索过程旨在找到一个在已训练权重
Figure BDA0003279039430000044
下最小化损失验证函数
Figure BDA0003279039430000045
的网络结构αμ
Figure BDA0003279039430000046
使得训练损失函数
Figure BDA0003279039430000047
达到最优解(理想情况)。如图1所示,本发明提出一种水下检测网络搜索方法,搜索框架主要由两部分组成:高效搜索空间和基于梯度的神经网络搜索算法。
本发明提出一种高效的搜索空间,所述高效搜索空间中候选块的组成为:轻量型基本块和双块,它们的结构如图2所示。基本块(结构如图2a所示)按顺序依次包括一层1×1的组卷积(组取值为1),一层k×k深度卷积(k代表卷积核大小)以及一层1×1的组卷积(组取值为1)。Relu激活函数只跟随第一层1×1卷积和深度卷积。如果输入的维度保持不变,则由跳跃连接操作连接输入和输出。本发明使用超参数膨胀率e和扩张率d约束该基本块。e用于扩展通道数,d用于扩张卷积核间距。此外,为进一步增强搜索能力,本发明提出一种双块结构,该结构通过级联基本块的方式增加搜索空间中候选块的数量(双块结构如图2b所示)。
此外,本发明设计了水下搜索超网络(如图1),并依此设计陆上检测网络。该超网络包括骨干、颈部、兴趣区域部分和头部。骨干部分由n个阶段组成,共包括m层。每阶段通道的参数与每阶段步长将根据经验设置。颈部为特征金字塔,用于融合由每个阶段输出的特征映射图。兴趣区域部分用于产生候选框,头部将产生分类和位置结果。
采用基于梯度的神经网络搜索算法在陆上检测网络的指导下进行水下检测网络结构的搜索;在搜索阶段,水下搜索超网络中每个中间层的输出定义为所有候选块的加权和,具体公式表达为:
Figure BDA0003279039430000048
式中xi代表水下第i层网络与陆上相应层的输出之和,
Figure BDA0003279039430000051
是与块b(·)相关的参数,它可被视为第i层网络的第b个块的得分,
Figure BDA0003279039430000052
代表上文所述的高效搜索空间。
该搜索问题的损失函数定义如下:
Figure BDA0003279039430000053
第一项
Figure BDA0003279039430000054
表示检测器损失函数,即分类和定位损失函数。第二项
Figure BDA0003279039430000055
表示搜索部分的FLOPs,可分解为每个操作的线性和。这两项是由平衡参数γ进行加权求和。
本发明的有益效果是:
1)陆上与水下检测网络结构中相应层的特征融合,实现了陆上检测先验信息辅助水下检测结构搜索的目标,且在一定程度上探索了陆上与水下检测的迁移问题,同时促进了陆上与水下检测的发展。
2)采用基于梯度的神经网络搜索方法对水下检测网络进行设计,一方面直接建立了水下检测网络结构与水下降质因素的联系,另一方面融入了陆上检测的先验信息,实现了水下降质因素与陆上先验信息共同指导水下检测网络设计的目标。
附图说明
图1为方案整体流程图;
图2为高效搜索空间图;
图3为本发明搜索结果示例。
具体实施方式
本发明基于特征融合操作及基于梯度神经网络搜索策略,对水下检测网络进行搜索设计,在不引入额外增强模块、损失函数或其他任务的前提下,用本申请提出的方法可设计出融合陆上检测先验与水下降质因素影响的水下检测网络结构,搜索结果示例如图3所示,本申请的具体实施方案如下:
第一步,准备数据集。预先准备的数据集包括预训练数据集,陆上检测网络训练数据集和水下检测网络训练数据集。预训练数据集的作用是预训练陆上和水下检测网络的骨干部分,获得预训练权重以加快速后期训练收敛过程。因此该数据一般选择大规模分类数据集(如ImageNet数据集),使其包含更多的目标类别与图片数量。陆上检测网络训练数据集的作用是在预训练权重的基础上进一步训练陆上检测网络,使其可以检测清晰环境下的水生目标,因此该数据集一般选择在陆上场景中带有水生目标的图像。水下检测网络训练数据集的作用是在预训练权重的基础上进一步训练水下检测网络,使其可以检测水下恶劣环境下的水生目标,因此该数据集一般选择在水下场景中带有水生目标的图像;
第二步,获得可用的陆上检测网络。首先,按照水下搜索超网络的结构建立陆上检测结构。接下来,在预训练数据集上训练几百次,获得预训练检测权重。最后,在陆上检测网络训练数据集上训练几十次,获得可用的陆上检测网络。具体训练细节可设置为:利用预训练权重初始化陆上网络权重,训练过程使用随机梯度下降法。在每次训练中,交替更新网络权重以及结构参数。其中学习率、动量参数和平衡参数依次设置为0.04,0.9和0.01。
第三步,搜索水下网络结构。高效搜索空间包括15个候选块,具体为:ir_k3_d1_e3,ir_k3_d1_e6,ir_k3_d2_e3,ir_k5_d1_e3,ir_k5_d2_e6,ir_k5_d3_e6,ir_k7_d1_e6,DBL ir_k3_d1_e3,DBL ir_k3_d1_e6,DBL ir_k3_d2_e3,DBL ir_k5_d1_e3,DBLir_k5_d2_e6,DBL ir_k5_d3_e6,DBL ir_k7_d1_e6,跳跃连接。ir代表倒残差块,DB代表双块,k代表卷积核尺寸,d代表扩张率,e代表膨胀率。水下搜索超网络参数设置为:骨干部分由4个阶段组成,共包括23层。每阶段通道的参数为{(16,48),96,(184,256),(352,1024,2048)},每阶段步长设置为{(2,2,1),(2,1),(2,1),(2,1)}。搜索具体过程为:将水下检测网络训练数据集中的图像输入到陆上检测网络,获得骨干部分前L层待融合的特征映射图;将相同的水下图片传给水下搜索超网络结构,同时将待融合陆上特征映射图与水下骨干部分对应层进行融合,根据公式(2)和(3),在水下搜索超网络的结构上进行水下检测网络的搜索。

Claims (3)

1.一种基于特征融合及神经网络搜索的轻量型水下目标检测方法,其特征在于,包括步骤如下:
第一步,准备数据集;预先准备的数据集包括预训练数据集,陆上检测网络训练数据集和水下检测网络训练数据集;
第二步,获得可用的陆上检测网络;首先通过预训练数据集预训练陆上检测网络的骨干部分获得预训练权重;在此基础上,利用陆上检测网络训练数据集进一步训练整个陆上检测网络,获得可用的陆上检测网络;
第三步,搜索水下检测网络;设计高效的搜索空间以及水下搜索超网络,采用基于梯度的神经网络搜索算法,同时将陆上与水下的检测网络的特征进行融合,在水下检测网络训练数据集上进行水下检测网络结构的搜索;
3.1所述的特征融合
陆上检测网络的具体形式与水下搜索超网络的结构相同,水下检测网络训练数据集中的图片输入到陆上检测网络当中,将骨干部分前L层的每层输出抽取出来与水下检测网络的骨干部分中的对应层进行相加操作,该操作即本发明中水下与陆上检测网络的特征融合操作;该操作的目的在于将陆上检测网络的先验信息用于指导水下检测网络的搜索;
3.2所述的基于梯度的神经网络搜索算法
水下网络结构的搜索问题定义如下:
Figure FDA0003279039420000011
Figure FDA0003279039420000012
其中
Figure FDA0003279039420000013
Figure FDA0003279039420000014
是包含水下各种退化因素的水下检测网络训练数据集;搜索过程旨在找到一个在已训练权重
Figure FDA0003279039420000015
下最小化损失验证函数
Figure FDA0003279039420000016
的网络结构αμ
Figure FDA0003279039420000017
使得训练损失函数
Figure FDA0003279039420000018
达到最优解(理想情况);
本发明提出一种基于梯度的神经网络搜索,搜索框架由两部分组成:高效搜索空间和基于梯度的神经网络搜索算法;
本发明设计了水下搜索超网络,并依此设计陆上检测网络;水下搜索超网络包括骨干、颈部、兴趣区域部分和头部;骨干部分由n个阶段组成,共包括m层;每阶段通道的参数与每阶段步长将根据经验设置;颈部为特征金字塔,用于融合由每个阶段输出的特征映射图;兴趣区域部分用于产生候选框,头部将产生分类和位置结果;
采用基于梯度的神经网络搜索算法在陆上检测网络的指导下进行水下检测网络结构的搜索;在搜索阶段,水下搜索超网络中每个中间层的输出定义为所有候选块的加权和,具体公式表达为:
Figure FDA0003279039420000021
式中xi代表水下第i层网络与陆上相应层的输出之和,
Figure FDA0003279039420000022
是与块b(·)相关的参数,它可被视为第i层网络的第b个块的得分,
Figure FDA0003279039420000023
代表上文所述的高效搜索空间;
该搜索问题的损失函数定义如下:
Figure FDA0003279039420000024
第一项
Figure FDA0003279039420000025
表示检测器丢失,即分类和定位损失函数;第二项
Figure FDA0003279039420000026
表示搜索部分的FLOPs,可分解为每个操作的线性和;这两项是由平衡参数γ进行加权求和。
2.如权利要求1所述的一种基于特征融合及神经网络搜索的轻量型水下目标检测方法,其特征在于,所述高效搜索空间中候选块的组成为:轻量型基本块和双块;基本块按顺序依次包括一层1×1的组卷积(组取值为1),一层k×k深度卷积(k代表卷积核大小)以及一层1×1的组卷积(组取值为1);Relu激活函数只跟随第一层1×1卷积和深度卷积;当输入的维度保持不变,则由跳跃连接操作连接输入和输出;使用超参数膨胀率e和扩张率d约束该基本块;e用于扩展通道数,d用于扩张卷积核间距。
3.如权利要求2所述的一种基于特征融合及神经网络搜索的轻量型水下目标检测方法,其特征在于,所述的双块通过级联基本块的方式增加搜索空间中候选块的数量。
CN202111127297.4A 2021-09-26 2021-09-26 基于特征融合及神经网络搜索的轻量型水下目标检测方法 Active CN113869395B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111127297.4A CN113869395B (zh) 2021-09-26 2021-09-26 基于特征融合及神经网络搜索的轻量型水下目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111127297.4A CN113869395B (zh) 2021-09-26 2021-09-26 基于特征融合及神经网络搜索的轻量型水下目标检测方法

Publications (2)

Publication Number Publication Date
CN113869395A true CN113869395A (zh) 2021-12-31
CN113869395B CN113869395B (zh) 2024-05-24

Family

ID=78994315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111127297.4A Active CN113869395B (zh) 2021-09-26 2021-09-26 基于特征融合及神经网络搜索的轻量型水下目标检测方法

Country Status (1)

Country Link
CN (1) CN113869395B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173551A (zh) * 2023-11-02 2023-12-05 佛山科学技术学院 一种场景自适应的无监督水下弱小目标检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019028725A1 (en) * 2017-08-10 2019-02-14 Intel Corporation CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT
WO2021018163A1 (zh) * 2019-07-30 2021-02-04 华为技术有限公司 神经网络的搜索方法及装置
CN112464960A (zh) * 2020-12-14 2021-03-09 西北工业大学 一种基于快速神经架构搜索的目标检测方法
CN113283426A (zh) * 2021-04-30 2021-08-20 南京大学 基于多目标神经网络搜索的嵌入式目标检测模型生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019028725A1 (en) * 2017-08-10 2019-02-14 Intel Corporation CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT
WO2021018163A1 (zh) * 2019-07-30 2021-02-04 华为技术有限公司 神经网络的搜索方法及装置
CN112464960A (zh) * 2020-12-14 2021-03-09 西北工业大学 一种基于快速神经架构搜索的目标检测方法
CN113283426A (zh) * 2021-04-30 2021-08-20 南京大学 基于多目标神经网络搜索的嵌入式目标检测模型生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
卞伟伟;邱旭阳;申研;: "基于神经网络结构搜索的目标识别方法", 空军工程大学学报(自然科学版), no. 04, 25 August 2020 (2020-08-25) *
赵永强;饶元;董世鹏;张君毅;: "深度学习目标检测方法综述", 中国图象图形学报, no. 04, 15 April 2020 (2020-04-15) *
马龙;刘日升;姜智颖;王怡洋;樊鑫;李豪杰;: "自然场景图像去雨的可学习混合MAP网络", 中国图象图形学报, no. 02, 16 February 2018 (2018-02-16) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173551A (zh) * 2023-11-02 2023-12-05 佛山科学技术学院 一种场景自适应的无监督水下弱小目标检测方法及系统
CN117173551B (zh) * 2023-11-02 2024-02-09 佛山科学技术学院 一种场景自适应的无监督水下弱小目标检测方法及系统

Also Published As

Publication number Publication date
CN113869395B (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
CN110443818B (zh) 一种基于涂鸦的弱监督语义分割方法与系统
CN109493346B (zh) 一种基于多损失的胃癌病理切片图像分割方法和装置
CN111178316B (zh) 一种高分辨率遥感影像土地覆盖分类方法
CN103679674B (zh) 一种无人飞行器实时图像拼接方法及系统
CN112686276B (zh) 一种基于改进RetinaNet网络的火焰检测方法
CN114066831B (zh) 一种基于两阶段训练的遥感图像镶嵌质量无参考评价方法
CN114612476B (zh) 一种基于全分辨率混合注意力机制的图像篡改检测方法
CN113989261A (zh) 基于Unet改进的无人机视角下红外图像光伏板边界分割方法
CN111192240B (zh) 一种基于随机接入记忆的遥感图像目标检测方法
CN115100545A (zh) 针对低照度下失效卫星小部件的目标检测方法
CN114972934A (zh) 一种面向遥感图像表征的对比自监督学习方法
CN116342953A (zh) 基于残差收缩注意力网络的双模态目标检测模型及方法
CN116580184A (zh) 一种基于YOLOv7的轻量化模型
CN115690610A (zh) 一种基于图像匹配的无人机导航方法
CN116188342A (zh) 一种联合目标检测的红外光和可见光图像融合方法
CN113869395A (zh) 基于特征融合及神经网络搜索的轻量型水下目标检测方法
CN116229069A (zh) 一种黑暗条件下水面无人艇的红外岸线分割与目标检测融合方法
CN113327271B (zh) 基于双光孪生网络决策级目标跟踪方法、系统及存储介质
CN117576149A (zh) 一种基于注意力机制的单目标跟踪方法
CN116883859A (zh) 一种基于YOLOv7-RS的遥感图像目标检测方法
CN115457420B (zh) 一种基于无人机拍摄夜间低对比度的车辆重检测方法
CN116416468A (zh) 一种基于神经架构搜索的sar目标检测方法
CN115170930A (zh) 基于改进yolox模型的样本不均衡目标检测方法
CN115019139A (zh) 一种基于双流网络的光场显著目标检测方法
CN112348042A (zh) 一种基于改进YOLOv3的红外目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant