CN115223057B - 多模态遥感图像联合学习的目标检测统一模型 - Google Patents

多模态遥感图像联合学习的目标检测统一模型 Download PDF

Info

Publication number
CN115223057B
CN115223057B CN202210920610.8A CN202210920610A CN115223057B CN 115223057 B CN115223057 B CN 115223057B CN 202210920610 A CN202210920610 A CN 202210920610A CN 115223057 B CN115223057 B CN 115223057B
Authority
CN
China
Prior art keywords
target
target detection
image
network
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210920610.8A
Other languages
English (en)
Other versions
CN115223057A (zh
Inventor
赵文达
解世赓
赵凡
刘兴惠
黄友澎
李至立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202210920610.8A priority Critical patent/CN115223057B/zh
Publication of CN115223057A publication Critical patent/CN115223057A/zh
Application granted granted Critical
Publication of CN115223057B publication Critical patent/CN115223057B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像信息处理技术领域,提供了一种多模态遥感图像联合学习的目标检测统一模型。本发明利用一个模型应对两种模态的图像,并且均可以获得良好的检测效果。本发明通过对比学习的方式让模型可以整合两种模态的目标信息从而形成一个多模态统一的检测网络。本发明的方法不存在这个问题,对于任一模态下的图像均可以做出有效的检测,并且对比学习仅在训练过程中开展,训练完毕后在测试阶段并没有增加额外的计算量。

Description

多模态遥感图像联合学习的目标检测统一模型
技术领域
本发明属于图像信息处理技术领域,特别是针对可见光模态与SAR模态图像的目标检测方法,具体为多模态遥感图像联合学习的目标检测统一模型。
背景技术
目前,主要有两方面的图像处理方法与本发明相关。第一种是对比学习的深度学习算法;第二种是基于深度学习的目标检测算法。
对比学习的深度学习算法,目前现有的对比学习方法大多数旨在利用大量的无标签数据对深度学习模型进行预训练,使其更容易在下游任务(图像分类,目标检测等)能够获得更好的效果。Chen等人在《A Simple Framework for Contrastive Learning ofVisual Representations》中提出了一种简单有效的对比学习框架,文中基于同一图像在不同的视角下有着相似的语义信息的假设,利用多种数据增强方法对图像的视角进行有效的变换,从而构建了有效的正负样本对深度学习模型进行预训练。He等人在《MomentumContrast for Unsupervised Visual Representation Learning》,提出一种带有动量更新的不对称网络模型,通过动量更新减小了目标向量变化速度,使对比学习的训练过程更加稳定;另外,文中还构建了样本队列的思想,有效的解决了从特征存储空间中采样而带来的特征不一致的问题。Zbontar等人在《Barlow Twins:Self-Supervised Learning viaRedundancy Reduction》中利用特征向量的互相关矩阵约束不同的图像特征图通道学习到不同的特征,从而实现了用较小的图像批次来有效的训练网络,避免了在小图像批次下利用对比学习方法训练深度学习模型时出现的平凡解的问题。
目前常见的基于深度学习的目标检测算法主要可以分为两类:双阶段目标检测算法与单阶段目标检测算法。Girshick等人在《Rich feature hierarchies for accurateobject detection and semantic segmentation》中提出了一个基于区域选择的双阶段目标检测算法,首先通过区域选择算法从图像中选择一部分可能存在目标的区域,然后送入卷积神经网络中进行目标检测。Ren等人在《Faster R-CNN:Towards Real-Time ObjectDetection with Region Proposal Networks》提出的目标检测网络避免了在图像层面使用区域搜索,而是利用一个卷积神经网络在特征图层面生成候选框,减小了整个模型的计算量,提升了目标检测的速度。单阶段算法没有使用双阶段目标检测算法中区域搜索的步骤,而是直接利用卷积神经网络预测目标信息。Redmon等《You Only Look Once:Unified,Real-Time Object Detection》中提出了一种单阶段目标检测算法,该算法利用对图像分块的形式显著的减小了网络的计算复杂度,从而达到了较高的计算速度。Lin等人在《FocalLoss for Dense Object Detection》中针对单阶段目标检测网络中正负样本不平衡的问题,设计了新的损失函数,提升了单阶段目标检测网络的检测准确率。单阶段目标检测网络与双阶段相比,由于单阶段网络没有单独的前后景分离的过程,在提升速度的同时,不可避免地存在准确度下降的问题。
针对可见光模态与SAR模态图像的目标检测的问题,常见的解决问题的方式使采用图像融合算法,将融合后的图像送入目标检测模型。这就要求存在同一场景下的两种图像时同时存在的,而这一要求通常难以满足,因此该方法无法实现较好的检测效果。
发明内容
针对无法获得同一场景下两个模态图像的问题,提出了一种联合学习的目标检测统一方法。它仅利用一个模型应对两种模态的图像,并且均可以获得良好的检测效果。它通过对比学习的方式让模型可以整合两种模态的目标信息从而形成一个多模态统一的检测网络。
本发明的技术方案:
一种多模态遥感图像联合学习的目标检测统一模型,步骤如下:
采用对比学习训练一个用于多模态统一的目标检测器,多模态包括SAR模态与可见光模态;
该目标检测器采用ResNet50作为骨干网络,来提取多模态图像的特征并用于实现目标检测;
在网络训练阶段,对于目标检测中的目标与背景分类过程,由于图像中的目标与背景区域不平衡,即一张待检测的图像中仅有少量目标,而存在大量的背景区域,若直接利用交叉熵损失作为前景背景的分类约束会导致背景区域计算出的损失远大于目标区域,从而使目标检测网络无法“学习”目标信息。采用Facol Loss损失函数作为目标检测任务中目标与背景的分类约束:
Figure BDA0003777363320000031
其中,N1用于对分类约束的数值平均,为训练过程中一个输入网络图像批次中的目标数目;Yxyc为图像中类别的真值,
Figure BDA0003777363320000032
为网络预测的区域类别,类别包括目标与背景;γ和β为损失函数中的两个超参数,用于对区域分类过程中的目标与背景数目的平衡;
对于目标检测任务中的目标位置与大小的计算,需要用锚框回归分支来预测,该锚框回归分支实际上预测的是目标检测真值框与设置目标锚框之间的差距;本方法假设目标检测真值框为(x,y,h,w),其中四个位置分别代表目标锚框在图像中的横坐标、纵坐标以及锚框的高度和宽度;设置目标锚框为
Figure BDA0003777363320000033
则目标检测网络计算目标检测真值框与设置目标锚框之间的差距表示为:
Figure BDA0003777363320000034
Figure BDA0003777363320000035
Figure BDA0003777363320000041
Figure BDA0003777363320000042
对于目标位置约束为:
Figure BDA0003777363320000043
其中,N2为符合重叠度要求的网络预测值数目;
Figure BDA0003777363320000044
为网络预测值中第i个符合重叠度要求的预测值,其中,符合重叠度要求是指根据网络预测出的目标检测真值框与设置目标锚框之间的差距所计算出的目标框与第j个目标检测真值框重叠度大于阈值;tmj为第j个与网络预测值
Figure BDA0003777363320000045
对应的目标检测真值框,对于目标检测任务的总的损失为:
Ldet=Lclass+εLloc (7)
其中,ε为超参数,用于平衡目标与背景分类与目标框回归;
本方法提出了一个基于对比学习的多模态目标图像信息整合方法,考虑到一个性能优良的目标检测网络对于不同模态的输入(包含目标的图像)都应该输出目标的检测结果,而这一结果是一个浅层网络在ResNet50等骨干网络提取到的特征上计算得到的,又考虑到浅层网络对特征的映射能力有限,所以骨干网络提取到的不同形态的目标特征应当有一定的相似性,而目标区域与背景区域的特征应当有一定的差别。所以为了减少不同模态目标区域特征之间的差距,并加大背景特征与目标特征的差距,本方法选取不同模态的目标区域作为对比学习的正样本,选取不同模态的背景信息作为对比学习的负样本;约束正样本之间的距离在特征空间中逐渐减小,正样本与负样本间的距离不断加大,从而使目标检测器对于不同模态的目标均能提取到比较一致的效果,实现利用一个统一的模型来对多模态的图像进行检测。
为了实现上述效果,本方法将ResNet50提取到的特征,利用目标检测真值框选取目标的特征和背景特征,然后送入2层全连接层映射到一个隐空间中来加大正样本即目标间特征的相似度,减小目标和负样本即背景特征之间的相似度。采用如下损失函数:
Figure BDA0003777363320000051
其中,N3为一个批次中选取正样本的数量;K为超参数,用于确定选取负样本特征的数目;h(a,b)=aTb/||a||||b||用于计算提取到的特征之间的相似性,
Figure BDA0003777363320000052
fi T
Figure BDA0003777363320000053
分别代表SAR图像中第j个、可见光图像中第i个目标向量和两种模态图像中的第k个背景向量;τ为温度系数,用于控制对目标检测器难以检测出的样本的关注程度;
对比学习的多模态遥感图像目标检测统一模型在训练过程中的损失函数为:
L=Ldet+αLc (9)
其中,α为平衡两种损失的超参数。
本发明的有益效果:本发明的多模态遥感图像目标检测方法采用对比学习的方式让网络对于不同模态的图像获得相对差异较小的特征,目前常见的图像融合方式需要同一场景下不同模态的图像,在大多数情境下,该需求难以满足。而本发明的方法不存在这个问题,对于任一模态(SAR与可见光)下的图像均可以做出有效的检测,并且对比学习仅在训练过程中开展,训练完毕后在测试阶段并没有增加额外的计算量。
附图说明
图1为目标检测器的基于对比学习的训练方法流程图。
图2为训练过程和测试过程中目标检测器的网络结构示意图。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
本发明提出的方法可分为两个过程,训练过程和测试过程,如图2所示,具体阐述如下。
本发明使用的SAR模态图像数据集DSAR为SSDD,来自《SAR Ship DetectionDataset(SSDD)-Official Release and Comprehensive Data Analysis》;可见光模态数据集DVIS为HRSC2016,来自《A high resolution optical satellite image dataset forship recognition and some new baselines》
在训练过程中,首先在DSAR,DVIS中划分训练集
Figure BDA0003777363320000062
与测试集
Figure BDA0003777363320000063
其中训练集与测试集之间的关系为
Figure BDA0003777363320000064
本发明从训练集
Figure BDA0003777363320000065
随机采样两个模态的样本,送入两个共享参数的目标检测网络,并在目标检测网络分类分支与目标框回归分支之前,获取目标检测网络计算得到的图像特征。然后根据图像的目标检测真值框,选取特征图像特征中的目标区域,作为对比学习的正样本对即公式(8)中
Figure BDA0003777363320000066
fi T;背景区域作为对比学习的负样本,即公式(8)中
Figure BDA0003777363320000067
再利用公式(8)作为对比学习的损失函数,让不同模态目标特征相互靠近,目标与背景的特征相互远离,从而减少不同模态目标特征之间的差异,并提升目标特征与背景特征之间的差异从而让模型适应不同模态的图像。目标检测网络分类分支的输出用于计算公式(1)中的损失,与目标框回归分支用于计算公式(6)中的损失。整个模型在训练过程中采用公式(9)作为约束,即训练过程中的目标函数为:
Figure BDA0003777363320000061
其中θ为目标检测网络的参数。在训练过程中采用随机梯度下降SGD优化器。待目标检测网络收敛后,本方法进入测试过程,在该过程中,本方法仅使用一个目标检测器来对两个模态的图像进行目标检测,如图2所示。本发明将测试集
Figure BDA0003777363320000071
中图像混合成一个测试集
Figure BDA0003777363320000072
然后从中随机采样任一模态图像送入目标检测器,经过目标检测器计算便可以得到图像中目标的位置与大小。
总的来说,本方法设计了一种多模态遥感图像联合学习的目标检测统一模型方法,可以有效的针对多模态的图像进行目标检测。

Claims (1)

1.一种多模态遥感图像联合学习的目标检测统一模型,其特征在于,步骤如下:
采用对比学习训练一个用于多模态统一的目标检测器,多模态包括SAR模态与可见光模态;
该目标检测器采用ResNet50作为骨干网络,来提取多模态图像的特征并用于实现目标检测;
在网络训练阶段,对于目标检测中的目标与背景分类过程,采用FacolLoss损失函数作为目标检测任务中目标与背景的分类约束:
Figure FDA0004053610900000011
其中,N1用于对分类约束的数值平均,为训练过程中一个输入网络图像批次中的目标数目;Yxyc为图像中类别的真值,
Figure FDA0004053610900000012
为网络预测的区域类别,类别包括目标与背景;γ和β为损失函数中的两个超参数,用于对区域分类过程中的目标与背景数目的平衡;
对于目标检测任务中的目标位置与大小的计算,需要用锚框回归分支来预测,该锚框回归分支实际上预测的是目标检测真值框与设置目标锚框之间的差距;本方法假设目标检测真值框为(x,y,h,w),其中四个位置分别代表目标锚框在图像中的横坐标、纵坐标以及锚框的高度和宽度;设置目标锚框为
Figure FDA0004053610900000013
则目标检测网络计算目标检测真值框与设置目标锚框之间的差距表示为:
Figure FDA0004053610900000014
Figure FDA0004053610900000015
Figure FDA0004053610900000016
Figure FDA0004053610900000017
对于目标位置约束为:
Figure FDA0004053610900000021
其中,N2为符合重叠度要求的网络预测值数目;
Figure FDA0004053610900000022
为网络预测值中第i个符合重叠度要求的预测值,其中,符合重叠度要求是指根据网络预测出的目标检测真值框与设置目标锚框之间的差距所计算出的目标框与第j个目标检测真值框重叠度大于阈值;tmj为第j个与网络预测值
Figure FDA0004053610900000023
对应的目标检测真值框,对于目标检测任务的总的损失为:
Ldet=Lclass+εLloc(7)
其中,ε为超参数,用于平衡目标与背景分类与目标框回归;
对比学习整合多模态图像目标信息,提出一个基于对比学习的多模态目标图像信息整合方法,选取不同模态的目标区域作为对比学习的正样本,选取不同模态的背景信息作为对比学习的负样本;约束正样本之间的距离在特征空间中逐渐减小,正样本与负样本间的距离不断加大,从而使目标检测器对于不同模态的目标均能提取到一致的效果,实现利用统一的模型来对多模态的图像进行检测;
将ResNet50提取到的特征,利用目标检测真值框选取目标特征和背景特征,然后送入2层全连接层映射到一个隐空间中来加大正样本即目标间特征的相似度,减小目标和负样本即背景特征间的相似度;采用如下损失函数:
Figure FDA0004053610900000024
其中,N3为一个批次中选取正样本的数量;K为超参数,用于确定选取负样本特征的数目;h(a,b)=aTbab用于计算提取到的特征之间的相似性,
Figure FDA0004053610900000025
fi T和fk B分别代表SAR图像中第j个、可见光图像中第i个目标向量和两种模态图像中的第k个背景向量;τ为温度系数,用于控制对目标检测器难以检测出的样本的关注程度;
对比学习的多模态遥感图像目标检测统一模型在训练过程中的损失函数为:
L=Ldet+αLc(9)
其中,α为平衡两种损失的超参数。
CN202210920610.8A 2022-08-02 2022-08-02 多模态遥感图像联合学习的目标检测统一模型 Active CN115223057B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210920610.8A CN115223057B (zh) 2022-08-02 2022-08-02 多模态遥感图像联合学习的目标检测统一模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210920610.8A CN115223057B (zh) 2022-08-02 2022-08-02 多模态遥感图像联合学习的目标检测统一模型

Publications (2)

Publication Number Publication Date
CN115223057A CN115223057A (zh) 2022-10-21
CN115223057B true CN115223057B (zh) 2023-04-07

Family

ID=83615507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210920610.8A Active CN115223057B (zh) 2022-08-02 2022-08-02 多模态遥感图像联合学习的目标检测统一模型

Country Status (1)

Country Link
CN (1) CN115223057B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012679B (zh) * 2022-12-19 2023-06-16 中国科学院空天信息创新研究院 一种基于多层级跨模态交互的自监督遥感表示学习方法
CN115880266B (zh) * 2022-12-27 2023-08-01 深圳市大数据研究院 一种基于深度学习的肠道息肉检测系统和方法
CN116434024B (zh) * 2023-04-21 2023-09-12 大连理工大学 目标特征嵌入的红外与可见光图像融合方法
CN116310656B (zh) * 2023-05-11 2023-08-15 福瑞泰克智能系统有限公司 训练样本确定方法、装置和计算机设备
CN117320238B (zh) * 2023-11-06 2024-08-20 天成高科(深圳)有限公司 Led节能灯的智能控制方法、装置和led节能灯

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095249A (zh) * 2021-04-19 2021-07-09 大连理工大学 鲁棒的多模态遥感图像目标检测方法
CN113657232B (zh) * 2021-08-10 2024-09-27 大连理工大学 基于风格内容解耦的跨域遥感图像目标检测方法
CN113850176A (zh) * 2021-09-22 2021-12-28 北京航空航天大学 一种基于多模态遥感图像细粒度弱特征目标涌现检测方法

Also Published As

Publication number Publication date
CN115223057A (zh) 2022-10-21

Similar Documents

Publication Publication Date Title
CN115223057B (zh) 多模态遥感图像联合学习的目标检测统一模型
CN112257569B (zh) 一种基于实时视频流的目标检测和识别方法
CN112116593B (zh) 一种基于基尼指数的领域自适应语义分割方法
CN113095249A (zh) 鲁棒的多模态遥感图像目标检测方法
CN111898685B (zh) 一种基于长尾分布数据集的目标检测方法
CN111898663B (zh) 一种基于迁移学习的跨模态遥感图像的匹配方法
CN115187786A (zh) 一种基于旋转的CenterNet2目标检测方法
CN111444865B (zh) 一种基于逐步求精的多尺度目标检测方法
CN114677602A (zh) 一种基于YOLOv5的前视声呐图像目标检测方法和系统
CN112733942A (zh) 一种基于多级特征自适应融合的变尺度目标检测方法
CN110991500A (zh) 一种基于嵌套式集成深度支持向量机的小样本多分类方法
CN116452818A (zh) 一种基于特征增强的小样本遥感图像目标检测方法
Fu et al. A case study of utilizing YOLOT based quantitative detection algorithm for marine benthos
CN117611963A (zh) 基于多尺度扩展残差网络的小目标检测方法及系统
CN112861871A (zh) 一种基于目标边界定位的红外目标检测方法
CN113780462B (zh) 基于无人机航拍图像的车辆检测网络建立方法及其应用
Da et al. Remote sensing image ship detection based on improved YOLOv3
CN113779287A (zh) 基于多阶段分类器网络的跨域多视角目标检索方法及装置
Liu et al. Text detection based on bidirectional feature fusion and sa attention mechanism
Chen et al. Target Detection for Mine Remote Sensing Using Deep Learning
Jiang et al. Face detection based on improved YOLOv5 algorithm
CN115661207B (zh) 基于空间一致性匹配与权重学习的目标跟踪方法与系统
CN114511504B (zh) 一种视频sar动目标阴影检测方法
Yu et al. Pedestrian detection in crowded scenes based on Cascade R-CNN
Liu et al. Research on an improved fish recognition algorithm based on YOLOX

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Zhao Wenda

Inventor after: Xie Shigeng

Inventor after: Zhao Fan

Inventor after: Liu Xinghui

Inventor after: Huang Youpeng

Inventor after: Li Zhili

Inventor before: Zhao Wenda

Inventor before: Xie Shigeng

Inventor before: Wang Haipeng

Inventor before: Zhao Fan

Inventor before: Liu Xinghui

Inventor before: Huang Youpeng

Inventor before: Li Zhili

GR01 Patent grant
GR01 Patent grant