CN116645523B - 一种基于改进RetinaNet的快速目标检测方法 - Google Patents

一种基于改进RetinaNet的快速目标检测方法 Download PDF

Info

Publication number
CN116645523B
CN116645523B CN202310904296.9A CN202310904296A CN116645523B CN 116645523 B CN116645523 B CN 116645523B CN 202310904296 A CN202310904296 A CN 202310904296A CN 116645523 B CN116645523 B CN 116645523B
Authority
CN
China
Prior art keywords
positions
feature map
targets
target position
detection head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310904296.9A
Other languages
English (en)
Other versions
CN116645523A (zh
Inventor
李忠涛
刘圣勇
刘武军
刘逸麟
张玉璘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Lanrui Storage Technology Co ltd
Original Assignee
Jiangxi Lanrui Storage Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Lanrui Storage Technology Co ltd filed Critical Jiangxi Lanrui Storage Technology Co ltd
Priority to CN202310904296.9A priority Critical patent/CN116645523B/zh
Publication of CN116645523A publication Critical patent/CN116645523A/zh
Application granted granted Critical
Publication of CN116645523B publication Critical patent/CN116645523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种基于改进RetinaNet的快速目标检测方法,涉及计算机视觉领域。用于在保证检测准确率不大幅度下降的同时,大幅提高RetinaNet检测速度,提高计算效率。所述方法包括:针对大、中、小三种尺度目标分别训练三种目标位置检测头,在低分辨率特征图检测目标位置,将位置还原到高分辨率特征图,并在三种不同的分辨率特征图上检测三种尺度的目标,从而避免在高分辨率特征图检测无关背景区域,节约检测目标的计算量,提高计算效率,同时高分辨率特征图检测到的目标位置和相邻低分辨率特征图目标位置基本一致,这样操作得到的检测准确率和直接在高分辨率特征图检测得到的准确率差别较小。

Description

一种基于改进RetinaNet的快速目标检测方法
技术领域
本发明属于计算机视觉领域,特别涉及一种基于改进RetinaNet的快速目标检测方法。
背景技术
随着目标检测任务中小目标的重要性日益凸显,FPN(Feature Pyramid Network)成为一种常用的技术,用于提升小目标的检测性能。然而,FPN的浅层特征图通常具有最大的尺度,这导致在进行特征提取和后续计算时,会产生较高的计算量。这样的计算负担可能限制了在实际应用中将FPN扩展到更大的图像尺寸或更深的网络结构。为了减小计算量,同时又不损害FPN的性能,研究人员提出了一些方法和技术。一种常见的方法是通过对浅层特征图进行下采样,降低其分辨率,从而减小计算量。这可以通过使用更大的步长或者池化操作实现。通过减小浅层特征图的分辨率,可以在一定程度上减少每个像素点上的计算量,尤其是针对小目标区域,因为小目标通常不需要高分辨率的特征。另一种方法是通过引入注意力机制,将计算资源更集中地分配给感兴趣的区域。例如,可以使用空间注意力机制或通道注意力机制,根据目标的重要性或区域的显著性,调整不同层次的特征图的权重。这样可以使网络更关注对小目标检测有贡献的特征图,从而减少不必要的计算量。此外,还有一些进一步的优化策略,如网络剪枝、参数量化、硬件加速等,可以进一步降低计算量,提高FPN的计算效率。
发明内容
本发明提供一种基于改进RetinaNet的快速目标检测方法,旨在改进算法的计算效率,并控制检测平均精度AP不会大幅下降。
为解决上述技术问题,本发明对于目标检测网络模型RetinaNet作出了针对性改进,包括以下步骤:
S1、从数据集获得待检测图像,输入到RetinaNet骨干网络,并获得输出P3、P4、P5、P6、P7特征图;
S2、在原有两个用于分类和回归的检测头外,训练额外目标位置查询检测头,设置大目标位置检测头,检测P7和P6特征图,设置中目标位置检测头,检测P6和P5特征图,设置小目标位置检测头,检测P5和P4特征图;
S3、大目标位置检测头训练为只检测目标尺寸大于64的目标,中目标位置检测头训练为只检测目标尺寸在32到64的目标,小目标位置检测头训练为只检测目标尺寸在32以下的目标;检测头输出当前检测特征图每个位置存在的概率,对位置进行阈值筛选,可获得存在目标的位置;
S4、使用大目标位置检测头检测P7特征图,获得存在大目标的位置,然后将这些位置还原到P6特征图,使用大目标位置检测头检测P6特征图,获得存在大目标的位置,并和P7传来的位置合并,然后将合并位置还原到P5特征图,并将还原的位置认为是P5特征图存在大目标的位置;
S5、使用中目标位置检测头检测P6特征图,获得存在中目标的位置,然后将这些位置还原到P5特征图,使用中目标位置检测头检测P5特征图,获得存在中目标的位置,并和P6传来的位置合并,然后将合并位置还原到P4特征图,并将还原的位置认为是P4特征图存在中目标的位置;
S6、使用小目标位置检测头检测P5特征图,获得存在小目标的位置,然后将这些位置还原到P4特征图,使用小目标位置检测头检测P4特征图,获得存在小目标的位置,并和P5传来的位置合并,然后将合并位置还原到P3特征图,并将还原的位置认为是P3特征图存在小目标的位置;
S7、使用原有的分类和回归检测头检测P7和P6特征图的全部位置,使用分类和回归检测头检测P5、P4、P3存在目标的位置;
S8、基于分类和回归检测结果进行目标检测。
优选地,在步骤S4、S5、S6中使用的位置还原方法为,对于一个位置坐标(x,y),位置还原后得到四个位置为(2x,2y)、(2x+1,2y)、(2x,2y+1)、(2x+1,2y+1)。
优选地,如果输入图像大小为H×W时,特征图的大小为, 这里L代表特征图的输出层数,如P3特征图的L为3,而且()等于()。
优选地,额外的检测头由四个 3×3 卷积层组成,然后是一个额外的 3×3 卷积 层用于最终预测,输入步长为的特征图,并输出热图,其中 表示L层特征图位置(i,j)包含目标的概率,其中i取值范围为0到,j的取值范围为0到
本发明同时提供一种大中小目标位置检测头,其特征在于:训练模块和检测模块; 所述训练模块,用于训练检测头检测特征图每个位置是否存在不同大小尺度的目标,对于 Retinanet网络,FPN输出有P3、P4、P5、P6、P7,为输出的每层特征图,L代表层数,对于上的真实边界框,计算每个特征位置(x,y)和真实边 界框中心的最小距离图, 对于大目标检测头,需要检测的目标位置图为,如果大于64,则为1,否 则为0,对于中目标检测头,需要检测的目标位置图为,如果小于64而且大 于32,则为1,否则为0,对于小目标检测头,需要检测的目标位置图为,如果小于32,则为1,否则为0,对于为1,则代表该位置存在目标,为0则相反, 对于损失函数,除原有的分类和回归损失外,增加位置检测损失项,总损失为, 其中分别代表分类输出、回归输出、检测分数输出,分别代表 对应的真实边界框回归,代表Focal loss,代表边界框回归损失(smooth L1 loss);所述检测模块,使用训练的检测头检测特征图每个位置是否存在目标,使用大目 标检测头检测大目标,使用中目标检测头检测中目标,使用小目标检测头检测小目标,输入 特征图,得到每个位置存在目标的概率,范围为(0,1),使用阈值0.15进行判断,大于0.15则 存在相应尺度的目标,小于0.15则不存在目标。
与现有技术相比,本发明具有以下技术效果:
本发明提供的技术方案通过在低分辨率特征图检测目标位置,将位置还原到高分辨率特征图,从而避免在高分辨率特征图检测无关背景区域,节约检测目标的计算量,提高计算效率,同时高分辨率特征图检测到的目标位置和相邻低分辨率特征图目标位置基本一致,这样操作得到的检测平均精度AP和直接在高分辨率特征图检测得到的平均精度AP差别较小。
附图说明
图1是本发明提供的一种基于改进RetinaNet的快速目标检测方法的检测流程图;
图2是本发明提供的Retinanet输出特征图结构;
图3是本发明提供的大目标位置查询检测头检测示意图;
图4是本发明提供的中目标位置查询检测头检测示意图;
图5是本发明提供的小目标位置查询检测头检测示意图;
具体实施方式
本发明旨在提出一种基于改进RetinaNet的快速目标检测方法,通过额外的目标检测头,在低分辨率特征图上预测小物体的粗略位置,然后使用由这些粗略位置转换到高分辨率特征图,并计算准确的检测结果,从而在高分辨率特征图避免检测无关背景区域,节约大量计计算量,同时使得检测平均精度AP不会大幅下降。
对于本申请实施例提到的目标位置查询检测头,其训练过程为:
步骤一、从数据集获得待检测图像,输入到RetinaNet骨干网络,并获得输出P3、P4、P5、P6、P7特征图,保持分类头和回归头的训练与原始 RetinaNet中的相同;
步骤二、对于额外的大、中、小目标位置检测头,单独进行训练,大目标位置检测头使用P7和P6特征图进行检测,中目标位置检测头使用P6和P5特征图进行训练,小目标位置检测头使用P5和P4特征图进行训练;
步骤三、对于上的真实边界框,计算每个 特征位置(x,y)和真实边界框中心的最小距离图
步骤四、对于大目标检测头,需要检测的目标位置图为,如果大于 64,则为1,否则为0;对于中目标检测头,需要检测的目标位置图为,如果小于64而且大于32,则为1,否则为0;对于小目标检测头,需要检测的目标 位置图为,如果小于32,则为1,否则为0;对于为1,则代表该位置存 在目标,为0则相反;
步骤五、对于损失函数,除原有的分类和回归损失外,增加位置检测损失项,总损失为
, 其中分别代表分类输出、回归输出、检测分数输出,分别代表 对应的真实边界框回归,代表Focal loss,代表边界框回归损失使用 smooth L1 loss。
请参见图 1所示,本申请实施例中的基于改进RetinaNet的快速目标检测方法的检测流程描述如下:
步骤S1:获得P3、P4、P5、P6、P7特征图;
如图2所示,从数据集获得待检测图像,输入到RetinaNet骨干网络,并获得输出P3、P4、P5、P6、P7特征图。
步骤S2:设置大、中、小三种目标位置查询检测头;
在原有两个用于分类和回归的检测头外,训练额外目标位置查询检测头,设置大目标位置检测头,检测P7和P6特征图,设置中目标位置检测头,检测P6和P5特征图,设置小目标位置检测头,检测P5和P4特征图。
步骤S3:训练大、中、小三种检测头查询对应目标位置;
大目标位置检测头训练为只检测目标尺寸大于64的目标,中目标位置检测头训练为只检测目标尺寸在32到64的目标,小目标位置检测头训练为只检测目标尺寸在32以下的目标;检测头输出当前检测特征图每个位置存在的概率,对位置进行阈值筛选,可获得存在目标的位置。
步骤S4:大目标检测头检测P7、P6,并将位置传递到P5;
如图3所示,使用大目标位置检测头检测P7特征图,获得存在大目标的位置,然后将这些位置还原到P6特征图,使用大目标位置检测头检测P6特征图,获得存在大目标的位置,并和P7传来的位置合并,然后将合并位置还原到P5特征图,并将还原的位置认为是P5特征图存在大目标的位置。
步骤S5:中目标检测头检测P6、P5,并将位置传递到P4;
如图4所示,使用中目标位置检测头检测P6特征图,获得存在中目标的位置,然后将这些位置还原到P5特征图,使用中目标位置检测头检测P5特征图,获得存在中目标的位置,并和P6传来的位置合并,然后将合并位置还原到P4特征图,并将还原的位置认为是P4特征图存在中目标的位置。
步骤S6:小目标检测头检测P5、P4,并将位置传递到P3;
如图5所示,使用小目标位置检测头检测P5特征图,获得存在小目标的位置,然后将这些位置还原到P4特征图,使用小目标位置检测头检测P4特征图,获得存在小目标的位置,并和P5传来的位置合并,然后将合并位置还原到P3特征图,并将还原的位置认为是P3特征图存在小目标的位置。
步骤S7:使用原分类和回归检测头检测P7、P6全部位置,使用原分类和回归检测头检测P5、P4、P3存在目标的位置;
对P6、P7使用原分类和回归检测头检测完整特征图,得到P6、P7的分类和回归检测结果,根据P5、P4、P3存在目标的位置构建稀疏索引,使得特征图生成稀疏张量,然后使用原分类和回归检测头参数构建稀疏卷积,并将稀疏张量输入稀疏卷积,得到P5、P4、P3的分类和回归检测结果。
步骤S8:基于所有特征图的分类和回归检测结果进行目标检测。
进一步,由于S7、S8、S9位置还原方法为相邻低分辨率特征图向高分辨率特征图还原,其高和宽都为2倍关系,因此对于一个位置坐标(x,y),位置还原后得到四个位置为(2x,2y)、(2x+1,2y)、(2x,2y+1)、(2x+1,2y+1)。
进一步,步骤107中稀疏张量指在一个多维张量中,只有一小部分元素是非零的,而其他元素都是零,本实例中稀疏张量是由特征图通过目标存在位置构成稀疏索引生成的。稀疏卷积仅考虑输入张量中非零元素所对应的位置,并只对这些非零位置进行卷积运算,本实例中根据原分类和回归检测头结构和参数,定义稀疏卷积的结构和参数。P5、P4、P3分类和回归检测为,将稀疏张量作为输入传递给稀疏卷积操作,得到稀疏卷积的输出。输入的稀疏张量中只有非零位置会参与计算,而输出也是一个稀疏张量,其中只有经过计算得到的非零位置会有相应的输出值。这样可以减少计算量和存储需求。
表1 改进 RetinaNet 和 RetinaNet 的平均精度AP及平均推理FPS
平均精度AP 平均推理FPS
Retinanet 37.973% 4.9290s
改进Retinanet 37.949% 11.6267s
为了验证本发明提出的一种基于改进RetinaNet的快速目标检测方法的有效性,将原始的RetinaNet目标检测模型与改进RetinaNet快速目标检测模型在coco数据集上做性能对比,其中测试数据集包含5000张图片,算法框架使用MMdetection,学习率设置为0.01,batch设置为16,训练迭代数为90000,训练硬件使用4张3090显卡,其中评价指标选取平均精度AP和平均推理FPS,AP的计算方法是计算Precision-Recall曲线下的面积,衡量模型在不同召回率下的平均精确率,平均推理FPS是通过将总推理时间除以测试样本数量来计算,表示模型在单位时间内能够处理的图像帧数,所得结果如表1所示,可以看出本发明提出的改进RetinaNet的AP为37.949%,虽然比原始RetinaNet的AP值37.973%略有降低,但推理速度大幅度提升,平均推理FPS从4.929秒提升到11.6267秒。
以上仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (4)

1.一种基于改进RetinaNet的快速目标检测方法,其特征在于,包括以下步骤:
S1、从数据集获得待检测图像,输入到RetinaNet骨干网络,并获得输出P3、P4、P5、P6、P7特征图;
S2、在原有两个用于分类和回归的检测头外,使用额外的目标位置查询检测头,设置大目标位置检测头,检测P7和P6特征图,设置中目标位置检测头,检测P6和P5特征图,设置小目标位置检测头,检测P5和P4特征图,对于这三种目标位置查询检测头,设置训练模块和检测模块,在训练模块,训练检测头检测特征图每个位置是否存在不同大小尺度的目标,对于Retinanet网络,FPN输出有P3、P4、P5、P6、P7,PL为输出的每层特征图,L代表层数,对于PL上的真实边界框计算PL每个特征位置(x,y)和真实边界框中心的最小距离图/>对于大目标位置检测头,需要检测的目标位置图为/>如果DL[x][y]大于64,则/>为1,否则为0,对于中目标位置检测头,需要检测的目标位置图为/>如果DL[x][y]小于64而且大于32,则/>为1,否则为0,对于小目标位置检测头,需要检测的目标位置图为/>如果DL[x][y]小于32,则/>为1,否则为0,对于/>为1,则代表该位置存在目标,为0则相反,对于损失函数,除原有的分类和回归损失外,增加位置检测损失项,总损失为其中UL、RL、VL分别代表分类输出、回归输出、检测分数输出,/>分别代表对应的真实边界框回归,LossFL代表Focal loss,Lossr代表边界框回归损失使用smooth L1 loss,在检测模块,使用训练的检测头检测特征图每个位置是否存在目标,使用大目标位置检测头检测大目标,使用中目标位置检测头检测中目标,使用小目标位置检测头检测小目标,输入特征图,得到每个位置存在目标的概率,范围为(0,1),使用阈值0.15进行判断,大于0.15则存在相应尺度的目标,小于0.15则不存在目标;
S3、大目标位置检测头训练为只检测目标尺寸大于64的目标,中目标位置检测头训练为只检测目标尺寸在32到64的目标,小目标位置检测头训练为只检测目标尺寸在32以下的目标;检测头输出当前检测特征图每个位置存在的概率,对位置进行阈值筛选,可获得存在目标的位置;
S4、使用大目标位置检测头检测P7特征图,获得存在大目标的位置,然后将这些位置还原到P6特征图,使用大目标位置检测头检测P6特征图,获得存在大目标的位置,并和P7传来的位置合并,然后将合并位置还原到P5特征图,并将还原的位置认为是P5特征图存在大目标的位置;
S5、使用中目标位置检测头检测P6特征图,获得存在中目标的位置,然后将这些位置还原到P5特征图,使用中目标位置检测头检测P5特征图,获得存在中目标的位置,并和P6传来的位置合并,然后将合并位置还原到P4特征图,并将还原的位置认为是P4特征图存在中目标的位置;
S6、使用小目标位置检测头检测P5特征图,获得存在小目标的位置,然后将这些位置还原到P4特征图,使用小目标位置检测头检测P4特征图,获得存在小目标的位置,并和P5传来的位置合并,然后将合并位置还原到P3特征图,并将还原的位置认为是P3特征图存在小目标的位置;
S7、使用原有的分类和回归检测头检测P7和P6特征图的全部位置,使用分类和回归检测头检测P5、P4、P3特征图中只存在目标的位置;
S8、基于所有特征图的分类和回归检测结果进行目标检测。
2.根据权利要求1所述的一种基于改进RetinaNet的快速目标检测方法,其特征在于,在步骤S4、S5、S6中使用的位置还原方法为,对于一个位置坐标(x,y),位置还原后得到四个位置为(2x,2y)、(2x+1,2y)、(2x,2y+1)、(2x+1,2y+1)。
3.根据权利要求1所述的一种基于改进RetinaNet的快速目标检测方法,其特征在于,如果输入图像大小为H×W时,特征图的大小为这里L代表特征图的输出层数,如P3特征图的L为3,而且(H1,W1)等于/>
4.根据权利要求1所述的一种基于改进RetinaNet的快速目标检测方法,其特征在于,额外的检测头由四个3×3卷积层组成,然后是一个额外的3×3卷积层用于最终预测,输入步长为2L的特征图PL,并输出热图其中/>表示L层特征图位置(i,j)包含目标的概率,其中i取值范围为0到H1,j的取值范围为0到W1
CN202310904296.9A 2023-07-24 2023-07-24 一种基于改进RetinaNet的快速目标检测方法 Active CN116645523B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310904296.9A CN116645523B (zh) 2023-07-24 2023-07-24 一种基于改进RetinaNet的快速目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310904296.9A CN116645523B (zh) 2023-07-24 2023-07-24 一种基于改进RetinaNet的快速目标检测方法

Publications (2)

Publication Number Publication Date
CN116645523A CN116645523A (zh) 2023-08-25
CN116645523B true CN116645523B (zh) 2023-12-01

Family

ID=87619212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310904296.9A Active CN116645523B (zh) 2023-07-24 2023-07-24 一种基于改进RetinaNet的快速目标检测方法

Country Status (1)

Country Link
CN (1) CN116645523B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461110A (zh) * 2020-03-02 2020-07-28 华南理工大学 一种基于多尺度图像和加权融合损失的小目标检测方法
CN111709397A (zh) * 2020-07-08 2020-09-25 哈尔滨工业大学 一种基于多头自注意力机制的无人机变尺寸目标检测方法
CN111967305A (zh) * 2020-07-01 2020-11-20 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN112001411A (zh) * 2020-07-10 2020-11-27 河海大学 一种基于fpn结构的大坝裂缝检测算法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
WO2021208502A1 (zh) * 2020-04-16 2021-10-21 中国科学院深圳先进技术研究院 一种基于平滑边框回归函数的遥感图像目标检测方法
CN115115586A (zh) * 2022-06-14 2022-09-27 青岛理工大学 一种基于改进RetinaNet的RV减速器针齿检测方法
CN115690714A (zh) * 2022-11-08 2023-02-03 江南大学 一种基于区域聚焦的多尺度道路目标检测方法
CN115861772A (zh) * 2023-02-22 2023-03-28 杭州电子科技大学 基于RetinaNet的多尺度单阶段目标检测方法
KR20230048727A (ko) * 2021-10-05 2023-04-12 인하대학교 산학협력단 적대적 초해상도 다중 스케일 특징맵 학습 및 객체 검출기
CN116188929A (zh) * 2023-02-14 2023-05-30 东北大学 小目标检测方法、小目标检测系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055574B2 (en) * 2018-11-20 2021-07-06 Xidian University Feature fusion and dense connection-based method for infrared plane object detection
CN112132832B (zh) * 2020-08-21 2021-09-28 苏州浪潮智能科技有限公司 一种增强图像实例分割的方法、系统、设备及介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111461110A (zh) * 2020-03-02 2020-07-28 华南理工大学 一种基于多尺度图像和加权融合损失的小目标检测方法
WO2021208502A1 (zh) * 2020-04-16 2021-10-21 中国科学院深圳先进技术研究院 一种基于平滑边框回归函数的遥感图像目标检测方法
CN111967305A (zh) * 2020-07-01 2020-11-20 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN111709397A (zh) * 2020-07-08 2020-09-25 哈尔滨工业大学 一种基于多头自注意力机制的无人机变尺寸目标检测方法
CN112001411A (zh) * 2020-07-10 2020-11-27 河海大学 一种基于fpn结构的大坝裂缝检测算法
KR20230048727A (ko) * 2021-10-05 2023-04-12 인하대학교 산학협력단 적대적 초해상도 다중 스케일 특징맵 학습 및 객체 검출기
CN115115586A (zh) * 2022-06-14 2022-09-27 青岛理工大学 一种基于改进RetinaNet的RV减速器针齿检测方法
CN115690714A (zh) * 2022-11-08 2023-02-03 江南大学 一种基于区域聚焦的多尺度道路目标检测方法
CN116188929A (zh) * 2023-02-14 2023-05-30 东北大学 小目标检测方法、小目标检测系统
CN115861772A (zh) * 2023-02-22 2023-03-28 杭州电子科技大学 基于RetinaNet的多尺度单阶段目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Remote Sensing Image Target Detection Algorithm Based on Multi-dimension Attention;Pengfei Shi 等;《2021 7th International Conference on Computer and Communications (ICCC)》;全文 *
基于RetinaNet的SAR图像舰船目标检测;刘洁瑜;赵彤;刘敏;;湖南大学学报(自然科学版)(第02期);全文 *
基于密集连接的FPN多尺度目标检测算法;张宽;滕国伟;范涛;李聪;;计算机应用与软件(第01期);全文 *

Also Published As

Publication number Publication date
CN116645523A (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN112488210B (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN110930454A (zh) 一种基于边界框外关键点定位的六自由度位姿估计算法
CN106228185B (zh) 一种基于神经网络的通用图像分类识别系统及方法
CN113486764B (zh) 一种基于改进的YOLOv3的坑洼检测方法
CN109887021B (zh) 基于跨尺度的随机游走立体匹配方法
CN108648161A (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN112418108B (zh) 一种基于样本重加权的遥感图像多类目标检测方法
CN111126278B (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN111046767B (zh) 一种基于单目图像的3d目标检测方法
CN110610143B (zh) 多任务联合训练的人群计数网络方法、系统、介质及终端
CN107944354B (zh) 一种基于深度学习的车辆检测方法
CN112149665B (zh) 一种基于深度学习的高性能多尺度目标检测方法
CN101951463A (zh) 基于简易快速全局运动参数估计的实时视频稳像方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN111310609B (zh) 基于时序信息和局部特征相似性的视频目标检测方法
CN112836573A (zh) 一种基于对抗生成网络的车道线图像增强与补全方法
CN114299383A (zh) 基于密度图与注意力机制融合的遥感图像目标检测方法
CN116563682A (zh) 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法
CN116703996A (zh) 基于实例级自适应深度估计的单目三维目标检测算法
CN113160117A (zh) 一种自动驾驶场景下的三维点云目标检测方法
CN115995042A (zh) 一种视频sar运动目标检测方法及装置
CN113963272A (zh) 一种基于改进yolov3的无人机图像目标检测方法
CN113989612A (zh) 基于注意力及生成对抗网络的遥感影像目标检测方法
CN111639206A (zh) 基于优化特征权重的有效精细图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20231024

Address after: Building 11, Phase I, New Industrial Complex, No. 1198 Qinhu Avenue, Lianxi District, Jiujiang City, Jiangxi Province, 332000

Applicant after: Jiangxi Lanrui Storage Technology Co.,Ltd.

Address before: 250024 No. 336, nanxinzhuang West Road, Jinan City, Shandong Province

Applicant before: University of Jinan

Applicant before: Jiangxi Lanrui Storage Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant