CN111553414A - 一种基于改进Faster R-CNN的车内遗失物体检测方法 - Google Patents

一种基于改进Faster R-CNN的车内遗失物体检测方法 Download PDF

Info

Publication number
CN111553414A
CN111553414A CN202010346629.7A CN202010346629A CN111553414A CN 111553414 A CN111553414 A CN 111553414A CN 202010346629 A CN202010346629 A CN 202010346629A CN 111553414 A CN111553414 A CN 111553414A
Authority
CN
China
Prior art keywords
cnn
network
rois
fpn
improved faster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010346629.7A
Other languages
English (en)
Inventor
徐好好
单志勇
徐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
National Dong Hwa University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN202010346629.7A priority Critical patent/CN111553414A/zh
Publication of CN111553414A publication Critical patent/CN111553414A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进Faster R‑CNN的车内遗失物体检测方法,输入图片首先经过路径增强的ResNet101‑FPN提取多尺度特征图,RPN网络生成锚框并判断其前后景以及预测偏移量,锚框结合偏移量并通过非极大值抑制筛选出RoIs,RoIs与对应的特征图一起输入RoIAlign,RoIAlign将RoIs池化到同一尺寸输入Head部分,Head部分对每一个RoI预测类别和边界框偏移量,最后通过非极大值抑制去除重复边界框得到输出结果。本发明在原始Faster R‑CNN主干网络的FPN结构中再引入一条自底向上的路径增强分支,使得主干网络输出的深层特征图能同时具备较明确语义信息和位置信息,能够适应不同尺寸的物体,对大物体的边界框也能够进行准确的预测。

Description

一种基于改进Faster R-CNN的车内遗失物体检测方法
技术领域
本发明涉及一种基于改进Faster R-CNN的车内遗失物体检测方法,属于计算机视觉和深度学习领域。
背景技术
计算机视觉包含几类基础任务:图像分类,目标检测,语义分割,实例分割,目标跟踪等。基于深度学习的计算机视觉模型往往可以取得更高精度的预测结果,其主要包括以SSD,YOLO为代表的一阶段检测模型,和以R-CNN系列为代表的二阶段检测模型。一阶段的检测模型是直接对锚框进行预测的,而二阶段的检测模型首先通过RPN生成候选区域,然后对候选区域进行预测。
车内遗失物体检测是计算机视觉领域在智能驾驶方向上的一个应用,其核心是使用车载摄像头来代替人眼采集乘客下车瞬间的车内照片,将采集到的图像输入到视觉算法中进行分析,最终判断车内是否存在遗失物体以便于司机通知乘客领取。这里提到的视觉算法有很多种,例如,传统的图像处理方法以及近些年的深度学习方法等。在深度学习出现以前,传统的图像处理和机器学习方法并不能很好地完成一个简单的图像分类任务,而深度学习的出现使得计算机有了达到人类水平的可能,原始的FPN经过一次特征融合使得较浅层的特征图有了明确的语义信息和位置信息,适用于检测小物体,但是较深层的特征图仍然缺少明确的位置信息,这使得对大物体的边界框预测不准确。
Girshick R,Donahue J等人提出的R-CNN模型首先通过选择性搜索生成2000个RoI,然后将全部的RoI通过主干网络提取特征,最后通过SVM分类器和回归模型进行分类和边界框预测,但是R-CNN的速度很慢,训练和预测过程都需要将上千个RoI全部通过主干网络获取特征,这个步骤将花费大量的时间,在实际应用中无法做到实时性检测,并且主干网络,分类器和回归模型均单独训练,主干网络的参数不会因训练SVM和回归模型而更新,这导致模型检测精度不够高。Girshick R提出的Fast R-CNN将RoI共享主干网络卷积计算,只需要将原图进行一次前向传播获取特征图,RoI在特征图对应位置上提取特征即可,引入RoI Pooling将RoI统一到相同尺寸使得分类和回归部分可以同主干网络一起训练,但是前期的选择性搜索仍然占用了大部分计算时间。
发明内容
本发明要解决的技术问题是:现有基于Faster R-CNN的车内遗失物体检测对大物体边界框预测效果欠佳的问题。
为了解决上述问题,本发明的技术方案是提供了一种基于改进Faster R-CNN的车内遗失物体检测方法,包括以下步骤:
步骤1、构建一种改进的Faster R-CNN目标检测模型,所述目标检测模型包括在原始FPN结构中加入一条自底向上的路径增强分支并结合ResNet基础网络形成的路径增强的ResNet-FPN主干网络、RPN网络、RoIAlign和Head结构;
步骤1-1、通过上述ResNet-FPN主干网络提取输入图片的多尺度特征图;
步骤1-2、将步骤1-1中的多尺度特征图输入RPN网络,RPN网络基于多尺度特征图生成锚框并判断其前后景和边界框偏移量,并通过非极大值抑制生成RoIs;
步骤1-3、将步骤1-2生成的RoIs与对应的特征图一起输入RoIAlign,RoIAlign将RPN网络生成的RoIs映射到对应的多尺度特征图上,池化得到统一大小的RoIs作为Head结构的输入;
步骤1-4、Head结构对步骤1-3中的RoIs逐个进行分类并预测边界框偏移量;
步骤2、采集不同种类的易遗失物体图像作为样本图像制作遗失物体数据集,对样本图像进行标注类别和边界框,并将数据集划分为训练集、验证集和测试集;
步骤3、将步骤1中的目标检测模型在训练集上进行训练并使用验证集验证;
步骤4、将测试集图像输入训练好的目标检测模型进行测试,对输出边界框进行非极大值抑制,去除重复的边界框得到最终测试结果。
优选地,所述路径增强的ResNet-FPN主干网络包括原始FPN结构和自底向上的路径增强分支,设FPN结构输出为[P2,P3,…,Pn],ResNet-FPN主干网络输出为[N2,N3,…,Nn,Nn+1],N2即P2,N2首先进行步幅为2的3x3卷积进行2倍下采样,然后与P3作逐元素求和并进行步幅为1的3x3卷积得到N3,同理得到N4,N5,…,Nn,Nn进行最大池化得到Nn+1。
优选地,所述Head结构包括分类和边界框回归两个分支。
优选地,所述步骤2中按照8:1:1的比例将数据集划分为训练集、验证集和测试集。
优选地,所述步骤3中模型训练包括以下步骤:
步骤3-1、对步骤1中改进的Faster R-CNN模型进行初始化参数设置,利用ResNet在ImageNet上预训练的参数作迁移学习,设置迭代次数为40000次,SGD为优化器,前30k迭代,学习率0.001,后10k迭代,学习率0.0001,训练的batchsize为2,进行网络训练;
步骤3-2、设置输入数据类别数num_class为样本图像的类别总数加一个背景类。
优选地,所述步骤1中的基础网络采用ResNet101。
优选地,所述步骤1-3中RoIAlign所采用的池化窗口大小为7x7。
优选地,所述步骤2中样本图像的数量为至少1000张。
与现有技术相比,本发明的有益效果是:
本发明在主干网络FPN结构中引入了自底向上的路径增强分支,使得主干网络输出的深层特征图能同时具备较明确语义信息和位置信息,同时应用RoIAlign防止两次量化导致的池化前后RoI不匹配问题,本发明检测方法能够适应各种尺寸的物体,同时对于大物体的边界框也能够进行准确的预测,使得对大物体的检测更加准确。
附图说明
图1为本发明模型执行检测的流程图;
图2为本发明模型的整体网络框架图;
图3为本发明模型的主干网络结构图;
图4为本发明模型在车内遗失物体图像上的测试效果图。
具体实施方式
为使本发明更明显易懂,兹以优选实施例,并配合附图作详细说明如下。
本实施例中采集6类易遗失物体图像,样本数值M的值为1000张,六类物体分别为笔记本电脑,身份证,水杯,手机,背包和钱包。主干网络提取的输入图片的尺度特征图的尺度数量为5,分别为[N2,N3,N4,N5,N6]。
如图1所示,本发明一种基于改进Faster R-CNN的车内遗失物体检测方法,包括以下步骤:
步骤1、构建一种改进的Faster R-CNN目标检测模型,如图2所示,包括在原始FPN结构中加入一条自底向上的路径增强分支并结合ResNet基础网络形成的路径增强的ResNet101-FPN的主干网络、RPN网络、RoIAlign和Head结构。
如图3所示,ResNet101-FPN的主干网络左侧为原始FPN结构,输出[P2,P3,P4,P5],右侧为自底向上的路径增强分支,N2即P2,N2首先进行步幅为2的3x3卷积进行2倍下采样,然后与P3作逐元素求和并进行步幅为1的3x3卷积得到N3,同理得到N4和N5,N5进行最大池化得到N6。主干网络得到[N2,N3,N4,N5,N6]共五个特征图,其全部作为RPN网络的输入,[N2,N3,N4,N5]作为RoIAlign的输入。
RPN基于[N2,N3,N4,N5,N6]上每个点分别生成5种大小和3种长宽比的锚框,大小和长宽比分别为[32,64,128,256,512]和[0.5,1,2],然后判断锚框前后景和边界框偏移量并通过非极大值抑制生成RoIs。
RoIAlign将RPN网络生成的RoIs映射到对应的特征图[N2,N3,N4,N5,N6]上,然后池化到统一大小作为Head结构的输入,RoIAlign所使用的池化窗口大小为7x7,生成形状为7x7x256的RoIs;Head结构包含分类和边界框回归两个分支,对RoIs逐个进行分类并预测边界框偏移量。
步骤2、定义目标任务,采集目标样本图及数据集制作:
步骤2-1、定义目标任务为车内遗失物体检测,采集6类易遗失物体图像;
步骤2-2、数据集制作,准备适量目标任务的样本图像并进行数据增强,数据集共包含M张图像,M的数量为1000。
步骤2-3、将步骤2-2得到的样本图像进行标注,标注的内容包括图像内物体的类别和边界框;
步骤2-4、将步骤2-3得到的标注完成的数据集按照8:1:1的比例进行划分,得到训练集800张、验证集100张、测试集100张三部分;
步骤3、模型训练:
步骤3-1、对步骤1中改进的Faster R-CNN进行初始化参数设置,利用ResNet101在ImageNet上预训练的参数作迁移学习,设置迭代次数为40000次,SGD为优化器,前30k迭代,学习率0.001,后10k迭代,学习率0.0001,训练的batchsize为2,进行网络训练;
步骤3-2、目标任务是检测六类易遗失物体,即K=6,再加一个背景类,则输入数据类别数num_class=6+1=7。
步骤4、模型测试,将步骤2得到的测试集图像输入训练好的目标检测模型进行测试:
步骤4-1、选定测试集中的样本图像输入训练好的模型;
步骤4-2、对输出边界框进行非极大值抑制,选取前100个置信度最高的RoIs生成边界框,去除重复的边界框得到最终测试结果。
将改进模型应用于车内遗失物体检测,图4为本发明改进后的模型在车内遗失物体图像上的测试效果图,测试时利用非极大值抑制进行后处理,得到检测结果。实验表明,经本发明改进后的目标检测模型在遗失物体数据集上的mAP高达98.6%。

Claims (8)

1.一种基于改进Faster R-CNN的车内遗失物体检测方法,包括以下步骤:
步骤1、构建一种改进的Faster R-CNN目标检测模型,所述目标检测模型包括在原始FPN结构中加入一条自底向上的路径增强分支并结合ResNet基础网络形成的路径增强的ResNet-FPN主干网络、RPN网络、RoIAlign和Head结构;
步骤1-1、通过上述ResNet-FPN主干网络提取输入图片的多尺度特征图;
步骤1-2、将步骤1-1中的多尺度特征图输入RPN网络,RPN网络基于多尺度特征图生成锚框并判断其前后景和边界框偏移量,并通过非极大值抑制生成RoIs;
步骤1-3、将步骤1-2生成的RoIs与对应的特征图一起输入RoIAlign,RoIAlign将RPN网络生成的RoIs映射到对应的多尺度特征图上,池化得到统一大小的RoIs作为Head结构的输入;
步骤1-4、Head结构对步骤1-3中的RoIs逐个进行分类并预测边界框偏移量;
步骤2、采集不同种类的易遗失物体图像作为样本图像制作遗失物体数据集,对样本图像进行标注类别和边界框,并将数据集划分为训练集、验证集和测试集;
步骤3、将步骤1中的目标检测模型在训练集上进行训练并使用验证集验证;
步骤4、将测试集图像输入训练好的目标检测模型进行测试,对输出边界框进行非极大值抑制,去除重复的边界框得到最终测试结果。
2.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于:所述路径增强的ResNet-FPN主干网络包括原始FPN结构和自底向上的路径增强分支,设FPN结构输出为[P2,P3,…,Pn],ResNet-FPN主干网络输出为[N2,N3,…,Nn,Nn+1],N2即P2,N2首先进行步幅为2的3x3卷积进行2倍下采样,然后与P3作逐元素求和并进行步幅为1的3x3卷积得到N3,同理得到N4,N5,…,Nn,Nn进行最大池化得到Nn+1
3.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于:所述Head结构包括分类和边界框回归两个分支。
4.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于:所述步骤2中按照8:1:1的比例将数据集划分为训练集、验证集和测试集。
5.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于,所述步骤3中模型训练包括以下步骤:
步骤3-1、对步骤1中改进的Faster R-CNN模型进行初始化参数设置,利用ResNet在ImageNet上预训练的参数作迁移学习,设置迭代次数为40000次,SGD为优化器,前30k迭代,学习率0.001,后10k迭代,学习率0.0001,训练的batchsize为2,进行网络训练;
步骤3-2、设置输入数据类别数num_class为样本图像的类别总数加一个背景类。
6.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于:所述步骤1中的基础网络采用ResNet101。
7.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于:所述步骤1-3中RoIAlign所采用的池化窗口大小为7x7。
8.如权利要求1所述的一种基于改进Faster R-CNN的车内遗失物体检测方法,其特征在于:所述步骤2中样本图像的数量为至少1000张。
CN202010346629.7A 2020-04-27 2020-04-27 一种基于改进Faster R-CNN的车内遗失物体检测方法 Pending CN111553414A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010346629.7A CN111553414A (zh) 2020-04-27 2020-04-27 一种基于改进Faster R-CNN的车内遗失物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010346629.7A CN111553414A (zh) 2020-04-27 2020-04-27 一种基于改进Faster R-CNN的车内遗失物体检测方法

Publications (1)

Publication Number Publication Date
CN111553414A true CN111553414A (zh) 2020-08-18

Family

ID=72008239

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010346629.7A Pending CN111553414A (zh) 2020-04-27 2020-04-27 一种基于改进Faster R-CNN的车内遗失物体检测方法

Country Status (1)

Country Link
CN (1) CN111553414A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164077A (zh) * 2020-09-25 2021-01-01 陕西师范大学 基于自下而上路径增强的细胞实例分割方法
CN114049487A (zh) * 2021-11-29 2022-02-15 江苏科技大学 一种基于机器视觉的多种类汽车车灯检测方法、装置及计算机存储介质
CN114299366A (zh) * 2022-03-10 2022-04-08 青岛海尔工业智能研究院有限公司 一种图像检测方法、装置、电子设备及存储介质
GB2604991A (en) * 2021-01-14 2022-09-21 Nvidia Corp Performing non-maximum suppression in parallel
CN115115887A (zh) * 2022-07-07 2022-09-27 中国科学院合肥物质科学研究院 基于TSD-Faster RCNN的农作物害虫检测方法及其网络
WO2023077821A1 (zh) * 2021-11-07 2023-05-11 西北工业大学 基于多清晰度集成自训练的小样本低质量图像目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175993A (zh) * 2019-05-27 2019-08-27 西安交通大学医学院第一附属医院 一种基于FPN的Faster R-CNN肺结核征象检测系统及方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175993A (zh) * 2019-05-27 2019-08-27 西安交通大学医学院第一附属医院 一种基于FPN的Faster R-CNN肺结核征象检测系统及方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHU LIU,LU QI, HAIFANG QIN,JIANPING SHI,JIAYA JIA: "Path Aggregation Network for Instance Segmentatio", 《ARXIV:1803.01534V4 [CS.CV]》 *
TSUNG-YI LIN, PIOTR DOLL´AR,ROSS GIRSHICK: "Feature Pyramid Networks for Object Detection", 《ARXIV:1612.03144V2 [CS.CV]》 *
梦里寻梦: "三十六)通俗易懂理解——ROI Align的基本原理及rpn与rcnn head锚框标签制作", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/73113289》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164077A (zh) * 2020-09-25 2021-01-01 陕西师范大学 基于自下而上路径增强的细胞实例分割方法
CN112164077B (zh) * 2020-09-25 2023-12-29 陕西师范大学 基于自下而上路径增强的细胞实例分割方法
GB2604991A (en) * 2021-01-14 2022-09-21 Nvidia Corp Performing non-maximum suppression in parallel
GB2604991B (en) * 2021-01-14 2023-08-02 Nvidia Corp Performing non-maximum suppression in parallel
WO2023077821A1 (zh) * 2021-11-07 2023-05-11 西北工业大学 基于多清晰度集成自训练的小样本低质量图像目标检测方法
CN114049487A (zh) * 2021-11-29 2022-02-15 江苏科技大学 一种基于机器视觉的多种类汽车车灯检测方法、装置及计算机存储介质
CN114299366A (zh) * 2022-03-10 2022-04-08 青岛海尔工业智能研究院有限公司 一种图像检测方法、装置、电子设备及存储介质
CN115115887A (zh) * 2022-07-07 2022-09-27 中国科学院合肥物质科学研究院 基于TSD-Faster RCNN的农作物害虫检测方法及其网络
CN115115887B (zh) * 2022-07-07 2023-09-12 中国科学院合肥物质科学研究院 基于TSD-Faster RCNN的农作物害虫检测方法及其网络

Similar Documents

Publication Publication Date Title
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN108647585B (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
CN111553414A (zh) 一种基于改进Faster R-CNN的车内遗失物体检测方法
CN112132156B (zh) 多深度特征融合的图像显著性目标检测方法及系统
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN110163069B (zh) 用于辅助驾驶的车道线检测方法
CN111932511B (zh) 一种基于深度学习的电子元器件质量检测方法与系统
CN108537751B (zh) 一种基于径向基神经网络的甲状腺超声图像自动分割方法
CN116665176B (zh) 一种面向车辆自动驾驶的多任务网络道路目标检测方法
CN110298281B (zh) 视频结构化方法、装置、电子设备及存储介质
Xing et al. Traffic sign recognition using guided image filtering
CN112183649A (zh) 一种用于对金字塔特征图进行预测的算法
CN113297959B (zh) 一种基于角点注意力孪生网络的目标跟踪方法及系统
CN109871792B (zh) 行人检测方法和装置
CN111783819A (zh) 小规模数据集上基于感兴趣区域训练改进的目标检测方法
CN114266988A (zh) 基于对比学习的无监督视觉目标跟踪方法及系统
CN114821665A (zh) 一种基于卷积神经网络的城市人流小目标检测方法
CN112785636A (zh) 一种多尺度增强式的单目深度估计方法
CN116883650A (zh) 一种基于注意力和局部拼接的图像级弱监督语义分割方法
CN115100469A (zh) 一种基于分割算法的目标属性识别方法、训练方法和装置
CN116844143B (zh) 基于边缘增强的胚胎发育阶段预测与质量评估系统
CN116977979A (zh) 一种交通标志识别方法、系统、设备及存储介质
CN111612803A (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN114743045B (zh) 一种基于双分支区域建议网络的小样本目标检测方法
CN113642500B (zh) 一种基于多阶段域自适应的低照度目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200818

WD01 Invention patent application deemed withdrawn after publication