CN114067126A - 一种红外图像目标检测方法 - Google Patents
一种红外图像目标检测方法 Download PDFInfo
- Publication number
- CN114067126A CN114067126A CN202111376365.0A CN202111376365A CN114067126A CN 114067126 A CN114067126 A CN 114067126A CN 202111376365 A CN202111376365 A CN 202111376365A CN 114067126 A CN114067126 A CN 114067126A
- Authority
- CN
- China
- Prior art keywords
- network
- model
- recursion
- module
- infrared image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 abstract description 16
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
一种红外图像的目标检测方法,属于目标检测技术领域,为了解决现有的目标检测方法对小目标检测精度低、实时性差的问题,该方法:构建网络模型:该网络由第一次递归网络和第二次递归网络组成,且该网络的主要组成部分瓶颈模块加入了注意力机制,最终输出四个预测值。训练网络模型:采用可见光数据集,将数据集中的图像统一裁剪为固定尺寸,并将其输入到步骤一中所构建的网络模型中,对网络模型进行训练。小化损失函数值:通过最小化网络输出图像和标签之间的损失函数,直到损失函数的值到达设定范围内即可认为模型参数已训练完成。微调网络模型:用长波红外图像数据集对模型进行微调。保存模型:将上述步骤中训练好的网络模型参数进行保存。
Description
技术领域
本发明涉及一种红外图像的目标检测方法,属于目标检测领域。
背景技术
目标检测是计算机视觉领域的一个研究热点,其核心思想是结合图像处理技术和机器学习算法,模拟人类视觉器官和大脑系统,对输入图像中目标进行准确表达和精准定位。在智能视频监控,无人驾驶技术,计算机辅助诊断技术等方面都有着重要的应用。然而由于实际场景中,目标物体的形变、遮挡、以及观察角度和环境变化等众多因素的影响,使得目标的外观特征发生极大变化,从而会增加检测难度;另一方面,同类目标在形状、姿态和类型上会发生不同变化,使得类内差别增大,同时还可能出现不同类别之间差距很小,这些都给目标检测带来了极大的挑战。
中国专利公开号为“CN112348042A”,名称为“一种基于改进YOLOv3的红外目标检测方法”,该方法使用DarkNet-53作为网络检测框架,移除网络检测框架与预测模块之间的卷积层,加入多尺度融合预测,利用残差层融合低级特征的重复块。在重复块的底部加入注意力模块,在重复块之间加入残差金字塔过渡网络,重复块的通道数随重复次数递增。该方法在目标检测尤其是在小目标检测方面检测精度差,且实时性低。
发明内容
本发明为了解决现有的目标检测方法对小目标检测精度低、实时性差的问题,提出了一种红外图像目标检测方法,该方法网络模型参数少,检测速度快,检测精度高。
本发明解决技术问题的方案是:
一种红外图像目标检测方法,包括如下步骤:
步骤1,构建网络模型:该网络由第一次递归网络和第二次递归网络组成,且该网络的主要组成部分瓶颈模块加入了注意力机制,提高了特征提取能力,同时加强了对小目标的检测能力,最终输出四个预测值。
步骤2,训练网络模型:采用可见光数据集,将数据集中的图像统一裁剪为固定尺寸,并将其输入到步骤一中所构建的网络模型中,对网络模型进行训练。
步骤3,最小化损失函数值:通过最小化网络输出图像和标签之间的损失函数,直到损失函数的值到达设定范围内即可认为模型参数已训练完成。
步骤4,微调网络模型:用长波红外图像数据集对模型进行微调,得到对红外图像中目标更高的检测精度。
步骤5,保存模型:将上述步骤中训练好的网络模型参数进行保存。
步骤1所述第一次递归网络的网络结构分为特征提取网络和递归输出网络,特征提取网络包含五个特征提取模块,递归输出网络由四个递归输出模块组成。其中特征提取模块一包含一个卷积层、一个步长为1的瓶颈模块、两个步长为2的瓶颈模块组成;特征提取模块二包含三个步长为2的瓶颈模块;特征提取模块三包含四个步长为2的瓶颈模块;特征提取模块四包含三个步长为1的瓶颈模块和三个步长为2的瓶颈模块;特征提取模块五包含一个步长为1的瓶颈模块。递归模块一包含一个卷积层;递归模块二、递归模块三、递归模块四均由两个步长为1的瓶颈模块和一个反卷积层组成。输入图像进入该网络模型之后得到四个特征层,分别用于检测不同尺度的特征图。
步骤2所述在训练阶段使用的数据集为COCO可见光数据集。
步骤3中所述位置损失采用CIoU,加快模型收敛,提高预测框的准确率;类别损失采用梯度均衡机制分类损失函数,用以解决正负样本比例不均衡的问题;置信度损失采用二分类交叉熵损失函数。通过最小化总损失函数,达到设定范围内才可被认为训练完成。
步骤4所述的长波红外图像数据集为FLIR数据集。
本文的有益效果如下:
1、提出了一种网络模型,计算量小,模型参数少,提高了训练速度;
2、提出了一种注意力机制,加入到瓶颈模块中,提高了特征提取能力;
3、使用CIoU损失函数加快模型收敛,提高预测框的准确率,同时加入梯度均衡机制分类损失函数解决正负样本比例不均衡的问题。
附图说明
图1为本发明一种红外目标检测方法流程图。
图2为本发明一种红外目标检测方法网络结构图。
图3为本发明所述第一次递归网络和第二次递归网络的结构图。
图4为本发明所述瓶颈模块的结构图。
图5为本发明所述注意力机制模块的结构图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
如图1所示,一种红外图像目标检测方法,该方法具体包含如下步骤:
步骤1,构建网络模型。
如图2所示,该网络模型由第一次递归网络和第二次递归网络组成。输入图像输入到第一次递归网络,并输出提取的特征图,将该特征图输入到第二次递归网络中,得到第二次递归网络的输出检测层,最终得到四个预测值。第一次递归网络和第二次递归网络由特征提取网络和递归输出网络组成,两个网络结构相同,共享同一参数。
如图3所示,第一次递归网络的网络结构分为特征提取网络和递归输出网络,特征提取网络包含五个特征提取模块,递归输出网络由四个递归输出模块组成。其中特征提取模块一包含一个卷积层、一个步长为1的瓶颈模块、两个步长为2的瓶颈模块组成;特征提取模块二包含三个步长为2的瓶颈模块;特征提取模块三包含四个步长为2的瓶颈模块;特征提取模块四包含三个步长为1的瓶颈模块和三个步长为2的瓶颈模块;特征提取模块五包含一个步长为1的瓶颈模块。递归模块一包含一个卷积层;递归模块二、递归模块三、递归模块四均由两个步长为1的瓶颈模块和一个反卷积层组成。输入图像进入该网络模型之后得到四个特征层,分别用于检测不同尺度的特征图。
步骤2:训练网络模型。采用可见光数据集,将数据集中的图像统一裁剪为固定尺寸,并将其输入到步骤一中所构建的网络模型中,对网络模型进行训练。在训练阶段使用的数据集为COCO可见光数据集。
步骤3:最小化损失函数值。整个过程一共有三部分的损失函数,分别为位置损失、置信度损失和类别损失。其中位置损失采用CIoU,加快模型收敛,提高预测框的准确率;类别损失采用梯度均衡机制分类损失函数,用以解决正负样本比例不均衡的问题;置信度损失采用二分类交叉熵损失函数。通过最小化总损失函数,达到设定范围内才可被认为训练完成。
步骤4:微调网络模型。用长波红外图像数据集对模型进行微调,得到对红外图像中目标更高的检测精度,所用的长波红外图像数据集为FLIR数据集。
步骤5:保存模型。将上述步骤中训练好的网络模型参数进行保存,方便以后直接使用。
如果需要对红外图像进行目标检测时,直接输入以上方法得到的网络模型中即可得到目标检测结果图。
实施例:
所述步骤1中网络模型结构如图2所示,第一次递归网络与第二次递归网络内部结构和连接关系完全一致。将第一次递归网络输出的特征图输入到第二次递归网络中,最终得到四个预测值。以第一次递归网络为例,如图3所示。输入图像尺寸为416×416,特征提取模块一输出104×104尺寸特征图;特征提取模块二输出52×52尺寸特征图;特征提取模块三输出26×26尺寸特征图;特征提取模块四输出13×13尺寸特征图;特征提取模块五主要用于改变通道维数,为下面的上采样做准备。所有多个步长为2的瓶颈模块只有第一个步长为2,其余步长皆为1。特征提取模块五输出的特征图经过递归模块一得到13×13尺寸特征图,与特征提取模块三输出的13×13尺寸特征图进行融合得到第一个特征层,第一个特征层一方面作为第一次递归网络的第一个输出值,另一方面经过递归模块二得到26×26尺寸特征图,与特征提取模块三输出的26×26尺寸特征图进行融合得到第二个特征层。第二个特征层一方面作为第一次递归网络的第二个输出值,另一方面经过递归模块三得到52×52尺寸特征图,与特征提取模块二输出的52×52尺寸特征图进行融合得到第三个特征层。第三个特征层一方面作为第一次递归网络的第三个输出值,另一方面经过递归模块四得到104×104尺寸特征图,与特征提取模块二输出的104×104尺寸特征图进行融合得到第四个特征层。第一次递归网络得到13×13、26×26、52×52、104×104四种尺寸的特征层。
输入的图像进入整个网络模型中最终得到13×13、26×26、52×52、104×104四种尺寸的检测层,进而得到预测值。
进一步地,所述步骤1中瓶颈模块的结构,如图4所示,由四个部分组成。第一部分由卷积层,批标准化层和激活函数组成;第二部分由深度可分离卷积层,批标准化层和激活函数组成;第三部分由卷积层和批标准化层组成;第四部分由注意力机制模块组成。其中第一、三部分中卷积层均由1×1的卷积核组成,第二部分中深度可分离卷积层由3×3的卷积核组成,激活函数采用RELU6函数,RELU6定义如下:
RELU6=min(6,max(0,x))
第四部分中的注意力机制模块结构图如图5所示,输入特征同时进入到通道注意力模块和空间注意力模块,经过两个模块输出的特征分别与原特征相乘,最终得到输出特征。
所述步骤2中将输入的图像统一裁剪为416×416输入尺寸的图像。COCO数据集共67618个目标,包含22372位行人,41260辆汽车,3986辆单车。设定训练过程中,使用随机梯度下降优化器,前30轮学习率为0.001,30轮之后学习率为0.0001训练直至网络收敛,这样既可以保证网络快速拟合,也不会导致网络过拟合。
所述步骤3中损失函数包括位置损失lossloc,置信度损失lossconf,类别损失losscls。总的损失函数定义如下:
Loss=lossloc+lossconf+losscls
其中位置损失CIoU具体定义如下:
其中υ表示预测框A与目标框B之间的长宽比相似性,α为υ的权重系数。wgt、hgt、w、h分别表示目标框的宽、高和预测框的宽、高。bgt表示目标框B的中心点,P2(b,bgt)表示预测框A与目标框B之间的中心距离的平方,r表示可以把预测框A和目标框B包含在内的最小封闭区域的对角线长度。IoU的计算公式如下:
其中置信度损失—二分类交叉熵损失函数具体定义为:
其中类别损失—梯度均衡机制分类损失函数具体定义如下:
p=sigmoid(x)是模型预测样本的类别概率,而p*是标签信息,g表示了样本的真实值与预测值之间的距离。
梯度均衡机制分类损失函数可用公式表示为:
所以根据定义,候选样本中的简单负样本和非常困难的异常样本的权重都会下降,正常困难样本的权重得到提升,模型会更关注那些有效的正常困难样本,以提升模型的性能。
所述步骤4中,采用FLIR公司提供的红外场景数据集作为测试集。该数据集包含雾、雨等多种情况下以及一天中不同时间的场景,背景有建筑。树木、城市等相对复杂的背景。该测试集包括5579位行人,5432辆汽车,471辆单车,共计11682个目标。
所述步骤5中,将上述步骤中训练好的网络模型参数进行保存,方便以后直接使用。如果需要对红外图像进行目标检测时,直接输入以上方法得到的网络模型中即可得到目标检测结果图。
其中卷积、激活函数、批标准化、深度可分离卷积的实现是本领域技术人员公知的算法,具体流程和方法可在相应的教科书或技术文献中查阅到。
本发明构建了一种红外目标检测网络模型,该模型计算量少、参数少,提升了检测精度和检测速度。通过计算与现有方法得到的技术指标,进一步验证了该方法的可行性和优越性。现有技术和本发明的相关指标对比如表1所示:
表1 现有技术和本发明的相关指标对比
从图中可以看出,在输入相同分辨率图像的情况下,本发明提出的方法拥有更高的检测精度和检测速度,这些指标也进一步说明了本发明提出的方法进行目标检测的效果更好。
Claims (5)
1.一种红外图像目标检测方法,其特征是,该方法包括如下步骤:
步骤1,构建网络模型:该网络由第一次递归网络和第二次递归网络组成,且该网络的主要组成部分瓶颈模块加入了注意力机制,提高了特征提取能力,同时加强了对小目标的检测能力,最终输出四个预测值;
步骤2,训练网络模型:采用可见光数据集,将数据集中的图像统一裁剪为固定尺寸,并将其输入到步骤一中所构建的网络模型中,对网络模型进行训练;
步骤3,最小化损失函数值:通过最小化网络输出图像和标签之间的损失函数,直到损失函数的值到达设定范围内即可认为模型参数已训练完成;
步骤4,微调网络模型:用长波红外图像数据集对模型进行微调,得到对红外图像中目标更高的检测精度;
步骤5,保存模型:将上述步骤中训练好的网络模型参数进行保存。
2.根据权利要求1所述的一种红外图像目标检测方法,其特征在于,步骤1所述第一次递归网络的网络结构分为特征提取网络和递归输出网络,特征提取网络包含五个特征提取模块,递归输出网络由四个递归输出模块组成;其中特征提取模块一包含一个卷积层、一个步长为1的瓶颈模块、两个步长为2的瓶颈模块组成;特征提取模块二包含三个步长为2的瓶颈模块;特征提取模块三包含四个步长为2的瓶颈模块;特征提取模块四包含三个步长为1的瓶颈模块和三个步长为2的瓶颈模块;特征提取模块五包含一个步长为1的瓶颈模块;递归模块一包含一个卷积层;递归模块二、递归模块三、递归模块四均由两个步长为1的瓶颈模块和一个反卷积层组成;输入图像进入该网络模型之后得到四个特征层,分别用于检测不同尺度的特征图。
3.根据权利要求1所述的一种红外图像目标检测方法,其特征在于,步骤2所述在训练阶段使用的数据集为COCO可见光数据集。
4.根据权利要求1所述的一种红外图像目标检测方法,其特征在于,步骤3中所述位置损失采用CIoU,加快模型收敛,提高预测框的准确率;类别损失采用梯度均衡机制分类损失函数,用以解决正负样本比例不均衡的问题;置信度损失采用二分类交叉熵损失函数。通过最小化总损失函数,达到设定范围内才可被认为训练完成。
5.根据权利要求1所述的一种红外图像目标检测方法,其特征在于,步骤4所述的长波红外图像数据集为FLIR数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111376365.0A CN114067126A (zh) | 2021-11-19 | 2021-11-19 | 一种红外图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111376365.0A CN114067126A (zh) | 2021-11-19 | 2021-11-19 | 一种红外图像目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114067126A true CN114067126A (zh) | 2022-02-18 |
Family
ID=80278511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111376365.0A Pending CN114067126A (zh) | 2021-11-19 | 2021-11-19 | 一种红外图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114067126A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116645696A (zh) * | 2023-05-31 | 2023-08-25 | 长春理工大学重庆研究院 | 一种用于多模态行人检测的轮廓信息引导特征检测方法 |
CN117710757A (zh) * | 2024-02-05 | 2024-03-15 | 山东省计算中心(国家超级计算济南中心) | 基于多尺度特征引导与融合的工业异常检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101434A (zh) * | 2020-09-04 | 2020-12-18 | 河南大学 | 基于改进YOLO v3的红外图像弱小目标检测方法 |
CN112364721A (zh) * | 2020-10-23 | 2021-02-12 | 西安科锐盛创新科技有限公司 | 一种道面异物检测方法 |
CN113255634A (zh) * | 2021-07-18 | 2021-08-13 | 杭州电子科技大学 | 基于改进Yolov5的车载移动端目标检测方法 |
CN113361428A (zh) * | 2021-06-11 | 2021-09-07 | 浙江澄视科技有限公司 | 一种基于图像的交通标志检测方法 |
CN113378763A (zh) * | 2021-06-25 | 2021-09-10 | 长沙理工大学 | 一种面向sar图像的目标自动检测方法及系统 |
-
2021
- 2021-11-19 CN CN202111376365.0A patent/CN114067126A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101434A (zh) * | 2020-09-04 | 2020-12-18 | 河南大学 | 基于改进YOLO v3的红外图像弱小目标检测方法 |
CN112364721A (zh) * | 2020-10-23 | 2021-02-12 | 西安科锐盛创新科技有限公司 | 一种道面异物检测方法 |
CN113361428A (zh) * | 2021-06-11 | 2021-09-07 | 浙江澄视科技有限公司 | 一种基于图像的交通标志检测方法 |
CN113378763A (zh) * | 2021-06-25 | 2021-09-10 | 长沙理工大学 | 一种面向sar图像的目标自动检测方法及系统 |
CN113255634A (zh) * | 2021-07-18 | 2021-08-13 | 杭州电子科技大学 | 基于改进Yolov5的车载移动端目标检测方法 |
Non-Patent Citations (5)
Title |
---|
BUYU LI ET AL: "Gradient Harmonized Single-Stage Detector", 《THE THIRTY-THIRD AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-19)》, 31 December 2019 (2019-12-31), pages 8577 - 8584 * |
MARK SANDLER ET AL: "MobileNetV2: Inverted Residuals and Linear Bottlenecks", 《ARXIV:1801.04381V4》, 21 March 2019 (2019-03-21), pages 1 - 14 * |
SIYUAN QIAO ET AL: "DetectoRS: Detecting Objects with Recursive Feature Pyramid and Switchable Atrous Convolution", 《ARXIV:2006.02334V2》, 30 November 2020 (2020-11-30), pages 1 - 12 * |
ZHAOHUI ZHENG ET AL: "Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression", 《THE THIRTY-FOURTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-20)》, 31 December 2020 (2020-12-31), pages 12993 - 13000 * |
赵斌等: "基于深度注意力机制的多尺度红外行人检测", 《光学学报》, vol. 40, no. 5, 31 March 2020 (2020-03-31), pages 0504001 - 1 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116645696A (zh) * | 2023-05-31 | 2023-08-25 | 长春理工大学重庆研究院 | 一种用于多模态行人检测的轮廓信息引导特征检测方法 |
CN116645696B (zh) * | 2023-05-31 | 2024-02-02 | 长春理工大学重庆研究院 | 一种用于多模态行人检测的轮廓信息引导特征检测方法 |
CN117710757A (zh) * | 2024-02-05 | 2024-03-15 | 山东省计算中心(国家超级计算济南中心) | 基于多尺度特征引导与融合的工业异常检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111104898B (zh) | 基于目标语义和注意力机制的图像场景分类方法及装置 | |
CN110929578B (zh) | 一种基于注意力机制的抗遮挡行人检测方法 | |
CN111652321B (zh) | 一种基于改进yolov3算法的海上船舶检测方法 | |
CN108647655B (zh) | 基于轻型卷积神经网络的低空航拍影像电力线异物检测方法 | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN110110599B (zh) | 一种基于多尺度特征融合的遥感图像目标检测方法 | |
CN110059586B (zh) | 一种基于空洞残差注意力结构的虹膜定位分割系统 | |
CN110322453A (zh) | 基于位置注意力和辅助网络的3d点云语义分割方法 | |
CN109784283A (zh) | 基于场景识别任务下的遥感图像目标提取方法 | |
CN114067126A (zh) | 一种红外图像目标检测方法 | |
CN112750125B (zh) | 一种基于端到端关键点检测的玻璃绝缘子片定位方法 | |
CN113298032A (zh) | 基于深度学习的无人机视角图像的车辆目标检测方法 | |
CN114998757A (zh) | 用于无人机航摄图像分析的目标检测方法 | |
CN115810157A (zh) | 一种基于轻量级特征融合的无人机目标检测方法 | |
CN115346071A (zh) | 高置信局部特征与全局特征学习的图片分类方法及系统 | |
CN111192240B (zh) | 一种基于随机接入记忆的遥感图像目标检测方法 | |
CN115330620A (zh) | 一种基于循环生成对抗网络的图像去雾方法 | |
CN113298817A (zh) | 一种准确率高的遥感图像语义分割方法 | |
CN112215268A (zh) | 一种灾害天气卫星云图分类方法和装置 | |
CN111915558A (zh) | 一种高压输电线销钉状态检测方法 | |
CN116580322A (zh) | 一种地面背景下无人机红外小目标检测方法 | |
CN116469020A (zh) | 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法 | |
Ouyang et al. | Aerial target detection based on the improved YOLOv3 algorithm | |
CN116824413A (zh) | 一种基于多尺度空洞卷积的航拍图像目标检测方法 | |
CN116403133A (zh) | 一种基于YOLO v7改进的车辆检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |