CN113963272A - 一种基于改进yolov3的无人机图像目标检测方法 - Google Patents

一种基于改进yolov3的无人机图像目标检测方法 Download PDF

Info

Publication number
CN113963272A
CN113963272A CN202111241415.4A CN202111241415A CN113963272A CN 113963272 A CN113963272 A CN 113963272A CN 202111241415 A CN202111241415 A CN 202111241415A CN 113963272 A CN113963272 A CN 113963272A
Authority
CN
China
Prior art keywords
loss
yolov3
image
target
iou
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111241415.4A
Other languages
English (en)
Inventor
雷亮
梁明辉
赵彦
尹衍伟
李小兵
秦兰瑶
和圆圆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Science and Technology
Original Assignee
Chongqing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Science and Technology filed Critical Chongqing University of Science and Technology
Priority to CN202111241415.4A priority Critical patent/CN113963272A/zh
Publication of CN113963272A publication Critical patent/CN113963272A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进yolov3的无人机图像目标检测方法,包括以下步骤:S1、针对需要应用的场景进行数据采集,并划分出训练集和验证集;S2、通过k‑means聚类方法生成九个适用于数据集的锚框;S3、对数据集进行预处理;S4、按照九个初始锚框将数据集导入到神经网络中进行训练,并用验证集检验每一轮训练后的效果,直至模型收敛;S5、通过yolov3原本的后处理模块得到预测结果,包括BBoxPostProcess和MaskPostProcess,将预测结果展现在原图像上;S6、将需要检测的图像输入训练后的小目标检测模型,得到该图像中目标的类别和位置信息,并反映到原始图像上。本发明能够充分考虑到小目标检测中小目标特征信息缺失,遮挡严重的情况,有效提高小目标检测的精度。

Description

一种基于改进yolov3的无人机图像目标检测方法
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于改进yolov3的无人机图像目标检测方法。
背景技术
随着人工智能技术的不断发展和硬件水平的不断提高,基于深度学习的计算机视觉技术已经逐渐趋于成熟,并在医疗、安防、工业制造、无人驾驶等领域得到了广泛的应用。而现有的目标检测技术,对于距离较远的小目标检测效果并不理想,仍然有着许多需要改进的地方。
而如专利号为CN110298402 A,专利申请名称为《一种小目标检测性能优化方法》的专利文献中记载,其使用了yolo v3算法中固定的9个锚框,并不能适用于小目标检测问题,会影响小目标检测的精度。
而如专利号为CN112819010 A,专利申请名称为《一种基于yolo v3改进的小目标检测方法》的专利文献中记载,其使用了yolo v3算法中原有的特征提取网络,并没有考虑到小目标的特征信息少,Darknet-53特征提取网络信息保留能力差的问题,会影响小目标检测的精度。
基于以上内容,可知大部分学者在使用yolo v3做小目标检测的时候没有考虑到加强网络本身对于小目标特征信息的保留能力,以及网络不断地上采样和下采样对目标位置信息的损害,这对小目标检测的检测带来了很大困难,为此,我们提出了一种基于改进yolov3的无人机图像目标检测方法。
发明内容
本发明的目的是提供一种基于改进yolov3的无人机图像目标检测方法,解决了上述问题。
为了达到上述目的,本发明是通过以下技术方案实现的:
本发明提供一种基于改进yolov3的无人机图像目标检测方法,包括以下步骤:
S1、针对需要应用的场景进行数据采集,并划分出训练集和验证集;
S2、通过k-means聚类方法生成九个适用于数据集的锚框;
S3、对数据集进行预处理;
S4、按照九个初始锚框将数据集导入到神经网络中进行训练,并用验证集检验每一轮训练后的效果,直至模型收敛;
S5、通过yolov3原本的后处理模块得到预测结果,包括BBoxPostProcess和MaskPostProcess,将预测结果展现在原图像上;
S6、将需要检测的图像输入训练后的小目标检测模型,得到该图像中目标的类别和位置信息,并反映到原始图像上。
优选的,S3所述的预处理包括随机裁剪、图像翻转、归一化、随机填充图像增广操作的任一种或多种。
优选的,S3所述的预处理包括每幅图像的预处理操作和每个batch图像的图像增强操作。
优选的,S3所述的预处理设定十五种不同尺寸的图像输入:[512,544,576,608,640,672,704,736,768,800,832,864,896,928,960],对每个所述batch图像进行随机选择不同尺寸的图像输入。
优选的,S4设计的yolov3框架特征提取网络为改进后的HRNet特征提取网络。
优选的,S4设计的yolov3框架的特征融合模块为改进后的HRFPN模块。
优选的,S4设计的yolov3框架的head部分加入了共享卷积层,进行训练过程中的权重共享。
优选的,S4设计的yolov3框架的特征提取网络中的stage4中的3X3的卷积替换为可变性卷积(DCN)。
优选的,S4设计的yolov3框架的激活函数为mish激活函数,定义如下:
Mish=x*tanh(ln(1+ex))。
优选的,S4设计的yolov3框架采用损失函数对模型进行不断地迭代优化,所述的损失函数包括五个部分:坐标损失LboX,置信度损失Lconf,分类损失Lcls,IOU损失Liou,iou_aware损失Liou_aware,具体如下:
Figure BDA0003319677600000031
其中,λ1,λ2,λ3,λ4,λ5为每个损失所占的权重参数;
坐标损失Lbox的计算包括两个部分:中心坐标损失Lxy和宽高坐标损失Lwh,计算公式为:
Lbox=Lxy+Lwh
Figure BDA0003319677600000041
将网络输出的坐标(tx,ty),映射到输入图像大小上的目标(x,y),与真实目标经过resize后映射到网络输入图像大小上的目标
Figure BDA0003319677600000042
计算预测框与真实框中心坐标的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,
Figure BDA0003319677600000043
代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,
Figure BDA0003319677600000044
为1,否则为0,
Figure BDA0003319677600000045
将网络输出锚框的宽高(tw,th),映射到输入图像大小上的目标(w,h),与真实目标经过resize后映射到网络输入图像大小上的目标
Figure BDA0003319677600000046
计算预测框与真实框宽高的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,
Figure BDA0003319677600000047
代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,
Figure BDA0003319677600000048
为1,否则为0,
为了均衡正负样本的数量,λ1的值为2-w*h,
置信度损失Lconf的计算公式为:
Figure BDA0003319677600000049
分类损失Lcls的计算公式为:
Figure BDA00033196776000000410
IOU损失Liou的计算公式为:
Figure BDA0003319677600000051
Figure BDA0003319677600000052
Liou通过计算预测框与真实框之间的IOU损失来提高预测精度,λ4的值设置为2.5,
IOU_aware的损失Liou_aware的计算公式为:
Figure BDA0003319677600000053
IOU_aware通过预测目标候选包围框与真实目标标注的IoU(交并比),并基于此与分类分数的乘积作为检测置信度,用于NMS(非极大抑制)和COCO AP计算。
本发明的有益效果:本发明使用HRNet网络替换了yolo v3中的主干网络,提取特征图的大小整体提高了一倍,从原YOLO V3的32,16,8倍下采样特征图改为16,8,4倍下采样特征图,特征图分辨率的提高增强了网络对于小目标特征信息的保留能力,更加利于小目标的检测。
附图说明
图1为本发明的流程图;
图2为白天检测效果图其一;
图3为白天检测效果图其二;
图4为夜间检测效果图其一;
图5为夜间检测效果图其二。
具体实施方式
下面结合实施例,对本发明的具体实施方式作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
请参阅图1-5,一种基于改进yolov3的无人机图像目标检测方法,包括以下步骤:
S1、针对需要应用的场景进行数据采集,并划分出训练集和验证集;
S2、通过k-means聚类方法生成九个适用于数据集的锚框;
S3、对数据集进行预处理;
S4、按照九个初始锚框将数据集导入到神经网络中进行训练,并用验证集检验每一轮训练后的效果,直至模型收敛;
S5、通过yolov3原本的后处理模块得到预测结果,包括BBoxPostProcess和MaskPostProcess,将预测结果展现在原图像上;
S6、将需要检测的图像输入训练后的小目标检测模型,得到该图像中目标的类别和位置信息,并反映到原始图像上。
本实施例中,S3所述的预处理包括随机裁剪、图像翻转、归一化、随机填充图像增广操作的任一种或多种,从而极大的扩充了数据量。
本实施例中,S3所述的预处理包括每幅图像的预处理操作和每个batch图像的图像增强操作。
本实施例中,S3所述的预处理设定十五种不同尺寸的图像输入:[512,544,576,608,640,672,704,736,768,800,832,864,896,928,960],对每个所述batch图像进行随机选择不同尺寸的图像输入。
本实施例中,S4设计的yolov3框架特征提取网络为改进后的HRNet特征提取网络,HRNet网络可以在特征提取的过程中尽可能的保留原始图像中的特征信息和减少网络传递过程中特征位置信息的损失,并在每一次trans结构中进行了特征图数量的增加和每个特征图信息的融合。
本实施例中,S4设计的yolov3框架的特征融合模块为改进后的HRFPN模块,其能够在维持高分辨率的特征图情况下进行特征图的融合,从此提高了小目标检测的能力。
本实施例中,S4设计的yolov3框架的head部分加入了共享卷积层,进行训练过程中的权重共享,有效降低网络参数量,提高训练精度。
本实施例中,S4设计的yolov3框架的特征提取网络中的stage4中的3x3的卷积替换为可变性卷积(DCN),可变形卷积核的大小和位置可以根据当前需要识别的图像内容进行动态调整,其不同位置的卷积核采样点位置会根据图像内容发生自适应的变化,从而适应由于无人机姿态发生变化引起的形状、大小等几何形变,从而增加网络检测能力。
本实施例中,S4设计的yolov3框架的激活函数为mish激活函数,定义如下:
Mish=x*tanh(ln(1+ex))
其能够有效的减少梯度饱和,提高训练精度。
本实施例中,S4设计的yolov3框架采用损失函数对模型进行不断地迭代优化,所述的损失函数包括五个部分:坐标损失Lbox,置信度损失Lconf,分类损失Lcls,IOU损失Liou,iou_aware损失Liou_aware,具体如下:
Figure BDA0003319677600000089
其中,λ1,λ2,λ3,λ4,λ5为每个损失所占的权重参数;
坐标损失Lbox的计算包括两个部分:中心坐标损失Lxy和宽高坐标损失Lwh,计算公式为:
Lbox=Lxy+Lwh
Figure BDA0003319677600000081
将网络输出的坐标(tx,ty),映射到输入图像大小上的目标(x,y),与真实目标经过resize后映射到网络输入图像大小上的目标
Figure BDA0003319677600000082
计算预测框与真实框中心坐标的交叉熵损失,s2表示检测层中有S*S个网格,B代表锚点的个数,
Figure BDA0003319677600000083
代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,
Figure BDA0003319677600000084
为1,否则为0,
Figure BDA0003319677600000085
将网络输出锚框的宽高(tw,th),映射到输入图像大小上的目标(w,h),与真实目标经过resize后映射到网络输入图像大小上的目标
Figure BDA0003319677600000086
计算预测框与真实框宽高的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,
Figure BDA0003319677600000087
代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,
Figure BDA0003319677600000088
为1,否则为0,
为了均衡正负样本的数量,λ1的值为2-w*h,
置信度损失Lconf的计算公式为:
Figure BDA0003319677600000091
分类损失Lcls的计算公式为:
Figure BDA0003319677600000092
IOU损失Liou的计算公式为:
Figure BDA0003319677600000093
Figure BDA0003319677600000094
Liou通过计算预测框与真实框之间的IOU损失来提高预测精度,λ4的值设置为2.5,
IOU_aware的损失Liou_aware的计算公式为:
Figure BDA0003319677600000095
IOU_aware通过预测目标候选包围框与真实目标标注的IoU(交并比),并基于此与分类分数的乘积作为检测置信度,用于NMS(非极大抑制)和COCO AP计算,显著提高了目标检测的定位精度。
需要说明的是,HRNet网络,可以通过交错卷积并行维持多个分辨率的特征,使得不同分支之间的特征有效进行信息的交互融合,进而提取更全面的特征,在姿态估计和图像分割等领域中取得了很好的效果,HRNet网络强调网络的宽度,同一分支的分辨率不随深度变化而改变,而传统网络随着深度的加深,分辨率会不断降低。
HRNet网络同时输出多种分辨率的特征,不同分辨率的特征对应原图像上不同尺度的目标,高低分辨率特征之间存在一定的互补性。通过组合这些特征,可以得到更好的特征表示。
借助HRNet强大的特征表示能力,本文将HRNet的4个分支输出的不同分辨率的特征通过一个注意力模块进行特征融合,得到更加高效的特征表示。
HRNet有4个分支,输出4种不同分辨率、不同通道数的特征。假设输入图像的分辨率为800x800像素,各分支输出的通道数和分辨率为(48,200,200),(96,100,100),(192,50,50),(384,25,25),该网络提取出来的特征图尺寸相较于原YOLOv3网络整体提高了一倍。
在特征融合阶段,对小尺度的特征图通过最近邻插值算法调整特征图大小与最大的特征图对齐,并将通道数进行相加融合,然后通过两次二倍下采样输出三个不同大小的特征图,得到更加有效的小目标识别特征,最后经过一个3x3的卷积将特征图的通道数对应到YOLO V3的head部分。
考虑到最后输出的特征图都是基于一个特征图下采样而来,且为了减少模型的参数量,选择将最后的3个3x3卷积替换为共享卷积。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。

Claims (10)

1.一种基于改进yolov3的无人机图像目标检测方法,其特征在于:包括以下步骤:
S1、针对需要应用的场景进行数据采集,并划分出训练集和验证集;
S2、通过k-means聚类方法生成九个适用于数据集的锚框;
S3、对数据集进行预处理;
S4、按照九个初始锚框将数据集导入到神经网络中进行训练,并用验证集检验每一轮训练后的效果,直至模型收敛;
S5、通过yolov3原本的后处理模块得到预测结果,包括BBoxPostProcess和MaskPostProcess,将预测结果展现在原图像上;
S6、将需要检测的图像输入训练后的小目标检测模型,得到该图像中目标的类别和位置信息,并反映到原始图像上。
2.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S3所述的预处理包括随机裁剪、图像翻转、归一化、随机填充图像增广操作的任一种或多种。
3.根据权利要求2所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S3所述的预处理包括每幅图像的预处理操作和每个batch图像的图像增强操作。
4.根据权利要求3所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S3所述的预处理设定十五种不同尺寸的图像输入:
[512,544,576,608,640,672,704,736,768,800,832,864,896,928,960],对每个所述batch图像进行随机选择不同尺寸的图像输入。
5.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架特征提取网络为改进后的HRNet特征提取网络。
6.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的特征融合模块为改进后的HRFPN模块。
7.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的head部分加入了共享卷积层,进行训练过程中的权重共享。
8.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的特征提取网络中的stage4中的3x3的卷积替换为可变性卷积(DCN)。
9.根据权利要求7所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的激活函数为mish激活函数,定义如下:
Mish=x*tanh(ln(1+ex))。
10.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架采用损失函数对模型进行不断地迭代优化,所述的损失函数包括五个部分:坐标损失Lbox,置信度损失Lconf,分类损失Lcls,IOU损失Liou,iou_aware损失Liou_aware,具体如下:
Figure FDA00033196775900000310
其中,λ1,λ2,λ3,λ4,λ5为每个损失所占的权重参数;
坐标损失Lbox的计算包括两个部分:中心坐标损失Lxy和宽高坐标损失Lwh,计算公式为:
Lbox=Lxy+Lwh
Figure FDA0003319677590000031
将网络输出的坐标(tx,ty),映射到输入图像大小上的目标(x,y),与真实目标经过resize后映射到网络输入图像大小上的目标
Figure FDA0003319677590000032
计算预测框与真实框中心坐标的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,
Figure FDA0003319677590000033
代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,
Figure FDA0003319677590000034
为1,否则为0,
Figure FDA0003319677590000035
将网络输出锚框的宽高(tw,th),映射到输入图像大小上的目标(w,h),与真实目标经过resize后映射到网络输入图像大小上的目标
Figure FDA0003319677590000036
计算预测框与真实框宽高的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,
Figure FDA0003319677590000037
代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,
Figure FDA0003319677590000038
为1,否则为0,
为了均衡正负样本的数量,λ1的值为2-w*h,
置信度损失Lconf的计算公式为:
Figure FDA0003319677590000039
分类损失Lcls的计算公式为:
Figure FDA0003319677590000041
IOU损失Liou的计算公式为:
Figure FDA0003319677590000042
Figure FDA0003319677590000043
Liou通过计算预测框与真实框之间的IOU损失来提高预测精度,λ4的值设置为2.5,
IOU_aware的损失Liou_aware的计算公式为:
Figure FDA0003319677590000044
IOU_aware通过预测目标候选包围框与真实目标标注的IoU(交并比),并基于此与分类分数的乘积作为检测置信度,用于NMS(非极大抑制)和COCO AP计算。
CN202111241415.4A 2021-10-25 2021-10-25 一种基于改进yolov3的无人机图像目标检测方法 Pending CN113963272A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111241415.4A CN113963272A (zh) 2021-10-25 2021-10-25 一种基于改进yolov3的无人机图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111241415.4A CN113963272A (zh) 2021-10-25 2021-10-25 一种基于改进yolov3的无人机图像目标检测方法

Publications (1)

Publication Number Publication Date
CN113963272A true CN113963272A (zh) 2022-01-21

Family

ID=79466637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111241415.4A Pending CN113963272A (zh) 2021-10-25 2021-10-25 一种基于改进yolov3的无人机图像目标检测方法

Country Status (1)

Country Link
CN (1) CN113963272A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115331384A (zh) * 2022-08-22 2022-11-11 重庆科技学院 基于边缘计算的作业平台火灾事故预警系统
CN115994887A (zh) * 2022-09-06 2023-04-21 江苏济远医疗科技有限公司 一种基于动态锚点的医学图像密集目标分析方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115331384A (zh) * 2022-08-22 2022-11-11 重庆科技学院 基于边缘计算的作业平台火灾事故预警系统
CN115994887A (zh) * 2022-09-06 2023-04-21 江苏济远医疗科技有限公司 一种基于动态锚点的医学图像密集目标分析方法
CN115994887B (zh) * 2022-09-06 2024-01-09 江苏济远医疗科技有限公司 一种基于动态锚点的医学图像密集目标分析方法

Similar Documents

Publication Publication Date Title
CN111652321B (zh) 一种基于改进yolov3算法的海上船舶检测方法
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN109101914B (zh) 一种基于多尺度的行人检测方法和装置
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN112446383B (zh) 车牌识别方法及装置、存储介质、终端
CN112329658A (zh) 一种对于yolov3网络的检测算法改进方法
CN113033570B (zh) 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法
CN110782420A (zh) 一种基于深度学习的小目标特征表示增强方法
CN111191583A (zh) 基于卷积神经网络的空间目标识别系统及方法
CN116188999B (zh) 一种基于可见光和红外图像数据融合的小目标检测方法
CN113963272A (zh) 一种基于改进yolov3的无人机图像目标检测方法
CN112381030B (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN112418165B (zh) 基于改进型级联神经网络的小尺寸目标检测方法与装置
CN112434586A (zh) 一种基于域自适应学习的多复杂场景目标检测方法
CN111915628A (zh) 一种基于预测目标密集边界点的单阶段实例分割方法
CN114037640A (zh) 图像生成方法及装置
CN110633640A (zh) 优化PointNet对于复杂场景的识别方法
CN116863194A (zh) 一种足溃疡图像分类方法、系统、设备及介质
CN115546500A (zh) 一种红外图像小目标检测方法
CN116645328A (zh) 一种高精度轴承套圈表面缺陷智能检测方法
CN114170231A (zh) 基于卷积神经网络的图像语义分割方法、装置及电子设备
CN115330759B (zh) 一种基于豪斯多夫距离计算距离损失的方法及装置
CN114219757B (zh) 一种基于改进Mask R-CNN的车辆智能定损方法
CN115115860A (zh) 一种基于深度学习的图像特征点检测匹配网络
CN114373110A (zh) 对输入图像进行目标检测的检测方法、设备及其相关产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination