CN112560799B - 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用 - Google Patents

基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用 Download PDF

Info

Publication number
CN112560799B
CN112560799B CN202110006899.8A CN202110006899A CN112560799B CN 112560799 B CN112560799 B CN 112560799B CN 202110006899 A CN202110006899 A CN 202110006899A CN 112560799 B CN112560799 B CN 112560799B
Authority
CN
China
Prior art keywords
vehicle
unmanned aerial
adaptive
aerial vehicle
target detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110006899.8A
Other languages
English (en)
Other versions
CN112560799A (zh
Inventor
张弘
张恺
陈浩
杨一帆
袁丁
李亚伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110006899.8A priority Critical patent/CN112560799B/zh
Publication of CN112560799A publication Critical patent/CN112560799A/zh
Application granted granted Critical
Publication of CN112560799B publication Critical patent/CN112560799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于目标检测和图像处理技术领域,公开了一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用,该检测方法是通过卷积神经网络提取图像特征,并进行特征融合和反卷积,构建预设锚框选区,引入自适应搜索与正和博弈理论进行计算,最终输出检测结果。本发明显著提高运动目标时的视角变化场景中,成像面视角发生随机改变情况下车辆目标检测的精确度。本发明用于对无人机监控拍摄的车辆图像进行目标检测,检测结果精度高、未召回框的数量少。

Description

基于自适应目标区域搜索和博弈的无人机智能车辆目标检测 方法和应用
技术领域
本发明属于目标检测和图像处理技术领域,涉及一种无人机智能车辆目标检测方法,具体地说是一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用。
背景技术
目标检测技术是用于识别图像范围内某些类别物体所处的位置和其对应类别的方法:通过学习与真实场景一致的数据集,从中提取目标的特征与背景信息,构建模型以对真实场景进行识别。该技术的传统算法在智能监控、人机交互、智能交通等领域有着很好的应用,被广泛用于监控器场景或车辆内部固定监视器场景的检测,而被直接引入无人机领域,仍存在一些问题。
无人机能够快速移动,在许多特定场景下已经展现出优势,帮助人们记录高空视角下的海量图像与视频数据。目前目标检测技术的一些传统算法如YOLO等,对于固定背景或固定视角下的多目标检测有着很好的性能。
但是在实际的无人机监控场景中,由于无人机与地面的高度在不断变化,无人机监控的视角也随之发生改变,尤其无人机俯拍视角下车辆轮廓相似度高,而传统目标检测对于目标类别的识别需要大量的不同角度的特征信息,这种情况下,仅通过传统模型分类效果较差,不易区分;同时,待检测车辆也是在不断运动的,整个无人机——车辆系统在真实世界的三个维度同时产生位移和速度,形成随机的相对运动;对于这样的场景,现有目标检测效果较为一般,尤其对于动态视频检测效果差,很难精确识别目标。
因此,针对检测运动目标时的视角变化场景,优化无人机智能车辆目标检测方法,提高成像面视角发生随机改变情况下车辆目标检测的精确度具有重要意义。
发明内容
本发明的一个目的,是要提供一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,通过引入自适应目标区域搜索和博弈理论,以解决成像面视角发生随机改变情况下车辆目标检测精确度差的问题;
本发明的另一个目的,是要提供上述基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法的一种应用。
为了实现上述目的,本发明采用的技术方案是:
一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,包括依次进行的以下步骤:
S1.通过卷积神经网络提取图像特征,生成多尺度特征图;
S2.对多尺度特征图进行特征融合和反卷积,生成多尺度多特征图;
S3.将多尺度多特征图输入到感兴趣区域生成器,输出预设锚框选区;
对多尺度多特征图进行自适应搜索,生成自适应搜索选区;
S4.将预设锚框选区与自适应搜索选区求交集,得到预测区域;
S5.将预测区域输入到两个卷积层和两个全连接层,输出预测结果;
S6.对预测结果进行正和博弈,输出车辆类别最大可能值的目标结果。
作为一种限定,步骤S1中,图像包括无人机监控拍摄图片或视频截图;步骤S2中,特征融合为通过采样和池化整合特征信息。
步骤S1中,图像还包括无人机监控拍摄视频截图;
步骤S2中,所述特征融合是通过采样和池化统一多尺度特征图的尺寸,归一化处理进行特征融合以整合特征信息。
作为另一种限定,步骤S3中,所述感兴趣区域生成器是一个卷积层和二分类全连接层的组合,通过计算L1 损失与交叉熵损失的和进行学习优化,输出预设锚框选区。
作为第三种限定,步骤S3中,所述自适应搜索包括依次进行的以下步骤:
Figure 574961DEST_PATH_IMAGE001
车辆分类特征建模:提取多尺度多特征图预设锚框选区中的车辆框,使用Resnet50网络框架训练分类模型,得到包含车辆信息的车辆分类模型;
Figure 586911DEST_PATH_IMAGE002
模型预测值的相关性检索:对多尺度多特征图进行区域遍历计算,得到多尺度多特征图中每区域与车辆分类模型相关性的预测值;
其中预测值为每区域与车辆分类模型的相关性,通过一个[0,1]的值表示,这个值即该区域为车辆目标区域的概率值;
Figure 318106DEST_PATH_IMAGE003
熵值排序:由
Figure 124519DEST_PATH_IMAGE002
中预测值作为概率计算熵值, 熵值公式如下:
S=-plogp-(1-p)log(1-p)
式中p为概率,S为熵值;
对概率与熵值的加权和进行排序,排序的排序量公式如下:
K=p+αS
式中α为参数,K为排序量;
根据排序结果生成自适应搜索选区;
参数α的值可根据图像平均尺寸与车辆目标平均尺寸的比值进行调节,比值越大参数值越小,变化范围在0.3-1.2之间,一般设置为0.7;
根据排序量的值由高到低进行排序,选取排序靠前的5个区域作为自适应搜索选区。
作为第四种限定,步骤S5中,所输出预测结果为车辆位置坐标和类别信息的概率,通过如下softmax函数,
Figure 941166DEST_PATH_IMAGE004
式中,i为预测值索引,j为所有索引,e为自然常数,y为预测结果,计算得出。
作为进一步限定,车辆位置坐标以(x,y,w,h)表示,其中,x、y分别为检测框中心点的横纵坐标,w、h分别为检测框的长宽;类别信息为小汽车、卡车、小货车或大巴车。
本发明还提供了上述基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法的一种应用,所述基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法用于对无人机监控拍摄的车辆图像进行目标检测。
由于采用了上述技术方案,本发明与现有技术相比,所取得的技术进步在于:
(1)本发明通过在目标检测领域中引入自适应目标搜索的先验信息,通过对图像中车辆分类建模,进行区域遍历计算和熵值排序,提高待检测区域的边界精确度,从而提升无人机拍摄图像车辆目标检测任务本身的精确度;
(2)本发明引入了博弈的理论,通过对不同类别直接的相互激励,使其进行充分的自监督,从而产生更准确的类别预测,解决无人机场景下车辆目标轮廓不够清晰,俯拍时视野内车辆轮廓较为相似,难以准确进行目标分类的问题;
(3)本发明通过将自适应目标搜索和博弈的理论引入到无人机智能车辆目标检测方法中,针对检测运动目标时的视角变化场景,优化无人机智能车辆目标检测方法,提高成像面视角发生随机改变情况下车辆目标检测的平均精度均值且大幅度减少未召回框的数量;
本发明的基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法用于对无人机监控拍摄的车辆图像进行目标检测;检测方法操作简单,计算方便,结果精度高。
附图说明
下面结合附图及具体实施例对本发明作更进一步详细说明;
图1为本发明实施例1中,一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法的流程示意图;
图2为本发明实施例1中,步骤S1,无人机监控在高空视角俯视拍摄的车辆图片;
图3为本发明实施例1中,步骤S3,预设锚框选区图;
图4为本发明实施例1中,步骤S4,自适应搜索选区图;
图5为本发明实施例1中,步骤S7,目标结果图。
具体实施方式
下面通过具体实施例对本发明做进一步详细说明,应当理解所描述的实施例仅用于解释本发明,并不限定本发明。
实施例1 一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法
本实施例提供一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,用于机载相机平台,图1为该方法的流程示意图,包括依次进行的以下步骤:
S1.通过Resnet50的卷积神经网络提取无人机监控在高空视角拍摄的车辆图片(即图2)的图像特征,通过4个res block,每一个block中均进行3*3的卷积,relu激活,batch normalization计算,将通过网络参数卷积后的图片输出作为特征,即生成多尺度特征图;
S2.所述特征融合是通过采样和池化统一多尺度特征图的尺寸,归一化处理进行特征融合以整合特征信息;具体为:
将1/4原图长宽、1/8原图长宽、1/16原图长宽和1/32原图长宽共四层多尺度特征图,通过采样和池化使用max pooling或反卷积统一到1/8原图长宽这一尺寸,反卷积通过某点特征,通过训练学习1*1*C*4维的参数进行反卷积,生成多尺度多特征图,其中C为该点特征的通道数;
S3.将多尺度多特征图输入到一个卷积层和二分类全连接层的组合进行计算,具体为:3*3的卷积核构成的卷积层通过卷积计算得到的特征通过global pooling的方式转化成一维特征,再对其进行全连接层的计算;
通过计算L1 损失与交叉熵损失的和进行学习优化,学习优化过程为梯度下降法(SGD)反向传播优化损失;
学习优化后输出预设锚框选区,如图3所示,图中矩形检测框为预设锚框;
对多尺度多特征图进行自适应搜索,生成自适应搜索选区;
自适应搜索包括依次进行的以下步骤 :
①车辆分类特征建模:提取多尺度多特征图预设锚框选区中的车辆框,使用Resnet50网络框架训练分类模型,得到包含车辆信息的车辆分类特征模型;
②模型预测值的相关性检索:对多尺度多特征图进行区域遍历计算,得到多尺度多特征图中每区域与车辆分类模型相关性的预测值;
③熵值排序:由②中预测值作为概率计算熵值, 熵值公式如下:
S=-plogp-(1-p)log(1-p)
式中p为概率,S为熵值;
对概率与熵值的加权和进行排序,排序的排序量公式如下:
K=p+αS
式中α为参数 ,K为排序量;
④自适应搜索选区:根据排序结果生成自适应搜索选区,如图4所示,图中矩形检测框为自适应搜索选区;
S4.将预设锚框选区与自适应搜索选区求交集,得到预测区域;
S5.将预测区域输入到两个卷积层和两个全连接层进行计算,具体为:输入的特征图进行两次3*3卷积核的卷积计算,再进行global pooling,生成一维的特征进行两次全连接计算,得到输出特征,再通过softmax函数输出车辆位置坐标和类别信息的概率,softmax函数如下,
Figure 494157DEST_PATH_IMAGE004
式中,i为预测值索引,j为所有索引,y为预测结果;
车辆位置坐标以(x,y,w,h)表示,其中,x、y分别为检测框中心点的横纵坐标,w、h分别为检测框的长宽;
类别信息为小汽车/卡车/小货车/大巴车,分别以1/2/3/4代表,背景区域用0进行表示;
S6.对预测结果进行正和博弈,输出车辆类别的目标结果,如图5所示,图中矩形检测框展示预测结果,矩形检测框上标有目标车辆类别信息;
其中,正和博弈具体为:四种类别信息分别表示3分;博弈准则为:每一个区域中,只有一个类别框时加一分,有两个则不加分,三个框减一分,四个框减两分,每个框自身得分乘其概率与上述准则分相加,即为该区域得分,以最大化区域得分为目标,得到每个区域的矩形预测框。
通过上述基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法实现对无人机监控在高空视角拍摄的车辆图像目标检测,检测结果为:图中有黑色小汽车2辆、灰色小汽车1辆。
实施例2 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法
精确度对比实验
(一)平均精度均值对比
本实验对实施例1中基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法(标记为ZL1)与现有YOLO v3算法的目标检测结果平均精度均值进行比较;
平均精度均值(mAP),即AP(Average Precision)的平均值,它是目标检测算法的主要评估指标,用以描述目标检测模型的优劣,mAP值越高,表明该目标检测模型在给定的数据集上的检测效果越好;
用两种方法对同一无人机高空视角拍摄视频的输入帧进行目标车辆检测,计算mAP值,结果如表1:
表1 ZL1与YOLO v3方法mAP值结果比较
Figure DEST_PATH_IMAGE005
结果表明,本发明实施例1中基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法ZL1比现有YOLO v3算法mAP值结果更高,表明本发明的方法较传统算法计算精度更高。
(二)矩形检测框情况对比
本实验对实施例1中基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法(标记为ZL1)与现有YOLO v3算法计算结果中的未召回框、漏检框和分类错误框情况进行比较;
未召回框、漏检框和分类错误框越少,表明该目标检测模型在给定的数据集上的检测效果越好;
用两种方法对无人机高空视角所拍摄的200张图像分别进行目标车辆检测,计算未召回框、漏检框和分类错误框数量,结果如表2:
表2 ZL1与YOLO v3方法矩形检测框情况结果比较
Figure 79859DEST_PATH_IMAGE006
结果表明,本发明实施例1中基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法ZL1较现有YOLO v3算法显著减少未召回框和分类错误框的出现,漏检框数量也有所降低;表明表明本发明的方法较传统算法计算精度更高,解决了成像面视角发生随机改变的无人机高空视角下车辆目标检测精确度差的问题。
需要注意,上述实施例,仅是本发明的较佳实施例,并非是对本发明所作的其他形式的限定,任何熟悉本专业的技术人员都可能利用上述技术内容作为启示加以变更或改型为等同变化的等效实施例,但凡是未脱离本发明权利要求的技术实质,对以上实施例所作出的简单修改、等同变化与改型,仍属于本发明权利要求保护的范围。

Claims (5)

1.一种基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,其特征在于,该检测方法包括依次进行的以下步骤:
S1.通过卷积神经网络提取图像特征,生成多尺度特征图;
S2.对多尺度特征图进行特征融合和反卷积,生成多尺度多特征图;
S3.将多尺度多特征图输入到感兴趣区域生成器,输出预设锚框选区;
对多尺度多特征图进行自适应搜索,生成自适应搜索选区;
S4.将预设锚框选区与自适应搜索选区求交集,得到预测区域;
S5.将预测区域输入到两个卷积层和两个全连接层,计算,输出预测结果;
S6.对预测结果进行正和博弈,输出车辆类别的目标结果;
其中,步骤S3中,所述自适应搜索包括依次进行的以下步骤:
①车辆分类特征建模:提取多尺度多特征图预设锚框选区中的车辆框,使用Resnet50网络框架训练分类模型,得到包含车辆信息的车辆分类模型;
②模型预测值的相关性检索:对多尺度多特征图进行区域遍历计算,得到多尺度多特征图中每区域与车辆分类模型相关性的预测值;
③熵值排序:由②中预测值作为概率计算熵值, 熵值公式如下:
S=-plogp-(1-p)log(1-p)
式中p为概率,S为熵值;
对概率与熵值的加权和进行排序,排序的排序量公式如下:
K=p+αS
式中α为参数,K为排序量;
根据排序结果生成自适应搜索选区。
2.根据权利要求1所述的基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,其特征在于,
步骤S1中,所述图像为无人机监控拍摄图片;
步骤S2中,所述特征融合是通过采样和池化统一多尺度特征图的尺寸,归一化处理进行特征融合以整合特征信息。
3.根据权利要求1或2所述的基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,其特征在于,
步骤S3中,所述感兴趣区域生成器是一个卷积层和二分类全连接层的组合,通过计算L1 损失与交叉熵损失的和进行学习优化,输出预设锚框选区。
4. 根据权利要求1或2所述的基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,其特征在于,
步骤S5中,所输出预测结果为车辆位置坐标和类别信息的概率,通过如下softmax函数计算得出
Figure 14095DEST_PATH_IMAGE001
式中,i为预测值索引,j为所有索引,e为自然常数,y为预测结果。
5.根据权利要求4所述的基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法,其特征在于,车辆位置坐标以(x,y,w,h)表示,其中,x、y分别为检测框中心点的横纵坐标,w、h分别为检测框的长宽;类别信息为小汽车、卡车、小货车或大巴车。
CN202110006899.8A 2021-01-05 2021-01-05 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用 Active CN112560799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110006899.8A CN112560799B (zh) 2021-01-05 2021-01-05 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110006899.8A CN112560799B (zh) 2021-01-05 2021-01-05 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用

Publications (2)

Publication Number Publication Date
CN112560799A CN112560799A (zh) 2021-03-26
CN112560799B true CN112560799B (zh) 2022-08-05

Family

ID=75035185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110006899.8A Active CN112560799B (zh) 2021-01-05 2021-01-05 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用

Country Status (1)

Country Link
CN (1) CN112560799B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076858A (zh) * 2021-03-30 2021-07-06 深圳技术大学 基于深度学习的车辆信息检测方法、存储介质及终端设备
CN114219836B (zh) * 2021-12-15 2022-06-03 北京建筑大学 一种基于时空信息辅助的无人机视频车辆跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919058A (zh) * 2019-02-26 2019-06-21 武汉大学 一种基于Yolo V3的多源视频影像重点目标快速检测方法
CN110633727A (zh) * 2019-06-28 2019-12-31 中国人民解放军军事科学院国防科技创新研究院 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
WO2020164282A1 (zh) * 2019-02-14 2020-08-20 平安科技(深圳)有限公司 基于yolo的图像目标识别方法、装置、电子设备和存储介质
CN111899172A (zh) * 2020-07-16 2020-11-06 武汉大学 一种面向遥感应用场景的车辆目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020164282A1 (zh) * 2019-02-14 2020-08-20 平安科技(深圳)有限公司 基于yolo的图像目标识别方法、装置、电子设备和存储介质
CN109919058A (zh) * 2019-02-26 2019-06-21 武汉大学 一种基于Yolo V3的多源视频影像重点目标快速检测方法
CN110633727A (zh) * 2019-06-28 2019-12-31 中国人民解放军军事科学院国防科技创新研究院 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN111899172A (zh) * 2020-07-16 2020-11-06 武汉大学 一种面向遥感应用场景的车辆目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GANMcC: A Generative Adversarial Network with Multi-classification Constraints for Infrared and Visible Image Fusion;Jiayi Ma 等;《IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT》;20201231;全文 *
一种无人机图像车辆识别系统设计;王鑫 等;《ELECTRONICS WORLD 技术交流》;20210930;全文 *
协同目标性指导下的多图像联合分割算法;米晓莉等;《计算机工程与应用》;20171231(第02期);全文 *

Also Published As

Publication number Publication date
CN112560799A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN109902677B (zh) 一种基于深度学习的车辆检测方法
CN110363104B (zh) 一种柴油黑烟车的检测方法
CN112215128B (zh) 融合fcos的r-cnn城市道路环境识别方法及装置
CN111709416B (zh) 车牌定位方法、装置、系统及存储介质
CN112101278A (zh) 基于k近邻特征提取和深度学习的宅基地点云分类方法
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN112560799B (zh) 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用
CN109919223B (zh) 基于深度神经网络的目标检测方法及装置
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN111738114B (zh) 基于无锚点精确采样遥感图像车辆目标检测方法
CN110826411B (zh) 一种基于无人机图像的车辆目标快速识别方法
CN109063549A (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN115512251A (zh) 基于双分支渐进式特征增强的无人机低照度目标跟踪方法
CN111915583A (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN114049572A (zh) 识别小目标的检测方法
CN112101113B (zh) 一种轻量化的无人机图像小目标检测方法
CN112132207A (zh) 基于多分支特征映射目标检测神经网络构建方法
CN117037085A (zh) 基于改进YOLOv5的车辆识别及数量统计的监控方法
Wang et al. Research on vehicle detection based on faster R-CNN for UAV images
CN109063543B (zh) 一种考虑局部形变的视频车辆重识别方法、系统及装置
CN116778145A (zh) 一种基于三模态数据源融合的自动驾驶三维目标检测方法
CN115861595A (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法
CN106909936B (zh) 一种基于双车辆可变形部件模型的车辆检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant