CN111915583B - 复杂场景中基于车载红外热像仪的车辆和行人检测方法 - Google Patents

复杂场景中基于车载红外热像仪的车辆和行人检测方法 Download PDF

Info

Publication number
CN111915583B
CN111915583B CN202010741321.2A CN202010741321A CN111915583B CN 111915583 B CN111915583 B CN 111915583B CN 202010741321 A CN202010741321 A CN 202010741321A CN 111915583 B CN111915583 B CN 111915583B
Authority
CN
China
Prior art keywords
detection
frame
infrared image
yolov3 network
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010741321.2A
Other languages
English (en)
Other versions
CN111915583A (zh
Inventor
刘洋
苏海龙
曾操
李小丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202010741321.2A priority Critical patent/CN111915583B/zh
Publication of CN111915583A publication Critical patent/CN111915583A/zh
Application granted granted Critical
Publication of CN111915583B publication Critical patent/CN111915583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种复杂场景中基于车载红外热像仪的车辆和行人检测方法,解决现有技术中在复杂场景中进行车辆和行人检测平均准确率低的问题。其实现方案为:1.构建红外图像数据集,并将其分为训练样本和测试样本;2.对红外图像训练样本进行扩充;3.在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,以与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络;4.利用红外图像训练样本对新的YOLOv3网络进行训练;5.利用训练好的新YOLOv3网络模型检测测试样本集中的红外图像。本发明有效提高了红外图像中细小和密集目标的检测精度,可用于对复杂场景下目标分类和定位。

Description

复杂场景中基于车载红外热像仪的车辆和行人检测方法
技术领域
本发明属于计算机视觉目标检测领域,涉及一种红外图像车辆和行人检测方法,可用于对复杂场景下目标分类和定位。
背景技术
红外车辆和行人目标检测是计算机视觉和数字图像处理的一个重要内容,广泛应用于智能视频监控、先进驾驶辅助系统、交通管理等领域。在过去的十几年里,研究学者们通过研究红外图像目标丰富的形状、纹理这些特征,提出了许多传统的红外车辆和行人目标检测方法。
2012年,深度卷积神经网络AlexNet在ImageNet大规模视觉识别挑战赛的成功,证明了卷积神经网络提取的特征比手工制作提取的特征,如尺度不变特征变换SIFT和方向梯度直方图特征HOG更强大,也因此几乎所有的具有出色性能的目标检测方法都是基于深度卷积神经网络开展的。这些方法可以分为两类,第一类是采用一阶的方法,可进行端到端的网络训练与预测。如YOLO算法通过计算全局特征图在全连接层进行位置和类别预测,SSD算法通过深度卷积神经网络对原始图像分层向下采样,然后将采样生成的多尺度特征图用于预测目标。第二类是采用两阶的方法检测目标。如Faster R-CNN算法第一阶段从经过预处理的网络提取的特征图中产生感兴趣的区域,第二阶段从共享特征图中选择感兴趣区域的特征,预测出更精确的分类和定位。
目前,基于深度学习的红外目标检测方法也采用了上述两类方法的思想,但检测性能仍待提升。主要原因是复杂背景下红外目标的成像距离较远,红外图像的分辨率较低,目标在图像中仅占较少的像素,使得红外目标检测任务变得十分困难。此外,复杂场景中的车辆和行人可能是相邻的,也可能是相互遮挡的,这使得准确定位车辆和行人更加困难。
最近两年,一些基于深度学习的红外目标检测方法被提出,如易诗提出基于红外热成像与YOLOv3的夜间目标识别方法,该方法使用基于深度学习技术的目标检测框架YOLOv3,对采集处理后的热成像图像中的特定目标进行检测,输出检测结果。然而,该方法对热成像图像中的细小目标和密集目标的检测性能较差,目标召回率较低。张勋勋通过改进的YOLOv3网络,提出了一种航空红外车辆检测算法。该算法为了提高检测效率,构建了一个新的改进的YOLOv3网络结构,它只有16层。此外,该算法将每一个特征金字塔层级的锚框扩展到四个尺度,提高了小型车辆的检测精度。但是,该方法采用原始的NMS算法筛选出最终的目标检测框,对于相互重叠的目标检测框,NMS算法会将检测分数较低的检测框过滤掉。因此,该算法无法对红外图像中相互遮挡的车辆进行准确定位。
发明内容
本发明的目的在于针对上述已有技术存在的不足,提供一种复杂场景中基于车载红外热像仪的车辆和行人方法,以提高红外图像中细小和密集目标的检测精度。
本发明的技术方案是:首先构建红外图像数据集,并对红外图像训练样本集进行扩充,然后构建一个新的YOLOv3网络,采用完整的交并比损失LCIoU作为新的YOLOv3网络最优的边界框回归损失,对新的YOLOv3网络进行训练,得到训练好的新YOLOv3网络模型,最后利用训练好的新YOLOv3网络模型检测红外图像,使用Soft-NMS算法从红外图像中筛选出最终的车辆和行人检测框,具体实现步骤包括如下:
(1)构建红外图像数据集:
通过车载红外热像仪录制红外数据,利用MATLAB软件对场景相似的红外图像进行剔重,利用LabelImg图像标记工具对红外图像中的各类目标进行位置标注,得到红外图像数据集,并将红外图像数据集划分为训练集、验证集和测试集,其中训练集占比60%,验证集和测试集分别各占比20%;
(2)对红外图像训练样本集进行扩充:
(2a)对训练集中的红外图像分别进行90°、180°和270°的旋转,得到旋转变换后的训练样本;
(2b)对训练集中的红外图像进行水平翻转和垂直翻转,得到翻转变换后的训练样本;
(2c)对训练集中的红外图像进行色度空间变换,即先将红外图像所在的RGB颜色空间变换到HSV颜色空间,该HSV颜色空间包含色相H、饱和度S和明亮程度V三种信息,并将色相信息H值分别设定为0°,60°,120°,180°,240°和300°,将明亮程度V值设定为0.7;再将HSV颜色空间变换回红外图像所在的RGB颜色空间,得到色度空间变换后的训练样本;
(2d)将旋转变化、翻转变换和色度空间变换后的训练样本进行合并,得到扩充后的红外图像训练样本集;
(3)构建新的YOLOv3网络:
在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,这两个3×3卷积层与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络;
(4)对新的YOLOv3网络进行训练:
(4a)使用完整的交并比损失函数LCIoU作为新的YOLOv3网络最优的边界框回归损失;
(4b)将新的YOLOv3网络第103层加入的两个3×3卷积层的输出作为特征向量,利用扩充后的红外图像训练样本集对新的YOLOv3网络进行训练,直到完整的交并比损失函数LCIoU完全收敛后停止训练,得到训练好的新YOLOv3网络模型;
(5)利用训练好的新YOLOv3网络模型检测红外图像:
(5a)将测试集中的红外图像送入训练好的新YOLOv3网络模型,得到具有分类信息和定位信息的红外图像;
(5b)使用Soft-NMS算法从具有分类信息和定位信息的红外图像中筛选出车辆和行人检测框。
本发明与现有技术相比,具有以下优点:
第一,本发明由于在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,提高了检测器对红外图像细小和密集目标的检测能力。
第二,本发明由于对新YOLOv3网络进行训练时,使用完整的交并比损失LCIoU,加快了新YOLOv3网络的训练速度。
第三,本发明由于对训练好的新YOLOv3网络模型使用Soft-NMS算法,从红外图像中筛选出最终的车辆和行人检测框,提高了新YOLOv3网络模型对相互遮挡的车辆和行人的检测精度。
附图说明
图1为本发明的实现流程图;
图2为本发明中构建的新YOLOv3网络结构示意图;
图3为分别用现有YOLOv3算法和本发明从红外图像中检测出的车辆及行人结果图。
具体实施方式
下面将结合附图对本发明的具体实施例和效果作进一步详细描述:
参照图1,本发明在复杂场景中基于车载红外热像仪的车辆和行人检测方法,包括如下步骤:
步骤1,构建红外图像数据集。
通过车载红外热像仪从校园、公路、广场等几十个复杂场景中总共收集5322张红外图像,图像的尺寸大小为640x480像素,水平分辨率和垂直分辨率均为96dpi。
利用MATLAB软件对场景相似的红外图像进行剔重,利用LabelImg图像标记工具对红外图像中的小汽车,行人,卡车,自行车,摩托车,公共汽车这6类目标进行位置标注,得到红外图像数据集;
将红外图像数据集划分为训练集、验证集和测试集,其中训练集占比60%,验证集和测试集分别各占比20%;
本实例中,红外图像数据集一共包含42907个边界框标签,平均一张图像包含8个边界框标签,每个边界框标签包含有目标的分类信息和坐标位置信息。
步骤2,对红外图像训练样本集进行扩充。
2.1)对训练集中的红外图像分别进行90°、180°和270°的旋转,得到旋转变换后的训练样本;
2.2)对训练集中的红外图像进行水平翻转和垂直翻转,得到翻转变换后的训练样本;
2.3)对训练集中的红外图像进行色度空间变换,即先将红外图像所在的RGB颜色空间变换到HSV颜色空间,该HSV颜色空间包含色相H、饱和度S和明亮程度V三种信息,并将色相信息H值分别设定为0°,60°,120°,180°,240°和300°,将明亮程度V值设定为0.7;再将HSV颜色空间变换回红外图像所在的RGB颜色空间,得到色度空间变换后的训练样本;
2.4)将旋转变化、翻转变换和色度空间变换后的训练样本进行合并,得到扩充后的红外图像训练样本集。
步骤3,构建新的YOLOv3网络。
本步骤是对现有YOLOv3网络的改进,现有YOLOv3网络主要采用了类似特征金字塔网络FPN的思想,它的三个金字塔级的特征图分别用于预测不同尺度大小的物体,输出一个包含边界框位置信息、目标置信度信息和分类预测信息的三维特征向量。
参照图2,本实例是在现有YOLOv3网络特征图的第103层进行改进,原有的103层依次为一个3×3卷积层和一个1×1卷积层,其改进是在该103层的上下并行加入两个3×3卷积层,即在YOLOv3网络特征图的第103层上方添加一个带有K个滤波器的3×3卷积层,用于预测各个目标会出现在YOLOv3网络特征图上每个空间位置的概率;在YOLOv3网络特征图的第103层下方添加一个带有4个滤波器的3×3卷积层,用于预测以锚框自由方式编码的边界框偏移量;
这两个3×3卷积层与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络,它包含锚框自由分支和有锚分支两条并行支路,其中:
锚框自由分支结构为:特征金字塔网络→第103个卷积层→两个上下并行的3×3卷积层;
有锚分支结构为:特征金字塔网络→第103个卷积层→3×3卷积层→1×1卷积层。
步骤4,对新的YOLOv3网络进行训练。
4.1)使用完整的交并比损失LCIoU作为新的YOLOv3网络最优的边界框回归损失,即:
其中,IoU表示预测框和目标框的交并比,b和bgt分别表示预测框和目标框的中心点,ρ(·)是欧式距离,c是覆盖两个检测框的最小封闭检测框的对角线长度,α是一个正的权重参数,υ表示纵横比的一致性;
本实例中,α的取值为0.5,υ的取值为1;
4.2)将新的YOLOv3网络第103层加入的两个3×3卷积层的输出作为特征向量,对新的YOLOv3网络进行训练,直到完整的交并比损失函数LCIoU完全收敛后停止训练,得到训练好的新YOLOv3网络模型。
步骤5,利用训练好的新YOLOv3网络模型检测红外图像。
5.1)将测试集中的红外图像送入训练好的新YOLOv3网络模型,得到具有分类信息和定位信息的红外图像;
5.2)提取具有分类信息和定位信息的红外图像初始检测框bi,并将其放入初始检测集S中,再从初始检测集S中选择目标置信度分数最高的检测框M加入到最终的检测集D中;
5.3)记初始检测框bi和检测框M的交并比初值为iou(M,bi),遍历初始检测集S中剩余的初始检测框bi,采用Soft-NMS算法对初始检测集S进行更新,公式如下:
其中,bi是初始的检测框,si是初始的检测分数,i表示第i个检测框,1≤i≤N,s'是更新后的检测分数,iou(M,bi)是初始检测框与得分最高的检测框的交并比初值,M是得分最高的检测框,σ是权重参数,D是最终的检测集,是基于检测框重叠的加权函数;
本实例中,N的取值为1000;
5.4)设初始检测框bi和检测框M的交并比阈值为t,将初始检测框bi和检测框M的交并比初值iou(M,bi)与阈值t进行比较;
如果iou(M,bi)值大于等于设定的阈值t,就将加权函数与初始的检测分数si相乘,得到更新后的检测分数s',执行5.5);
如果iou(M,bi)值小于设定的阈值t,就将初始检测框bi保留在初始检测集S中,执行5.5);
本实例中,阈值t的取值为0.9;
5.5)判断更新后的检测分数s'≥0.85是否成立:若是,将初始检测框bi从初始检测集S中删除,否则,将初始检测框bi保留在初始检测集S中,执行5.6);
5.6)从当前的初始检测集S中继续选一个得分最高的检测框M加入到最终的检测集D中,返回5.4)开始循环;
5.7)重复执行5.4)至5.6),直至初始检测集S为空,此时最终的检测集D中包含的检测框即为筛选后的车辆和行人检测框。
以下结合仿真实验,对本发明的效果作进一步说明:
1.仿真条件:
仿真实验采用操作系统为Ubuntu16.0.4,处理器为英特尔i7-2600,主频为3.4GHZ,内存为8GB,显卡为英伟达GTX 1080ti,显存为11GB。实验用的深度学习框架为TensorFlow。
2.仿真内容:
提取本发明实例测试集中的红外图像,分别利用本发明方法和现有的YOLOv3算法进行车辆和行人检测,结果如图3。其中,图3(a)是现有的YOLOv3算法从红外图像中检测出的车辆及行人结果图,图3(b)是本发明方法从红外图像中检测出的车辆及行人结果图。从图3可见,本发明方法相比现有的YOLOv3算法,在车辆及行人检测精度和检测召回率上均有了明显的提升。
对上述两种方法的车辆和行人检测平均准确率进行统计,其结果如表1。
表1两种方法的平均准确率对照
现有的YOLOv3算法 本发明方法
车辆和行人检测平均准确率 63.8% 72.2%
从表1可以看出,本发明方法对车辆和行人检测的平均准确率为72.2%,而现有的YOLOv3算法对车辆和行人检测的平均准确率仅为63.8%,本发明方法相比现有的YOLOv3算法,在平均准确率上有了明显的提升。

Claims (2)

1.一种复杂场景中基于车载红外热像仪的车辆和行人检测方法,其特征在于,包括如下:
(1)构建红外图像数据集:
通过车载红外热像仪录制红外数据,利用MATLAB软件对场景相似的红外图像进行剔重,利用LabelImg图像标记工具对红外图像中的各类目标进行位置标注,得到红外图像数据集,并将红外图像数据集划分为训练集、验证集和测试集,其中训练集占比60%,验证集和测试集分别各占比20%;
(2)对红外图像训练样本集进行扩充:
(2a)对训练集中的红外图像分别进行90°、180°和270°的旋转,得到旋转变换后的训练样本;
(2b)对训练集中的红外图像进行水平翻转和垂直翻转,得到翻转变换后的训练样本;
(2c)对训练集中的红外图像进行色度空间变换,即先将红外图像所在的RGB颜色空间变换到HSV颜色空间,该HSV颜色空间包含色相H、饱和度S和明亮程度V三种信息,并将色相信息H值分别设定为0°,60°,120°,180°,240°和300°,将明亮程度V值设定为0.7;再将HSV颜色空间变换回红外图像所在的RGB颜色空间,得到色度空间变换后的训练样本;
(2d)将旋转变化、翻转变换和色度空间变换后的训练样本进行合并,得到扩充后的红外图像训练样本集;
(3)构建新的YOLOv3网络:
在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,这两个3×3卷积层与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络;
(4)对新的YOLOv3网络进行训练:
(4a)使用完整的交并比损失函数LCIoU作为新的YOLOv3网络最优的边界框回归损失;所述完整交并比损失函数LCIoU,其计算公式为:
其中,IoU表示预测框和目标框的交并比,b和bgt分别表示预测框和目标框的中心点,ρ(·)是欧式距离,c是覆盖两个检测框的最小封闭检测框的对角线长度,α是一个正的权重参数,υ表示纵横比的一致性;
(4b)将新的YOLOv3网络第103层加入的两个3×3卷积层的输出作为特征向量,利用扩充后的红外图像训练样本集对新的YOLOv3网络进行训练,直到完整的交并比损失函数LCIoU完全收敛后停止训练,得到训练好的新YOLOv3网络模型;
(5)利用训练好的新YOLOv3网络模型检测红外图像:
(5.1)将测试集中的红外图像送入训练好的新YOLOv3网络模型,得到具有分类信息和定位信息的红外图像;
(5.2)使用Soft-NMS算法从具有分类信息和定位信息的红外图像中筛选出车辆和行人检测框,其具体的操作过程如下:
(5a)提取具有分类信息和定位信息的红外图像初始检测框bi,将其放入初始检测集S中,从初始检测集S中选择目标置信度分数最高的检测框M,并把该检测框M加入到最终的检测集D中;
(5b)记初始检测框bi和检测框M的交并比初值为iou(M,bi),遍历初始检测集S中剩余的初始检测框bi,采用Soft-NMS算法对初始检测集S进行更新,公式如下:
其中,bi是初始的检测框,si是初始的检测分数,s'是更新后的检测分数,iou(M,bi)是初始检测框与得分最高的检测框的交并比,M是得分最高的检测框,σ是权重参数,D是最终的检测集,是基于检测框重叠的加权函数;
(5c)设初始检测框bi和检测框M的交并比阈值为t,将初始检测框bi和检测框M交并比初值iou(M,bi)与阈值t进行比较;
如果iou(M,bi)值大于等于设定的阈值t,就将加权函数与初始的检测分数si相乘,得到更新后的检测分数s',执行(5d);
如果iou(M,bi)值小于设定的阈值t,就将初始检测框bi保留在初始检测集S中,执行(5e);
(5d)判断更新后的检测分数s'≥0.85是否成立:若是,将初始检测框bi从初始检测集S中删除,否则,将初始检测框bi保留在初始检测集S中,执行(5e);
(5e)从当前的初始检测集S中继续选一个得分最高的检测框M加入到最终的检测集D中,返回(5c)开始循环;
(5f)重复执行(5c)至(5e),直至初始检测集S为空,此时最终的检测集D中包含的检测框即为筛选后的车辆和行人检测框。
2.根据权利要求1所述的方法,其特征在于,(3)中构成新的YOLOv3网络,包含锚框自由分支和有锚分支两条并行支路,其中:
锚框自由分支结构为:特征金字塔网络→第103个卷积层→两个上下并行的3×3卷积层;
有锚分支的结构为:特征金字塔网络→第103个卷积层→3×3卷积层→1×1卷积层。
CN202010741321.2A 2020-07-29 2020-07-29 复杂场景中基于车载红外热像仪的车辆和行人检测方法 Active CN111915583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010741321.2A CN111915583B (zh) 2020-07-29 2020-07-29 复杂场景中基于车载红外热像仪的车辆和行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010741321.2A CN111915583B (zh) 2020-07-29 2020-07-29 复杂场景中基于车载红外热像仪的车辆和行人检测方法

Publications (2)

Publication Number Publication Date
CN111915583A CN111915583A (zh) 2020-11-10
CN111915583B true CN111915583B (zh) 2024-02-09

Family

ID=73286623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010741321.2A Active CN111915583B (zh) 2020-07-29 2020-07-29 复杂场景中基于车载红外热像仪的车辆和行人检测方法

Country Status (1)

Country Link
CN (1) CN111915583B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613462B (zh) * 2020-12-29 2022-09-23 安徽大学 一种加权交并比方法
CN112686923A (zh) * 2020-12-31 2021-04-20 浙江航天恒嘉数据科技有限公司 一种基于双阶段卷积神经网络的目标跟踪方法及系统
CN113221659B (zh) * 2021-04-13 2022-12-23 天津大学 一种基于不确定感知网络的双光车辆检测方法及装置
CN113158922A (zh) * 2021-04-26 2021-07-23 平安科技(深圳)有限公司 基于yolo神经网络的车流量统计方法、装置及设备
CN113805151A (zh) * 2021-08-17 2021-12-17 青岛本原微电子有限公司 基于注意力机制的中重频雷达目标检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110647852A (zh) * 2019-09-27 2020-01-03 集美大学 一种车流量统计方法、终端设备及存储介质
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN111222396A (zh) * 2019-10-23 2020-06-02 江苏大学 一种全天候多光谱行人检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN110647852A (zh) * 2019-09-27 2020-01-03 集美大学 一种车流量统计方法、终端设备及存储介质
CN111222396A (zh) * 2019-10-23 2020-06-02 江苏大学 一种全天候多光谱行人检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Faster R-CNN模型在车辆检测中的应用;王林;张鹤鹤;;计算机应用(第03期);全文 *
基于改进R-FCN的车辆目标检测方法;胡辉;曾琛;;计算机工程与设计(第04期);全文 *

Also Published As

Publication number Publication date
CN111915583A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN111915583B (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN106874894B (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN104239867B (zh) 车牌定位方法及系统
CN107767400B (zh) 基于层次化显著性分析的遥感图像序列动目标检测方法
CN107273832B (zh) 基于积分通道特征与卷积神经网络的车牌识别方法及系统
CN103605953A (zh) 基于滑窗搜索的车辆兴趣目标检测方法
CN109614936B (zh) 遥感图像飞机目标的分层识别方法
CN111709416A (zh) 车牌定位方法、装置、系统及存储介质
CN110119726A (zh) 一种基于YOLOv3模型的车辆品牌多角度识别方法
CN112200186B (zh) 基于改进yolo_v3模型的车标识别方法
CN106845458B (zh) 一种基于核超限学习机的快速交通标识检测方法
CN114926747A (zh) 一种基于多特征聚合与交互的遥感图像定向目标检测方法
CN106570490A (zh) 一种基于快速聚类的行人实时跟踪方法
Liu et al. Multi-type road marking recognition using adaboost detection and extreme learning machine classification
CN114049572A (zh) 识别小目标的检测方法
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
Dousai et al. Detecting humans in search and rescue operations based on ensemble learning
WO2017161544A1 (zh) 一种基于单摄像头视频序列匹配的车辆测速方法及其系统
CN112101113B (zh) 一种轻量化的无人机图像小目标检测方法
CN106548195A (zh) 一种基于改进型hog‑ulbp特征算子的目标检测方法
CN106023270A (zh) 一种基于局部对称特征的视频车辆检测方法
CN111860113A (zh) 车道线检测方法及系统
CN109190451B (zh) 基于lfp特征的遥感图像车辆检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant