CN110751076B - 车辆检测方法 - Google Patents

车辆检测方法 Download PDF

Info

Publication number
CN110751076B
CN110751076B CN201910971215.0A CN201910971215A CN110751076B CN 110751076 B CN110751076 B CN 110751076B CN 201910971215 A CN201910971215 A CN 201910971215A CN 110751076 B CN110751076 B CN 110751076B
Authority
CN
China
Prior art keywords
picture
vehicle
data set
target
vehicle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910971215.0A
Other languages
English (en)
Other versions
CN110751076A (zh
Inventor
刘云翔
张国庆
唐泽莘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Technology
Original Assignee
Shanghai Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Technology filed Critical Shanghai Institute of Technology
Priority to CN201910971215.0A priority Critical patent/CN110751076B/zh
Publication of CN110751076A publication Critical patent/CN110751076A/zh
Application granted granted Critical
Publication of CN110751076B publication Critical patent/CN110751076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种车辆检测方法,包括通过在十字路口安置相机,对目标车辆进行数据采集得到目标车辆图片;对目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集;将训练数据集中的图片作为Darknet‑53网络的输入,进行图片特征提取;将提取到的图片特征进行特征拼接、残差映射、特征融合,将处理后的图片特征输入卷积神经网络中按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及训练好的参数;车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果,本发明具有准确度高、检测速度快、重复检测率低等优点。

Description

车辆检测方法
技术领域
本发明涉及一种车辆检测方法。
背景技术
近年来,随着城市化进程的不断推进和道路车辆的增多,对交通视频或图像中的行驶车辆进行检测与识别是交通管理的一项重要任务,同时对于提高交通安全具有重要意义。传统目标检测算法过于依赖研究人员,如果特征提取不合理,就会对最终车辆检测的准确度产生很大影响。
目前,利用卷积神经网络已经成为一种新型和被广泛使用的检测方式。详细地,Girshick等人提出R-CNN网络从图片中提取候选区域,目标检测精度相比传统方法有了极大的提升,但由于候选框数量众多导致效率低。
之后Fast R-CNN在R-CNN的基础上,规避了R-CNN中许多冗余的特征提取操作,但仍然不能实现端到端操作。
最后,Faster R-CNN通过构建区域建议网络提取候选框,代替使用时间开销大的选择性搜索算法,不仅提升速度,而且实现了端到端训练。
YOLO,SSD,YOLOV2,YOLOV3系列算法采用端到端学习的策略,大大提高了检测速度,取得良好效果。但是YOLO算法对物体定位落差大,精度不高。SSD对大目标检测效果非常好,但对小目标检测效果不好。YOLOV2的特征提取网络比较简单,面对被遮挡目标的识别表现不够好。YOLOV3加入了深度残差神经网络的思想,使得特征提取网络更加复杂,并进行多尺度特征预测,获得了目前最好的检测速度和准确率的平衡,但它在针对车辆目标检测时,会出现重复检测,误检的问题。在实际的车辆检测场景中,交通环境复杂多样,现有车辆检测技术往往不能准确识别车辆的类别和位置。
发明内容
本发明的目的在于提供一种车辆检测方法。
为解决上述问题,本发明提供一种车辆检测方法,包括:
步骤S1:通过在十字路口安置相机,对目标车辆进行数据采集得到目标车辆图片;
步骤S2:对所述目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集;
步骤S3:将所述训练数据集中的图片作为Darknet-53网络的输入,进行图片特征提取;
步骤S4:将提取到的图片特征进行特征拼接、残差映射、特征融合,得到处理后的图片特征,将所述处理后的图片特征输入卷积神经网络中按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及对应的训练好的参数;
步骤S5:所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果。
进一步的,在上述方法中,步骤S2:对所述目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集,包括:
将所有目标车辆图片缩放到416×416的尺寸,使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框标注,得到按照VOC2007数据集的格式制作的自制数据集,将所述自制数据集按照7∶3的比例将所述自制数据集划分为训练数据集和测试数据集。
进一步的,在上述方法中,使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框标注,包括:
获取缩放后的目标车辆图片中目标车辆所在的位置,基于目标车辆所在的位置和目标候选框个数和宽高比维度,并使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框的标注。
进一步的,在上述方法中,基于目标车辆所在的位置和目标候选框个数和宽高比维度,并使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框的标注之前,还包括:
确定目标候选框个数和宽高比维度,包括:采用K-means聚类算法对缩放后的目标车辆图片中标注的目标候选框进行聚类分析,得到最优的目标候选框个数和宽高比维度,在确定目标候选框个数和宽高比维度的过程中,采用目标候选框与原标记框的交集与并集的比值代替原始的欧氏距离作为目标函数。
进一步的,在上述方法中,所述目标函数的计算公式为:
Figure BDA0002226715750000031
其中box代表目标候选框,cen为聚类中心,n为样本数,k为类别数;
Figure BDA0002226715750000032
其中,IOU是产生的目标候选框与原标记框的交叠率,即它们的交集与并集的比值。
进一步的,在上述方法中,所述Darknet-53网络使用残差的跳层链接,同时连续使用3×3和1×1的卷积层,使用3×3的卷积层用于增加维度,使用1×1的卷积层用于压缩3×3卷积后的特征表示,最后在每个卷积层后增加归一化操作。
进一步的,在上述方法中,所述步骤S4,包括:
步骤S401:在利用Darknet-53网络进行图片特征提取后,提取第74层的网络输出量和第79层的网络输出量,并对二者进行残差映射操作,其结果作为第一个特征;
步骤S402:将第85层的网络输出量和第61层的网络输出量进行特征拼接,其结果再和第91层的网络输出量进行残差映射,其结果作为第二个特征;
步骤S403:将第97层的网络输出量和第36层的网络输出量进行特征拼接,其结果再和第103层的网络输出量进行残差映射,其结果作为第三个特征;
步骤S404:将第一、第二和第三特征分别放入卷积神经网络的特征融合层,按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及对应的训练好的参数。
进一步的,在上述方法中,步骤S5:所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果,包括:
所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出以输出所述测试数据集中的图像中的目标车辆的位置和置信度。
与现有技术相比,本发明具有如下优点:
1、本发明提供的基于ADE-YOLOV3算法的车辆检测方法是对原始的YOLOV3算法的改进,针对车辆检测,由于原始YOLOV3算法部分anchor参数设计的不合理,本发明在自己的数据集上重新聚类计算anchor参数即目标候选框的个数和宽高比维度,提高bounding box的检出率,改进的anchor参数对车辆数据更具有针对性,提高了模型的训练精度。
2、本发明提供的基于ADE-YOLOV3算法的车辆检测方法,利用迁移学习来帮助新模型训练,同时修改部分网络结构,充分利用更多丰富的细节信息进行特征融合,使得模型训练效果更好。
综上所述,应用本发明的技术方案解决了现有技术中针对在实际的车辆检测场景中,交通环境复杂多样,现有车辆检测技术往往不能准确识别车辆的类别和位置的问题。
附图说明
图1是本发明一实施例的车辆检测方法的流程图;
图2是本发明一实施例的数据集标签制作示意图;
图3是本发明一实施例的先验框参数设置示意图;
图4是本发明一实施例的ADE-YOLOV3卷积神经网络结构示意图;
图5是本发明一实施例的使用ADE-YOLOV3卷积神经网络结构的检测结果示意图;
图6是本发明一实施例的未使用ADE-YOLOV3卷积神经网络结构的检测结果示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种车辆检测方法,包括:
步骤S1:通过在十字路口安置相机,对目标车辆进行数据采集得到目标车辆图片;
步骤S2:对所述目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集;
步骤S3:将所述训练数据集中的图片作为Darknet-53网络的输入,进行图片特征提取;
步骤S4:将提取到的图片特征进行特征拼接、残差映射、特征融合,得到处理后的图片特征,将所述处理后的图片特征输入卷积神经网络中按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及对应的训练好的参数;
步骤S5:所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果。
在此,根据上述提出在实际的车辆检测场景中,交通环境复杂多样,现有车辆检测技术往往不能准确识别车辆的类别和位置的技术问题,本发明提供一种基于ADE-YOLOV3算法的车辆检测方法。本发明具有准确度高、检测速度快、重复检测率低等优点。
本发明的车辆检测方法一实施例中,步骤S2:对所述目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集,包括:
将所有目标车辆图片缩放到416×416的尺寸,使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框标注,并生成对应带有目标框标记信息的xml文件,得到如图2所示的按照VOC2007数据集的格式制作的自制数据集,将所述自制数据集按照7∶3的比例将所述自制数据集划分为训练数据集和测试数据集。
本发明的车辆检测方法一实施例中,使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框标注,包括:
获取缩放后的目标车辆图片中目标车辆所在的位置,基于目标车辆所在的位置和目标候选框的个数和宽高比维度,并使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框的标注。
本发明的车辆检测方法一实施例中,基于目标车辆所在的位置和目标候选框个数和宽高比维度,并使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框的标注之前,还包括:
确定目标候选框个数和宽高比维度,其中,为了得到最优的目标候选框个数和宽高比维度的参数数值,ADE-YOLOV3采用K-means聚类算法对缩放后的目标车辆图片中标注的目标候选框进行聚类分析,得到最优的目标候选框个数和宽高比维度,在确定目标候选框个数和宽高比维度的过程中,采用目标候选框与原标记框的交集与并集的比值代替原始的欧氏距离作为目标函数,目标函数的值越小,聚类效果越好。
本发明的车辆检测方法一实施例中,所述目标函数计算公式为:
Figure BDA0002226715750000071
其中box代表目标候选框,cen为聚类中心,n为样本数,k为类别数;
Figure BDA0002226715750000072
其中,IOU是产生的目标候选框(candidate bound)与原标记框(ground truthbound)的交叠率,即它们的交集与并集的比值。
在此,最终得到的S与k的关系图如图3所示。根据手肘法的思想,我们选取k=9时的聚类结果作为改进算法的参数,该参数聚类出来的结果为(45,55),(118,154),(33,60),(18,23),(36,27),(21,32),(273,376),(69,90),(28,43),与原始参数相比,聚类结果更具有针对性。
本发明的车辆检测方法一实施例中,所述Darknet-53网络的结构借鉴了残差网络的思想,大量使用残差的跳层链接,同时连续使用3×3和1×1的卷积层,3×3的卷积层用于增加维度,1×1的卷积层用于压缩3×3卷积后的特征表示,最后在每个卷积层后增加归一化操作,防止网络过度拟合。
本发明的车辆检测方法一实施例中,所述步骤S4,包括:
步骤S401:在利用Darknet-53网络进行图片特征提取后,提取第74层的网络输出量和第79层的网络输出量,并对二者进行残差映射操作,其结果作为第一个特征;
步骤S402:将第85层的网络输出量和第61层的网络输出量进行特征拼接,其结果再和第91层的网络输出量进行残差映射,其结果作为第二个特征;
步骤S403:将第97层的网络输出量和第36层的网络输出量进行特征拼接,其结果再和第103层的网络输出量进行残差映射,其结果作为第三个特征;
步骤S404:将第一、第二和第三特征分别放入卷积神经网络的特征融合层,具体过程如图4所示,按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及对应的训练好的参数。
本发明的车辆检测方法一实施例中,步骤S5:所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果,包括:
所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出以输出所述测试数据集中的图像中的目标车辆的位置和置信度。
在此,本发明通过在十字路口安置相机,采集车辆图片数据并进行数据预处理,然后输入到ADE-YOLOV3卷积神经网络结构中,最后得到目标车辆的位置与置信度。
如图5所示,本实施例中利用ADE-YOLOV3卷积神经网络进行的车辆检测结果,对应的图6是利用原始YOLOV3卷积神经网络的车辆检测结果,由此可以看出本发明在复杂交通场景下相比原始YOLOV3算法,重复检测率大大降低,拥有非常优秀的车辆检测能力。
与现有技术相比,本发明具有如下优点:
1、本发明提供的基于ADE-YOLOV3算法的车辆检测方法是对原始的YOLOV3算法的改进,针对车辆检测,由于原始YOLOV3算法部分anchor参数设计的不合理,本发明在自己的数据集上重新聚类计算anchor参数即目标候选框的个数和宽高比维度,提高bounding box的检出率,改进的anchor参数对车辆数据更具有针对性,提高了模型的训练精度。
2、本发明提供的基于ADE-YOLOV3算法的车辆检测方法,利用迁移学习来帮助新模型训练,同时修改部分网络结构,充分利用更多丰富的细节信息进行特征融合,使得模型训练效果更好。
综上所述,应用本发明的技术方案解决了现有技术中针对在实际的车辆检测场景中,交通环境复杂多样,现有车辆检测技术往往不能准确识别车辆的类别和位置的问题。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。

Claims (8)

1.一种车辆检测方法,其特征在于,包括:
步骤S1:通过在十字路口安置相机,对目标车辆进行数据采集得到目标车辆图片;
步骤S2:对所述目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集;
步骤S3:将所述训练数据集中的图片作为Darknet-53网络的输入,进行图片特征提取;
步骤S4:将提取到的图片特征进行特征拼接、残差映射、特征融合,得到处理后的图片特征,将所述处理后的图片特征输入卷积神经网络中按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及对应的训练好的参数;
步骤S5:所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果。
2.如权利要求1所述的车辆检测方法,其特征在于,步骤S2:对所述目标车辆图片进行尺寸标准化处理和标注,以生成训练数据集,包括:
将所有目标车辆图片缩放到416×416的尺寸,使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框标注,得到按照VOC2007数据集的格式制作的自制数据集,将所述自制数据集按照7∶3的比例将所述自制数据集划分为训练数据集和测试数据集。
3.如权利要求2所述的车辆检测方法,其特征在于,使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框标注,包括:
获取缩放后的目标车辆图片中目标车辆所在的位置,基于目标车辆所在的位置和目标候选框个数和宽高比维度,并使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框的标注。
4.如权利要求3所述的车辆检测方法,基于目标车辆所在的位置和目标候选框个数和宽高比维度,并使用labelImg图片标注工具对缩放后的目标车辆图片进行目标候选框的标注之前,还包括:
确定目标候选框个数和宽高比维度,包括:采用K-means聚类算法对缩放后的目标车辆图片中标注的目标候选框进行聚类分析,得到最优的目标候选框个数和宽高比维度,在确定目标候选框个数和宽高比维度的过程中,采用目标候选框与原标记框的交集与并集的比值代替原始的欧氏距离作为目标函数。
5.如权利要求4所述的车辆检测方法,其特征在于,所述目标函数的计算公式为:
Figure FDA0002226715740000021
其中box代表目标候选框,cen为聚类中心,n为样本数,k为类别数;
Figure FDA0002226715740000022
其中,IOU是产生的目标候选框与原标记框的交叠率,即它们的交集与并集的比值。
6.如权利要求1所述的车辆检测方法,其特征在于,所述Darknet-53网络使用残差的跳层链接,同时连续使用3×3和1×1的卷积层,使用3×3的卷积层用于增加维度,使用1×1的卷积层用于压缩3×3卷积后的特征表示,最后在每个卷积层后增加归一化操作。
7.如权利要求6所述的车辆检测方法,其特征在于,所述步骤S4,包括:
步骤S401:在利用Darknet-53网络进行图片特征提取后,提取第74层的网络输出量和第79层的网络输出量,并对二者进行残差映射操作,其结果作为第一个特征;
步骤S402:将第85层的网络输出量和第61层的网络输出量进行特征拼接,其结果再和第91层的网络输出量进行残差映射,其结果作为第二个特征;
步骤S403:将第97层的网络输出量和第36层的网络输出量进行特征拼接,其结果再和第103层的网络输出量进行残差映射,其结果作为第三个特征;
步骤S404:将第一、第二和第三特征分别放入卷积神经网络的特征融合层,按预设的迭代次数进行训练,并根据训练数据集中的图片的真实值与卷积神经网络的输出值的差异对卷积神经网络中的参数不断进行更新,以生成车辆检测权重模型及对应的训练好的参数。
8.如权利要求7所述的车辆检测方法,其特征在于,步骤S5:所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出结果,包括:
所述车辆检测权重模型调用训练好的参数对测试数据集中的图像中的车辆进行检测,并输出以输出所述测试数据集中的图像中的目标车辆的位置和置信度。
CN201910971215.0A 2019-10-09 2019-10-09 车辆检测方法 Active CN110751076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910971215.0A CN110751076B (zh) 2019-10-09 2019-10-09 车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910971215.0A CN110751076B (zh) 2019-10-09 2019-10-09 车辆检测方法

Publications (2)

Publication Number Publication Date
CN110751076A CN110751076A (zh) 2020-02-04
CN110751076B true CN110751076B (zh) 2023-03-28

Family

ID=69278074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910971215.0A Active CN110751076B (zh) 2019-10-09 2019-10-09 车辆检测方法

Country Status (1)

Country Link
CN (1) CN110751076B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428558A (zh) * 2020-02-18 2020-07-17 东华大学 一种基于改进YOLOv3方法的车辆检测方法
CN112465072B (zh) * 2020-12-22 2024-02-13 浙江工业大学 一种基于YOLOv4模型的挖掘机图像识别方法
CN113392695B (zh) * 2021-04-02 2023-04-25 太原理工大学 一种公路货车及其轮轴识别方法
CN114332688B (zh) * 2021-12-14 2022-09-09 浙江省交通投资集团有限公司智慧交通研究分公司 公路监控视频场景下车辆检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Faster R-CNN模型在车辆检测中的应用;王林等;《计算机应用》;20180310(第03期);全文 *
改进的YOLOv3红外视频图像行人检测算法;王殿伟等;《西安邮电大学学报》;20180710(第04期);全文 *

Also Published As

Publication number Publication date
CN110751076A (zh) 2020-02-04

Similar Documents

Publication Publication Date Title
CN110751076B (zh) 车辆检测方法
CN112418117B (zh) 一种基于无人机图像的小目标检测方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN111275688A (zh) 基于注意力机制的上下文特征融合筛选的小目标检测方法
CN109948707B (zh) 模型训练方法、装置、终端及存储介质
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN112364931B (zh) 一种基于元特征和权重调整的少样本目标检测方法及网络系统
CN109977895B (zh) 一种基于多特征图融合的野生动物视频目标检测方法
CN111428558A (zh) 一种基于改进YOLOv3方法的车辆检测方法
CN108230330B (zh) 一种快速的高速公路路面分割和摄像机定位的方法
CN114998744B (zh) 基于运动与视觉双特征融合的农机轨迹田路分割方法及装置
CN108133235A (zh) 一种基于神经网络多尺度特征图的行人检测方法
CN115147418B (zh) 缺陷检测模型的压缩训练方法和装置
Li et al. A review of deep learning methods for pixel-level crack detection
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN115439458A (zh) 基于深度图注意力的工业图像缺陷目标检测算法
CN110533661A (zh) 基于图像特征级联的自适应实时闭环检测方法
CN113239753A (zh) 基于YOLOv4改进的交通标志检测与识别方法
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN112233105A (zh) 一种基于改进fcn的道路裂缝检测方法
CN113378727B (zh) 一种基于特征偏差对齐的遥感影像二值变化检测方法
CN113723558A (zh) 基于注意力机制的遥感图像小样本舰船检测方法
CN116704490B (zh) 车牌识别方法、装置和计算机设备
CN111832497B (zh) 一种基于几何特征的文本检测后处理方法
CN111339950B (zh) 一种遥感图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant