CN108985186A - 一种基于改进YOLOv2的无人驾驶中行人检测方法 - Google Patents
一种基于改进YOLOv2的无人驾驶中行人检测方法 Download PDFInfo
- Publication number
- CN108985186A CN108985186A CN201810675999.8A CN201810675999A CN108985186A CN 108985186 A CN108985186 A CN 108985186A CN 201810675999 A CN201810675999 A CN 201810675999A CN 108985186 A CN108985186 A CN 108985186A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- yolov2
- frame
- network
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 84
- 230000006872 improvement Effects 0.000 title description 6
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000001629 suppression Effects 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 26
- 238000012216 screening Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 description 34
- 238000012360 testing method Methods 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007630 basic procedure Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进YOLOv2的无人驾驶中行人检测方法。首先通过KITTI数据集训练YOLOv2网络,得到训练模型。然后,通过车载摄像头捕捉视频,将视频中的每一帧作为YOLOv2网络的输入,并将训练模型导入YOLOv2网络。接着运行网络,初步得到检测出的行人的位置信息和概率。最后对部分不可能包含行人目标区域建议框进行筛除之后,再利用非极大值抑制得到最终行人检测框。本发明能有效的应用于无人驾驶中行人检测。
Description
技术领域
本发明涉及行人检测技术领域,尤其涉及一种基于改进YOLOv2的无人驾驶中行人检测方法。
背景技术
无人驾驶中的行人检测算法不仅要判断摄像头所捕获图像中是否存在行人,同时要对行人目标进行精准定位。从特征学习的角度,可以将行人检测分为基于浅层机器学习的检测算法与基于深度学习的检测算法[5]。基于浅层机器学习的行人检测技术主要通过分析行人动、静态特性,手动设计特征描述该特性,结合相应的图像处理与模式识别算法,达到识别与定位行人的目的。而基于深度学习的行人检测技术主要通过构建多层神经网络,依据一定的训练策略,通过大数据反复迭代训练、学习的方式实现行人检测。
基于浅层机器学习的行人检测又可以细分为基于全局特征、基于人体部件以及基于运动特征3类检测方法。其中基于运动特征的行人检测方法需要首先获取视频序列,再进行运动特征分析,导致该类方法必然存在检测延时的问题,无法满足无人驾驶的实时性要求。
基于全局特征的行人检测方法优选合适的特征描述子,表达行人的外貌、轮廓、纹理等全局静态特性,通过训练分类器的方式实现行人检测。常用的特征描述子包括的Harr小波特征、HOG特征、Edgelet特征以及Shapelet特征等。其中HOG特征对行人的描述相对较为全面,能够很好地区分背景与行人,对于姿态的变化也有较强的鲁棒性,是行人检测领域最为广泛使用的特征。而单一的特征往往难以满足检测精度的要求,因此研究人员通常采用多特征融合的方式,来实现对行人更为详尽的描述,这也是行人检测技术发展的方向之一。
基于全局特征的行人检测方法通常难以应对实际场景中行人部分遮挡的问题,而基于人体部件的检测方法在一定程度上可以克服遮挡问题。研究人员按照不同的标准将行人划分为不同的部件单元,分别进行检测,如有的将人体划分为头肩部、腿部、左手臂和右手臂4个部件单元。也有人考虑了角度因素将人体细分为更多的部件单元,提出了DPM算法,该算法结合HOG特征,融合了行人不同位置的几何关系,其对应改进算法连续多年获得VOC检测任务的冠军。该类方法通过目标特征的分解,允许部件单元几何关系的弹性连接,使得漏检率大大降低,但该类方法存在着训练样本标定复杂、处理行人多姿态问题。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于改进YOLOv2的无人驾驶中行人检测方法。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种基于改进YOLOv2的无人驾驶中行人检测方法,该方法包括以下步骤:
S1、获取用于行人检测的KITTI数据集,采用YOLOv2网络对数据集进行训练,将YOLOv2网络的输出设置为行人和非行人两类,对KITTI数据集的行人标定框长和宽进行kmeans聚类,并将聚类测度设置为IOU测度;训练时,通过对数据集进行扩充,并采用OHEM方法从含有大量非行人的候选样本的数据集中选择行人样本进行训练,得到训练模型;
S2、通过车载摄像头获取捕捉视频,从视频中提取每一帧的待检测图像作为改进的YOLOv2网络的输入,并将训练模型导入改进的YOLOv2网络,初步检测出的行人的位置信息和概率,得到包含行人初步检测结果的建议框;最后对其中的行人目标区域的建议框进行筛除,利用非极大值抑制得到最终行人检测框。
进一步地,本发明的步骤S1中进行数据集扩充的方法为:对KITTI数据集中的图片,通过翻转图片将数据集扩充一倍。
进一步地,本发明的步骤S1中通过KITTI数据集对YOLOv2网络结构进行训练的方法具体为:
S11、针对行人检测改进原始YOLOv2网络结构:对原始的YOLOv2网络,将其多类输出修改为行人和非行人两类输出,网络每个候选框同时对应两类输出;
S12、对行人标定框的长和宽进行聚类分析:对KITTI数据集的行人标定框长和宽进行kmeans聚类,并将聚类结果作为先验;将聚类测度设置为IOU测度,IOU测度为聚类中心与各个标定框的重叠区域占聚类中心和标定框所占区域之和的比值,并根据平均IOU选择设定数量的聚类中心作为初始候选框;
S13、通过数据扩充和OHEM策略训练修改后的YOLOv2网络:在训练时,通过翻转图片将数据集扩充一倍以增加样本数量,并且在原始YOLOv2网络的基础上采用OHEM方法,对非行人的候选样本,按改进的YOLOv2网络中间层输出的样本属于背景的概率大小排序,从中选取行人样本进行训练,得到训练模型。
进一步地,本发明的步骤S2中对车载摄像头捕捉视频用改进的YOLOv2网络进行行人检测的方法具体为:
S21、通过改进的YOLOv2初步检测行人:首先通过车载摄像头捕捉视频,将视频中的每一帧作为YOLOv2网络的输入,并将训练模型导入YOLOv2网络并运行网络,初步检测出的行人的位置信息和概率;
S22、对部分不可能包含行人的目标区域建议框进行筛除:根据行人目标的特殊性,依据区域建议框的长宽比α和区域面积s进行筛选;对标定框长宽比和区域面积使用kmeans算法进行聚类,再根据选取的聚类中心对检测出的候选框进行筛选;
S23、非极大值抑制得到最终行人检测框:对于步骤S22中筛选过后的行人检测框进行非极大值抑制,目标检测中的非极大值抑制从候选建议框中优选出最终位置框。
进一步地,本发明的步骤S23中进行非极大值抑制的方法具体为:
(1)对所有筛选之后的候选建议框,依据对应的置信度得分进行排序,选取得分最高的候选建议框;
(2)遍历剩余的建议框,若和所选取得分最高的候选建议框的重叠率大于设定阈值,则删除对应建议框;
(3)从剩余未处理的建议框中重新选取得分最高的建议框,重复步骤(2),直至所有建议框均被处理完成,输出最终得到的行人检测框。
本发明产生的有益效果是:本发明的基于改进YOLOv2的无人驾驶中行人检测方法,(1)大量基于深度学习的行人检测方法即使在GPU加速的条件下,速度依然较慢。本发明优选YOLOv2框架为基础来检测行人,保证了检测速度。(2)针对直接使用YOLOv2的精度较低的问题,本发明对YOLOv2的结构进行了调整,并通过初始候选框的选择、OHEM方法这些训练策略,和通过标定框先验的筛选策略的提高了算法的精度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为基于改进YOLOv2的行人检测的基本流程图;
图2为KITTI数据集中部分行人样本图片;
图3为标定框长宽分布散点图;
图4为标定框长宽分布密度图;
图5为KITTI数据集训练样本聚类结果;
图6为改进YOLOv2在KITTI数据集上的测试样例;
图7为YOLOv2和本文改进算法对于行人目标的PR曲线。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的基本流程如图1所示,首先通过KITTI数据集训练YOLOv2网络,得到训练模型。然后,通过车载摄像头捕捉视频,将视频中的每一帧作为YOLOv2网络的输入,并将训练模型导入YOLOv2网络。接着运行网络,初步得到检测出的行人的位置信息和概率。最后对部分不可能包含行人目标区域建议框进行筛除之后,再利用非极大值抑制得到最终行人检测框。本发明能有效的应用于无人驾驶中行人检测。其具体步骤如下。
步骤S1对KITTI数据集用YOLOv2网络训练
为研究行人检测算法,首先要采集视频,制作行人检测数据集。研究之初,国内外学者自行采集数据进行算法设计与分析,其算法评价标准也千差万别,难以形成有权威性的研究成果。目前已有部分公共数据集,通过在相同数据集上的测试,可以公平合理地进行不同算法性能的对比分析。
常用的行人检测数据集既有针对单纯行人检测任务制作的数据集,也有针对多目标检测任务制作的数据集。5种具有代表性的公共目标检测数据集描述及其优缺点如表1所示。
表1各种目标检测数据集对比结果
本发明算法以卷积神经网络为基础,需要分别进行训练、验证和测试过程,相应地也要对数据集划分出训练集、验证集以及测试集,因此准确的样本标注显得尤为重要。KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大、认可度最高的无人驾驶场景下的相关算法评测数据集。从表2中可以看出,该数据集样本标注最为完备,且专用于无人驾驶,故将之选为本发明的实验数据集,部分交通场景下的行人样本图片如图2所示。
KITTI数据集是无人驾驶试验车在实际行驶过程中采集的,包含了大量的远距离微小行人目标,这类目标检测难度较大。因此,KITTI在样本标注过程中将图片进行了分级处理,按照大小、遮挡、截断情况划分为简单、中等和困难3个等级,具体划分标准如表2所示。
表2 KITTI数据集难度等级划分标准
步骤S11针对行人检测修改YOLOv2网络结构
为将YOLOv2网络用于行人检测,首先分析其网络结构。YOLOv2以Darknet-19作为分类网络,在ImageNet数据集上预训练,网络参数如表3所示。而fine-tuning训练网络也以Darknet-19网络为基础进行微调,由于Darknet-19网络删除了全连接层,使得输入图像无需要固定输入尺度,从而保证了多尺度训练。
表3 Darknet-19网络结构及其对应参数
分析表3,可以发现其最后一个卷积层的输出与ImageNet中所需分类的数量是相同的,均为1000个。而本发明为了使其适合用于行人检测,直接从倒数第二个卷积层通过核为3*3卷积层分别输出对每个类检测出的概率和位置信息。其中输出的卷积核个数分别为2(类别数)*5(初始候选框的个数)、4(在图像中的位置信息)*5(初始候选框的个数)。
步骤S12对行人标定框的长和宽进行聚类分析
对标定框的长和宽进行聚类,为此,本发明先分析其长和宽的概率分布,如图3和图4所示。图3为其长宽分布的散点图。图4是根据散点图生成的密度图。图中的颜色越深,标定框密度越大。
接下来,对标定框的长和宽进行聚类分析。这里选择的聚类算法为K均值聚类算法,而与传统的K均值聚类算法不同,本发明的聚类测度选为IOU聚类测度。其距离计算公式为:
D(box,centroid)=1-IOU(box,centroid) (1)
其中box为标定框,centroid为此时的聚类中心。IOU的计算公式为:
式中,∩和∪分别表示两个区域的交集和并集,|*|为该区域像素数,聚类中心为rt和标定框为ra。此时认为聚类中心代表的框与标定框的中心在同一点。
根据以上原理,并综合计算效率和性能因素考虑,选择的候选框的个数为5个。聚类结果为:
[[123.60377358,216.53584906],[69.83248082,164.0370844],[15.06982872,41.88274045],[26.13131313,69.85555556],[42.56361323,108.45038168]]。
步骤S13通过数据扩充和OHEM策略训练修改后的YOLOv2网络
通过所述步骤S11和S12修改YOLOv2网络的结构后,就可以开始对KITTI数据集训练修改后的网络了。但为了提升算法性能,本发明还采用的数据扩充和OHEM策略训练网络。本发明采用的数据扩充方式为将图像进行水平翻转处理。通过这种处理,可将KITTI中的训练集扩充1倍。
而采用的OHEM策略的核心为选择最难区分的负样本进行训练。由于本发明所选的负样本为非行人,在图像中会出现大量的负样本。而由于我们在训练时只会选择部分负样本,因而选择最难分类的负样本进行训练有利于提升训练性能。
步骤S2对车载摄像头捕捉视频用改进的YOLOv2网络检测行人
本发明选用KITTI数据集来评判算法。KITTI采用精度AP和测试帧率FPS作为算法的评价指标,其中AP的计算需要统计正确检测行人目标的样本数,判断是否正确检测标准主要依据最终预测框和标定框的IOU,其计算公式与式(2)提到的相同。KITTI数据集要求预测框和标定框之间的IOU大于50%才认为行人被正确检测。
步骤S21通过改进的YOLOv2初步检测行人技术
本发明行人检测算法采用Darknet作为开发框架。该框架是由Ross Girshick等用C++编写的小型深度学习框架,功能精简,适合以YOLO为基础的算法开发,因此可快速部署本文检测算法网络结构,方便测试分析。此外,Darknet是专用于图像领域的深度学习框架,依赖OpenCV实现相关图像处理算法。OpenCV是由Intel公司主导开发的跨平台开源计算机视觉库,提供了大量底层图像处理函数,在实现本发明检测算法时,可直接调用。
测试时,加载步骤S1得到的训练模型到修改后的网络中。使用KITTI中通过摄像头采集到的图像作为网络的输入,并运行网络,可以初步得到检测出的行人的位置信息和其属于行人这一类的概率。
步骤S22对部分不可能包含行人目标区域建议框进行筛除
为合理筛选行人目标区域建议框,先选取KITTI数据集中的400组样本进行K-means聚类。首先按照标注的位置坐标计算得到特征向量(α,s),实验过程中忽略了部分数量较少的样本目标,如自行车、卡车等,最终选择K=2,最终样本的聚类结果如图5所示。
从图5中可知,行人样本分布比较集中,而车辆样本较为分散,且可以直观地看到长宽比是聚类的主要特征,面积主要起到限制作用。由于KITTI数据集包含大量远距离小样本,因此车和行人的面积下限值均较低。最终本发明将行人候选建议框筛选的范围设置为α∈[0.3,0.9],s∈[0,3000]。
利用上述得到的行人候选建议框筛选的范围,筛选步骤S21中初步检测到的行人。
步骤S23非极大值抑制得到最终行人检测框
对于步骤S22中筛选过后的行人检测框进行非极大值抑制。目标检测中的非极大值抑制从候选建议框中优选出最终位置框,其过程是一个不断迭代、抑制的过程,具体如下:
(1)对所有筛选之后的候选建议框,依据对应的置信度得分进行排序,选取得分最高的候选建议框;
(2)遍历剩余的建议框,若和所选取得分最高的候选建议框的重叠率大于设定阈值,则删除对应建议框;
(3)从剩余未处理的建议框中重新选取得分最高的建议框,重复步骤(2),直至所有建议框均被处理完成。
本文改进算法在KITTI数据集上的测试结果示例如图6所示。
从图6可以看出,本文算法同时框定多个行人目标,并依据Softmax分类结果给出了目标属于行人的概率。对KITTI数据集上所有样本进行测试,本文改进YOLOv2算法和原始算法的精度AP和速度FPS对比结果及其对应PR曲线分别如表4和图7所示。
表4 KITTI数据集精度和速度测试结果对比
从表4和图7中法可以看出,本发明改进算法和YOLOv2算法行人检测精度均随着难度等级的增加逐步降低,对应PR曲线线下面积也逐步减少。但本发明改进算法各项精度均优于YOLOv2算法,随着难度等级的增加,AP提升依次为9.03%、6.37%和5.91%,对于检测困难的小目标提升最低。这是由于本发明改进网络和YOLOv2由于在预测过程中对于每个锚点采用5个固定尺度的预测框进行预测,其尺度范围的局限性决定了算法对于小目标的检测精度不高,但实时确实满足要求。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (5)
1.一种基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,该方法包括以下步骤:
S1、获取用于行人检测的KITTI数据集,采用YOLOv2网络对数据集进行训练,将YOLOv2网络的输出设置为行人和非行人两类,对KITTI数据集的行人标定框长和宽进行kmeans聚类,并将聚类测度设置为IOU测度;训练时,通过对数据集进行扩充,并采用OHEM方法从含有大量非行人的候选样本的数据集中选择行人样本进行训练,得到训练模型;
S2、通过车载摄像头获取捕捉视频,从视频中提取每一帧的待检测图像作为改进的YOLOv2网络的输入,并将训练模型导入改进的YOLOv2网络,初步检测出的行人的位置信息和概率,得到包含行人初步检测结果的建议框;最后对其中的行人目标区域的建议框进行筛除,利用非极大值抑制得到最终行人检测框。
2.根据权利要求2所述的基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,步骤S1中进行数据集扩充的方法为:对KITTI数据集中的图片,通过翻转图片将数据集扩充一倍。
3.根据权利要求1所述的基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,步骤S1中通过KITTI数据集对YOLOv2网络结构进行训练的方法具体为:
S11、针对行人检测改进原始YOLOv2网络结构:对原始的YOLOv2网络,将其多类输出修改为行人和非行人两类输出,网络每个候选框同时对应两类输出;
S12、对行人标定框的长和宽进行聚类分析:对KITTI数据集的行人标定框长和宽进行kmeans聚类,并将聚类结果作为先验;将聚类测度设置为IOU测度,IOU测度为聚类中心与各个标定框的重叠区域占聚类中心和标定框所占区域之和的比值,并根据平均IOU选择设定数量的聚类中心作为初始候选框;
S13、通过数据扩充和OHEM策略训练修改后的YOLOv2网络:在训练时,通过翻转图片将数据集扩充一倍以增加样本数量,并且在原始YOLOv2网络的基础上采用OHEM方法,对非行人的候选样本,按改进的YOLOv2网络中间层输出的样本属于背景的概率大小排序,从中选取行人样本进行训练,得到训练模型。
4.根据权利要求1所述的基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,步骤S2中对车载摄像头捕捉视频用改进的YOLOv2网络进行行人检测的方法具体为:
S21、通过改进的YOLOv2初步检测行人:首先通过车载摄像头捕捉视频,将视频中的每一帧作为YOLOv2网络的输入,并将训练模型导入YOLOv2网络并运行网络,初步检测出的行人的位置信息和概率;
S22、对部分不可能包含行人的目标区域建议框进行筛除:根据行人目标的特殊性,依据区域建议框的长宽比α和区域面积s进行筛选;对标定框长宽比和区域面积使用kmeans算法进行聚类,再根据选取的聚类中心对检测出的候选框进行筛选;
S23、非极大值抑制得到最终行人检测框:对于步骤S22中筛选过后的行人检测框进行非极大值抑制,目标检测中的非极大值抑制从候选建议框中优选出最终位置框。
5.根据权利要求4所述的基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,步骤S23中进行非极大值抑制的方法具体为:
(1)对所有筛选之后的候选建议框,依据对应的置信度得分进行排序,选取得分最高的候选建议框;
(2)遍历剩余的建议框,若和所选取得分最高的候选建议框的重叠率大于设定阈值,则删除对应建议框;
(3)从剩余未处理的建议框中重新选取得分最高的建议框,重复步骤(2),直至所有建议框均被处理完成,输出最终得到的行人检测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810675999.8A CN108985186B (zh) | 2018-06-27 | 2018-06-27 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810675999.8A CN108985186B (zh) | 2018-06-27 | 2018-06-27 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108985186A true CN108985186A (zh) | 2018-12-11 |
CN108985186B CN108985186B (zh) | 2022-03-01 |
Family
ID=64539055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810675999.8A Expired - Fee Related CN108985186B (zh) | 2018-06-27 | 2018-06-27 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108985186B (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740454A (zh) * | 2018-12-19 | 2019-05-10 | 贵州大学 | 一种基于yolo-v3的人体体态识别方法 |
CN109829428A (zh) * | 2019-01-31 | 2019-05-31 | 兰州交通大学 | 基于改进YOLOv2的视频图像行人检测方法及系统 |
CN109882019A (zh) * | 2019-01-17 | 2019-06-14 | 同济大学 | 一种基于目标检测和动作识别的汽车电动尾门开启方法 |
CN109934121A (zh) * | 2019-02-21 | 2019-06-25 | 江苏大学 | 一种基于YOLOv3算法的果园行人检测方法 |
CN109977819A (zh) * | 2019-03-14 | 2019-07-05 | 长沙理工大学 | 一种应用模板匹配方法的弱监督单个动作定位方法 |
CN110058264A (zh) * | 2019-04-22 | 2019-07-26 | 福州大学 | 一种基于深度学习的实时检测及识别障碍物的方法 |
CN110070505A (zh) * | 2019-04-12 | 2019-07-30 | 北京迈格威科技有限公司 | 增强图像分类模型噪声鲁棒性的方法和装置 |
CN110276754A (zh) * | 2019-06-21 | 2019-09-24 | 厦门大学 | 一种表面缺陷检测方法、终端设备及存储介质 |
CN110287763A (zh) * | 2019-04-11 | 2019-09-27 | 杭州电子科技大学 | 一种面向舰船目标识别应用的候选框比例优化方法 |
CN110472572A (zh) * | 2019-08-14 | 2019-11-19 | 西北工业大学 | 一种复杂环境下海上目标的快速识别和分类方法 |
CN110781806A (zh) * | 2019-10-23 | 2020-02-11 | 浙江工业大学 | 一种基于yolo的行人检测追踪方法 |
CN110909591A (zh) * | 2019-09-29 | 2020-03-24 | 浙江大学 | 用编码向量的行人图像检测自适应非极大值抑制处理方法 |
CN110991337A (zh) * | 2019-12-02 | 2020-04-10 | 山东浪潮人工智能研究院有限公司 | 一种基于自适应双路检测网络的车辆检测方法 |
CN111008566A (zh) * | 2019-11-06 | 2020-04-14 | 湖北工业大学 | 一种基于深度学习的针对校车学生下车遗漏检测装置及方法 |
CN111160103A (zh) * | 2019-11-29 | 2020-05-15 | 中科曙光(南京)计算技术有限公司 | 无人驾驶中行人检测方法、装置 |
CN111462067A (zh) * | 2020-03-30 | 2020-07-28 | 北京推想科技有限公司 | 图像分割方法及装置 |
CN111476817A (zh) * | 2020-02-27 | 2020-07-31 | 浙江工业大学 | 一种基于yolov3的多目标行人检测跟踪方法 |
CN111598078A (zh) * | 2019-02-20 | 2020-08-28 | 北京奇虎科技有限公司 | 一种基于序列优化的物体检测的方法及系统 |
CN111680689A (zh) * | 2020-08-11 | 2020-09-18 | 武汉精立电子技术有限公司 | 一种基于深度学习的目标检测方法、系统及存储介质 |
CN111767937A (zh) * | 2019-11-13 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | 目标检测模型训练方法、装置、电子设备及存储介质 |
CN112215128A (zh) * | 2020-10-09 | 2021-01-12 | 武汉理工大学 | 融合fcos的r-cnn城市道路环境识别方法及装置 |
CN113011389A (zh) * | 2021-04-23 | 2021-06-22 | 电子科技大学 | 一种基于聚类思想的道路行人小目标检测方法 |
CN113392754A (zh) * | 2021-06-11 | 2021-09-14 | 成都掌中全景信息技术有限公司 | 一种基于yolov5行人检测算法减少行人误检测率的方法 |
CN113706490A (zh) * | 2021-08-19 | 2021-11-26 | 中科苏州智能计算技术研究院 | 一种晶片缺陷检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015078130A1 (zh) * | 2013-11-29 | 2015-06-04 | 华为技术有限公司 | 目标检测方法及装置 |
CN107128492A (zh) * | 2017-05-05 | 2017-09-05 | 成都通甲优博科技有限责任公司 | 一种基于人头检测的无人机跟踪方法、装置及无人机 |
CN107153822A (zh) * | 2017-05-19 | 2017-09-12 | 北京航空航天大学 | 一种基于深度学习的半自动图像精标注方法 |
CN108133188A (zh) * | 2017-12-22 | 2018-06-08 | 武汉理工大学 | 一种基于运动历史图像与卷积神经网络的行为识别方法 |
-
2018
- 2018-06-27 CN CN201810675999.8A patent/CN108985186B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015078130A1 (zh) * | 2013-11-29 | 2015-06-04 | 华为技术有限公司 | 目标检测方法及装置 |
CN107128492A (zh) * | 2017-05-05 | 2017-09-05 | 成都通甲优博科技有限责任公司 | 一种基于人头检测的无人机跟踪方法、装置及无人机 |
CN107153822A (zh) * | 2017-05-19 | 2017-09-12 | 北京航空航天大学 | 一种基于深度学习的半自动图像精标注方法 |
CN108133188A (zh) * | 2017-12-22 | 2018-06-08 | 武汉理工大学 | 一种基于运动历史图像与卷积神经网络的行为识别方法 |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740454A (zh) * | 2018-12-19 | 2019-05-10 | 贵州大学 | 一种基于yolo-v3的人体体态识别方法 |
CN109882019B (zh) * | 2019-01-17 | 2021-03-26 | 同济大学 | 一种基于目标检测和动作识别的汽车电动尾门开启方法 |
CN109882019A (zh) * | 2019-01-17 | 2019-06-14 | 同济大学 | 一种基于目标检测和动作识别的汽车电动尾门开启方法 |
CN109829428A (zh) * | 2019-01-31 | 2019-05-31 | 兰州交通大学 | 基于改进YOLOv2的视频图像行人检测方法及系统 |
CN111598078A (zh) * | 2019-02-20 | 2020-08-28 | 北京奇虎科技有限公司 | 一种基于序列优化的物体检测的方法及系统 |
CN109934121A (zh) * | 2019-02-21 | 2019-06-25 | 江苏大学 | 一种基于YOLOv3算法的果园行人检测方法 |
CN109977819A (zh) * | 2019-03-14 | 2019-07-05 | 长沙理工大学 | 一种应用模板匹配方法的弱监督单个动作定位方法 |
CN109977819B (zh) * | 2019-03-14 | 2020-04-24 | 长沙理工大学 | 一种应用模板匹配方法的弱监督单个动作定位方法 |
CN110287763A (zh) * | 2019-04-11 | 2019-09-27 | 杭州电子科技大学 | 一种面向舰船目标识别应用的候选框比例优化方法 |
CN110070505A (zh) * | 2019-04-12 | 2019-07-30 | 北京迈格威科技有限公司 | 增强图像分类模型噪声鲁棒性的方法和装置 |
CN110058264A (zh) * | 2019-04-22 | 2019-07-26 | 福州大学 | 一种基于深度学习的实时检测及识别障碍物的方法 |
CN110276754A (zh) * | 2019-06-21 | 2019-09-24 | 厦门大学 | 一种表面缺陷检测方法、终端设备及存储介质 |
CN110472572A (zh) * | 2019-08-14 | 2019-11-19 | 西北工业大学 | 一种复杂环境下海上目标的快速识别和分类方法 |
CN110909591A (zh) * | 2019-09-29 | 2020-03-24 | 浙江大学 | 用编码向量的行人图像检测自适应非极大值抑制处理方法 |
CN110909591B (zh) * | 2019-09-29 | 2022-06-10 | 浙江大学 | 用编码向量的行人图像检测自适应非极大值抑制处理方法 |
CN110781806A (zh) * | 2019-10-23 | 2020-02-11 | 浙江工业大学 | 一种基于yolo的行人检测追踪方法 |
CN111008566A (zh) * | 2019-11-06 | 2020-04-14 | 湖北工业大学 | 一种基于深度学习的针对校车学生下车遗漏检测装置及方法 |
CN111767937A (zh) * | 2019-11-13 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | 目标检测模型训练方法、装置、电子设备及存储介质 |
CN111160103A (zh) * | 2019-11-29 | 2020-05-15 | 中科曙光(南京)计算技术有限公司 | 无人驾驶中行人检测方法、装置 |
CN111160103B (zh) * | 2019-11-29 | 2024-04-23 | 中科曙光(南京)计算技术有限公司 | 无人驾驶中行人检测方法、装置 |
CN110991337B (zh) * | 2019-12-02 | 2023-08-25 | 山东浪潮科学研究院有限公司 | 一种基于自适应双路检测网络的车辆检测方法 |
CN110991337A (zh) * | 2019-12-02 | 2020-04-10 | 山东浪潮人工智能研究院有限公司 | 一种基于自适应双路检测网络的车辆检测方法 |
CN111476817A (zh) * | 2020-02-27 | 2020-07-31 | 浙江工业大学 | 一种基于yolov3的多目标行人检测跟踪方法 |
CN111462067A (zh) * | 2020-03-30 | 2020-07-28 | 北京推想科技有限公司 | 图像分割方法及装置 |
CN111680689B (zh) * | 2020-08-11 | 2021-03-23 | 武汉精立电子技术有限公司 | 一种基于深度学习的目标检测方法、系统及存储介质 |
CN111680689A (zh) * | 2020-08-11 | 2020-09-18 | 武汉精立电子技术有限公司 | 一种基于深度学习的目标检测方法、系统及存储介质 |
CN112215128A (zh) * | 2020-10-09 | 2021-01-12 | 武汉理工大学 | 融合fcos的r-cnn城市道路环境识别方法及装置 |
CN112215128B (zh) * | 2020-10-09 | 2024-04-05 | 武汉理工大学 | 融合fcos的r-cnn城市道路环境识别方法及装置 |
CN113011389A (zh) * | 2021-04-23 | 2021-06-22 | 电子科技大学 | 一种基于聚类思想的道路行人小目标检测方法 |
CN113011389B (zh) * | 2021-04-23 | 2022-07-26 | 电子科技大学 | 一种基于聚类思想的道路行人小目标检测方法 |
CN113392754A (zh) * | 2021-06-11 | 2021-09-14 | 成都掌中全景信息技术有限公司 | 一种基于yolov5行人检测算法减少行人误检测率的方法 |
CN113392754B (zh) * | 2021-06-11 | 2022-06-28 | 成都掌中全景信息技术有限公司 | 一种基于yolov5行人检测算法减少行人误检测率的方法 |
CN113706490A (zh) * | 2021-08-19 | 2021-11-26 | 中科苏州智能计算技术研究院 | 一种晶片缺陷检测方法 |
CN113706490B (zh) * | 2021-08-19 | 2024-01-12 | 中科苏州智能计算技术研究院 | 一种晶片缺陷检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108985186B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108985186A (zh) | 一种基于改进YOLOv2的无人驾驶中行人检测方法 | |
CN108564030A (zh) | 面向车载热成像行人检测的分类器训练方法和装置 | |
WO2019114036A1 (zh) | 人脸检测方法及装置、计算机装置和计算机可读存储介质 | |
CN109636795B (zh) | 实时无跟踪的监控视频遗留物检测方法 | |
CN100361138C (zh) | 视频序列中人脸的实时检测与持续跟踪的方法及系统 | |
WO2017190574A1 (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
WO2021228088A1 (zh) | 一种雾霾图像的雾浓度识别方法 | |
CN102708361B (zh) | 远距离人脸采集方法 | |
CN108549864A (zh) | 面向车载热成像行人检测的感兴趣区域过滤方法和装置 | |
CN101916383B (zh) | 基于多摄像机的车辆检测跟踪识别系统 | |
Li et al. | Research on vehicle license plate location based on neural networks | |
CN107122777A (zh) | 一种基于视频文件的车辆分析系统及分析方法 | |
CN106022243B (zh) | 一种基于图像处理的机动车道车辆逆行识别方法 | |
CN106934386B (zh) | 一种基于自启发式策略的自然场景文字检测方法及系统 | |
CN109101924A (zh) | 一种基于机器学习的路面交通标志识别方法 | |
GB2532948A (en) | Objection recognition in a 3D scene | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN109726717A (zh) | 一种车辆综合信息检测系统 | |
CN105046218B (zh) | 一种基于串并行处理的多特征交通视频烟雾检测方法 | |
CN110119726A (zh) | 一种基于YOLOv3模型的车辆品牌多角度识别方法 | |
CN104050684B (zh) | 一种基于在线训练的视频运动目标分类方法与系统 | |
CN106778633B (zh) | 一种基于区域分割的行人识别方法 | |
CN106570490A (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN106529461A (zh) | 一种基于积分特征通道和svm训练器的车型识别算法 | |
CN108280409A (zh) | 一种基于多特征融合的大空间视频烟雾检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220301 |