CN106446832B - 一种基于视频的实时检测行人的方法 - Google Patents
一种基于视频的实时检测行人的方法 Download PDFInfo
- Publication number
- CN106446832B CN106446832B CN201610852086.XA CN201610852086A CN106446832B CN 106446832 B CN106446832 B CN 106446832B CN 201610852086 A CN201610852086 A CN 201610852086A CN 106446832 B CN106446832 B CN 106446832B
- Authority
- CN
- China
- Prior art keywords
- detection
- frame
- features
- image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/473—Contour-based spatial representations, e.g. vector-coding using gradient analysis
Abstract
本发明提供了一种基于视频的实时检测行人的方法。在检测阶段,利用标定过的双目摄像头采集视频,计算每帧图像的视差图;利用视差图将图像分为背景区域和非背景区域;利用上一帧检测结果来确定当前帧需要检测的候选区域,将同时满足既为非背景区域又为候选区域这两个条件的区域作为需要检测区域,后续过程只检测需要检测区域。能够快速准确检测行人的特征,相比传统的HOG等方法,方法复杂度更低、速度更快,能够满足实时准确检测要求。
Description
技术领域
本发明涉及一种实时检测行人的方法,特别是涉及一种适用于基于视频的实时检测行人的方法。
背景技术
行人检测就是检测视频或图片中是否包含行人并标出行人的正确位置,它是机器视觉领域的一个重要分支,在安防监控、人工智能、智能交通等领域都有着重要的应用。作为一项有着巨大应用前景的技术,目前已经有大量针对行人进行检测的方法,但由于现实中行人所在的背景复杂、行人衣着外表和姿势的巨大差异,以及遮挡等因素,复杂场景下高鲁棒性行人检测仍然面临巨大挑战。行人检测的另一个难题在于如何在保证检测结果准确的情况下,快速甚至实时地进行检测。在很多领域,如自动驾驶、监控等领域,不仅要求检测结果准确,而且要求能够实时地进行检测。
现有行人检测的方法非常多,但主要使用两种图像特征:运动信息和形状。前一种方法需要背景提取和图像分割等预处理技术,而基于形状特征的检测方法不需要使用预处理算法,该种方法根据特征的提取方法划分为全局特征法和局部特征法。全局特征和局部特征的区别在于全局特征从整个图像上来提取特征,而局部特征是从图像的局部区域来提取特征。全局特征的经典例子便是独立主成分法(PCA),它的缺点在于对物体的外表、姿势和光照敏感,而局部特征由于从图像的局部提取特征,对物体的外表、姿势和光照并不敏感。典型的局部特征有小波系数、梯度方向和局部协方差等。局部特征又可以进一步分为整体检测和部位检测,部位检测的检测结果是通过另外一个分类器将部位的检测结果组合成最终的行人检测结果。使用部位检测方法的优点是它能很好的应对由于行人肢体移动导致行人外表变化带来的问题,缺点是它令整个检测过程变得更加复杂。基于统计学习的方法是目前行人检测最常用且有效的方法,该方法通过大量训练样本构建行人检测分类器。提取的特征一般有目标的灰度、边缘、纹理、形状和梯度直方图等信息,分类器包括神经网络、SVM和Adaboost等。该方法存在以下难点:行人的姿态、服饰各不相同、提取的特征在特征空间中的分布不够紧凑、分类器的性能受训练样本的影响较大、离线训练时的负样本无法涵盖所有真实应用场景的情况。
传统的方法主要通过计算HOG特征来检测行人,但由于HOG的计算涉及三维线性插值等算法,计算复杂度较高,难以达到实时性要求。而最新的深度学习方法尽管可以达到很高的准确率,但由于模型复杂、依赖并行运算等原因,对硬件性能有极高的要求,无法在实际场合中使用。另外,在进行行人检测时,往往采用滑动窗口法,该方法由于需要检测大量的窗口,非常耗时。
发明内容
本发明要解决的技术问题是提供一种快速有效,特征简单鲁棒,能很好地满足不同场景下的实时性要求的基于视频的实时检测行人的方法。
本发明采用的技术方案如下:一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;其特征在于:在检测阶段,利用标定过的双目摄像头采集视频,计算每帧图像的视差图;利用视差图将图像分为背景区域和非背景区域;利用上一帧检测结果来确定当前帧需要检测的候选区域,将同时满足既为非背景区域又为候选区域这两个条件的区域作为需要检测区域,后续过程只检测需要检测区域。
在需要检测区域用提前训练好的分类器系数来进行判定是否为行人。
所述方法还包括,在检测阶段,为了避免特征的重复计算,一开始先计算出图像中需要检测区域每个4x4窗口里的特征值,当窗口滑动到特定位置时,只需提取并组和对应窗口里的特征,而不需要再次计算,这样成功地避免了窗口滑动过程中对交叠区域特征的重复计算,在不牺牲检测准确率情况下提升了检测的速度。
所述方法还包括,提前判断负样本减少检测时间,具体方法为:提取每一帧图像需要检测区域的组合特征,及利用Adaboost的级联特性提前判断负样本减少检测时间;所述组合特征由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,从而来达到实时检测的目的。
所述组合特征中所有特征的计算均以一个4×4不重叠且相邻的块为基本单位。
所述方法还包括,为了提升检测结果的鲁棒性,将当前帧检测结果与上一帧检测结果进行对比,对于两帧中相差很小的检测框,将当前帧的检测结果更新为上一帧对应的检测结果,从而减少需要检测的区域。
所述方法还包括,对于已经在前几帧连续出现至少两次的检测框,如果当前帧的检测结果中没有该检测框,并且在当前帧对应该检测框位置周围不存在其它的检测框,则在当前帧检测结果中添加该检测框,这样避免了噪声对检测框位置带来的干扰,提升检测结果的稳定性并降低了漏检率。
所述方法还包括,在训练阶段,采集包含行人和不包含行人的图片作为样本,利用Adaboost分类器来进行训练;为了减少检测阶段特征的计算次数,训练多个不同尺度的分类器,使得检测时只需要用不同尺度的窗口在图像上滑动,而不需要将图像缩放后重新计算特征,这样通过将检测阶段的计算转移到训练阶段大大较少了特征的计算次数,加快了检测速度。
所述方法还包括:训练过程中使用特征为由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征。
所述方法还包括,提取不重叠相邻的4×4窗口里的由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,进行特征点的计算,从而简化特征点的计算。
所述方法还包括,为了减少分类器判定时间,在Adaboost分类器的每个弱分类器处设定一个阈值,每个弱分类器和之前所有的弱分类器的判定结果之和都与该阈值进行比较,小于该阈值则认为是负样本并提前退出,这样通过提前排除部分错误正样本加快了检测速度。
与现有技术相比,本发明的有益效果是:能够快速准确检测行人的特征,并且利用视差图和帧间信息减少了待检测区域;在Adaboost分类器每个弱分类器处设定阈值来减少判定阈值;利用帧间信息提升检测结果的鲁棒性。相比传统的HOG等方法,方法复杂度更低、速度更快,能够满足实时准确检测要求。
进一步地,能够实时有效地检测行人,且能达到一个较精确的检测结果。使用由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征来作为特征;训练多个尺度分类器和提前计算出特征来减少特征的计算来加快检测速度;利用Adaboost的级联特性提前判断负样本减少检测时间。该方法简单有效,复杂度低,能够满足实时准确检测要求。
附图说明
图1为本发明其中一实施例训练阶段的方法流程示意图。
图2为图1所示实施例中检测阶段的方法流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本说明书(包括摘要和附图)中公开的任一特征,除非特别叙述,均可被其他等效或者具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
具体实施例1
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在检测阶段,利用标定过的双目摄像头采集视频,计算每帧图像的视差图;利用视差图将图像分为背景区域和非背景区域;利用上一帧检测结果来确定当前帧需要检测的候选区域,将同时满足既为非背景区域又为候选区域这两个条件的区域作为需要检测区域,后续过程只检测需要检测区域。
在需要检测区域用提前训练好的分类器系数来进行判定是否为行人。
具体实施例2
在具体实施例1的基础上,所述方法还包括,在检测阶段,为了避免特征的重复计算,一开始先计算出图像中需要检测区域每个4x4窗口里的特征值,当窗口滑动到特定位置时,只需提取并组和对应窗口里的特征,而不需要再次计算,这样成功地避免了窗口滑动过程中对交叠区域特征的重复计算,在不牺牲检测准确率情况下提升了检测的速度。
具体实施例3
在具体实施例1或2的基础上,所述方法还包括,提前判断负样本减少检测时间,具体方法为:提取每一帧图像需要检测区域的组合特征,及利用Adaboost的级联特性提前判断负样本减少检测时间;所述组合特征由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,从而来达到实时检测的目的。
具体实施例4
在具体实施例1到3之一的基础上,所述组合特征中所有特征的计算均以一个4×4不重叠且相邻的块为基本单位。
具体实施例5
在具体实施例1到4之一的基础上,所述方法还包括,为了提升检测结果的鲁棒性,将当前帧检测结果与上一帧检测结果进行对比,对于两帧中相差很小的检测框,将当前帧的检测结果更新为上一帧对应的检测结果,从而减少需要检测的区域。
具体实施例6
在具体实施例1到5之一的基础上,所述方法还包括,对于已经在前几帧连续出现至少两次的检测框,如果当前帧的检测结果中没有该检测框,并且在当前帧对应该检测框位置周围不存在其它的检测框,则在当前帧检测结果中添加该检测框,这样避免了噪声对检测框位置带来的干扰,提升检测结果的稳定性并降低了漏检率。
具体实施例7
在具体实施例1到6之一的基础上,所述方法还包括,在训练阶段,采集包含行人和不包含行人的图片作为样本,利用Adaboost分类器来进行训练;为了减少检测阶段特征的计算次数,训练多个不同尺度的分类器,使得检测时只需要用不同尺度的窗口在图像上滑动,而不需要将图像缩放后重新计算特征,这样通过将检测阶段的计算转移到训练阶段大大较少了特征的计算次数,加快了检测速度。
具体实施例8
在具体实施例1到7之一的基础上,所述方法还包括:训练过程中使用特征为由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征。
具体实施例9
在具体实施例1到8之一的基础上,所述方法还包括,提取不重叠相邻的4×4窗口里的由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,进行特征点的计算,从而简化特征点的计算。
具体实施例10
在具体实施例1到9之一的基础上,所述方法还包括,为了减少分类器判定时间,在Adaboost分类器的每个弱分类器处设定一个阈值,每个弱分类器和之前所有的弱分类器的判定结果之和都与该阈值进行比较,小于该阈值则认为是负样本并提前退出,这样通过提前排除部分错误正样本加快了检测速度。
具体实施例11
如图1所示,在训练阶段,分为以下四个步骤:
步骤一:采集包含行人和不包含行人的图片作为样本,利用Adaboost分类器来进行训练。在本具体实施例中,以INRIA行人数据库为例,首先从不包含行人的图片中随机选取5000个尺寸为64×128的负样本,和样本库中的2416个正样本一起作为训练样本。利用128个弱分类器对这些样本进行训练来得到检测参数;训练过程中所使用的特征为由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,所有特征的计算均以一个4×4不重叠且相邻的块为基本单位。一个4×4块内的特征值计算方法如下:
对于6个梯度方向特征,计算公式如下:
其中,θi为量化的梯度方向,其值为i,G(x,y)为梯度幅值,R(x,y)为梯度方向的弧度值,取值范围为0到π,Θ(x,y)为梯度方向的量化值,为对应梯度方向的值。梯度的计算采用[-1 0 1]和[-1 0 1]T算子,分别在YUV三个通道上计算梯度,取梯度幅值最大的为最终的梯度幅值和梯度方向。统计4×4块内所有6个不同方向的值的和,并求均值来得到各个方向相应的特征值,最后串联即得到一个4×4块内6个梯度方向特征Fg。
梯度幅值特征Fm为4×4块中梯度幅值的均值。
YUV颜色通道特征为分别统计4×4块Y通道特征中像素值的均值,以及4×4块中Y分量对应的UV分量的均值,以YUV420格式(每四个Y共用一组UV分量)为例,一个4×4块Y通道特征为块中Y分量值的均值,U通道特征为块中Y共用的4个U分量的均值,V通道特征为块中Y共用的4个V分量的均值。YUV颜色通道的特征Fc为将三个通道上的特征串联起来:
Fc=[Fy Fu Fv] (4)
其中Fy为Y通道特征,Fu为U通道特征,Fv为V通道特征
Canny特征Fn为计算一副图像的Canny边缘,然后统计每个4×4块所有值的和
最终一个4×4块内的特征F为:
F=[Fg Fm Fc Fn] (5)
一个样本的特征为将每个4×4不重叠且相邻的块的特征串联起来。
步骤二:使用步骤一训练得到的检测参数在500个不包含行人的图片中提取难例(难例是错检的窗口,即将不是行人的窗口检测为行人),如果难例个数多于10000,则随机选取10000个,如果不足,则从上一阶段的负样本中随机选取不足的个数,最终所得10000个样本作为负样本和2416个正样本一起作为训练样本,利用512个弱分类器对训练样本进行训练。
步骤三:使用步骤二训练得到的检测参数在1218个不包含行人的图片中提取难例,如果难例个数多于10000,则随机选取10000个,如果不足,则从上一阶段的负样本中随机选取不足的个数,最终所得10000个样本作为负样本和2416个正样本一起作为训练样本,利用2048个弱分类器对训练样本进行训练。
步骤四:将样本的尺寸缩放为72×144、76×152,再通过步骤一、二、三获得针对样本尺寸为72×144和76×152的检测参数。
步骤五:在每个弱分类器处设定一个相同的阈值-1,后续检测过程中只要该弱分类器和之前的弱分类器的判定结果之和小于该阈值,则直接判定为负样本并提前退出,不进行后续弱分类器的判定。
如图2所示,通过训练得到检测参数后,就可进行行人检测。检测过程通过多尺度多窗口来进行检测,检测部分主要分为以下七个步骤:
步骤一:一开始先通过求对应块差值的平方和的块匹配算法来计算图像的视差信息,对计算得到的视差图进行二值化处理,然后用64×128的窗口在二值化后的图上以滑动,行列步进均为16,如果窗口里值为1的像素点所占比例大于1/2,则窗口对应区域为非背景区域,取所有满足上述条件的窗口对应区域的并集即为整个图片的非背景区域。
步骤二:如果当前帧数不是3的倍数时,则利用上一帧检测结果来确定当前帧需要检测的候选区域,候选区域的选择方法为,选取上一帧包括检测框和周围一定范围内的区域来作为检测候选区域。同时满足为非背景区域和候选区域的区域作为需要检测区域,后续过程只检测需要检测区域。如果当前帧数是3的倍数,则非背景区域即为需要检测区域,不利用上一帧信息来计算候选区域
步骤三:计算需要检测区域的特征值,特征的计算方法和训练阶段步骤一的计算方法一致。
步骤四:用尺寸为64×128的窗口在需要检测区域滑动,且行列步进均为8,并利用对应的检测参数来判断窗口中是否包含行人。
步骤五:将窗口尺寸改为72×144、76×152,重复步骤四。
步骤六:将图像以1.33进行上采样和下采样多次,下采样后的图像尺寸必须大于76×152,上采样后的图像根据实际需要进行限定。每次得到采样后的图像后再重复步骤一、二、三、四、五。
步骤七:将得到的判定为行人的窗口进行非极大值抑制后得到初步的检测结果,然后将当前帧检测结果与上一帧检测结果进行对比,对于两帧中相差很小的检测框,将当前帧的检测结果更新为上一帧对应的检测结果;对于已经在前几帧连续出现多次的检测框,如果当前帧的检测结果中没有该检测框并且在当前帧对应该检测框位置周围不存在其它的检测框,则在该帧检测结果中添加该检测框。
具体实施例12
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在检测阶段,为了避免特征的重复计算,一开始先计算出图像中需要检测区域每个4x4窗口里的特征值,当窗口滑动到特定位置时,只需提取并组和对应窗口里的特征,而不需要再次计算,这样成功地避免了窗口滑动过程中对交叠区域特征的重复计算,在不牺牲检测准确率情况下提升了检测的速度。
具体实施例13
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在检测阶段,提前判断负样本减少检测时间,具体方法为:提取每一帧图像需要检测区域的组合特征,及利用Adaboost的级联特性提前判断负样本减少检测时间;所述组合特征由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,从而来达到实时检测的目的。
具体实施例14
在具体实施例13的基础上,所述组合特征中所有特征的计算均以一个4×4不重叠且相邻的块为基本单位。
具体实施例15
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在检测阶段,为了提升检测结果的鲁棒性,将当前帧检测结果与上一帧检测结果进行对比,对于两帧中相差很小的检测框,将当前帧的检测结果更新为上一帧对应的检测结果,从而减少需要检测的区域。
具体实施例16
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在检测阶段,对于已经在前几帧连续出现至少两次的检测框,如果当前帧的检测结果中没有该检测框,并且在当前帧对应该检测框位置周围不存在其它的检测框,则在当前帧检测结果中添加该检测框,这样避免了噪声对检测框位置带来的干扰,提升检测结果的稳定性并降低了漏检率。
具体实施例17
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在训练阶段,采集包含行人和不包含行人的图片作为样本,利用Adaboost分类器来进行训练;为了减少检测阶段特征的计算次数,训练多个不同尺度的分类器,使得检测时只需要用不同尺度的窗口在图像上滑动,而不需要将图像缩放后重新计算特征,这样通过将检测阶段的计算转移到训练阶段大大较少了特征的计算次数,加快了检测速度。
具体实施例18
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在训练阶段,训练过程中使用特征为由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征。
具体实施例19
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在训练阶段,提取不重叠相邻的4×4窗口里的由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,进行特征点的计算,从而简化特征点的计算。
具体实施例20
一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;在训练阶段,为了减少分类器判定时间,在Adaboost分类器的每个弱分类器处设定一个阈值,每个弱分类器和之前所有的弱分类器的判定结果之和都与该阈值进行比较,小于该阈值则认为是负样本并提前退出,这样通过提前排除部分错误正样本加快了检测速度。
Claims (7)
1.一种基于视频的实时检测行人的方法,包括训练阶段和检测阶段;其特征在于:在检测阶段,利用标定过的双目摄像头采集视频,计算每帧图像的视差图;利用视差图将图像分为背景区域和非背景区域;如果当前帧数不是 3 的倍数时,利用上一帧检测结果来确定当前帧需要检测的候选区域,候选区域的选择方法为,选取上一帧包括检测框和周围一定范围内的区域来作为检测候选区域,将同时满足既为非背景区域又为候选区域这两个条件的区域作为需要检测区域,后续过程只检测需要检测区域;如果当前帧数是3的倍数,则非背景区域即为需要检测区域,不利用上一帧信息来计算候选区域;为了避免特征的重复计算,一开始先计算出图像中需要检测区域每个4x4窗口里的特征值,当滑动窗口滑动到特定位置时,只需提取并组合对应滑动窗口里的特征,而不需要再次计算;为了提升检测结果的鲁棒性,将得到的判定为行人的窗口进行非极大值抑制后得到初步的检测结果,然后将当前帧检测结果与上一帧检测结果进行对比,对于两帧中相差很小的检测框,将当前帧的检测结果更新为上一帧对应的检测结果;对于已经在前几帧连续出现至少两次的检测框,如果当前帧的检测结果中没有该检测框,并且在当前帧对应该检测框位置周围不存在其它的检测框,则在当前帧检测结果中添加该检测框。
2.根据权利要求1所述的实时检测行人的方法,所述方法还包括,提前判断负样本减少检测时间,具体方法为:提取每一帧图像需要检测区域的组合特征,及利用Adaboost的级联特性提前判断负样本减少检测时间;所述组合特征由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成。
3.根据权利要求2所述的实时检测行人的方法,所述组合特征中所有特征的计算均以一个4×4不重叠且相邻的块为基本单位。
4.根据权利要求1所述的实时检测行人的方法,所述方法还包括,在训练阶段,采集包含行人和不包含行人的图片作为样本,利用Adaboost分类器来进行训练;训练多个不同尺度的分类器,使得检测时只需要用不同尺度的窗口在图像上滑动,而不需要将图像缩放后重新计算特征。
5.根据权利要求4所述的实时检测行人的方法,所述方法还包括:训练过程中使用特征为由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征。
6.根据权利要求5所述的实时检测行人的方法,所述方法还包括,提取不重叠相邻的4×4窗口里的由YUV颜色通道特征、6个梯度方向特征、Canny特征和梯度幅值特征组成的组合特征,进行特征点的计算。
7.根据权利要求4所述的实时检测行人的方法,所述方法还包括,在Adaboost分类器的每个弱分类器处设定一个阈值,每个弱分类器和之前所有的弱分类器的判定结果之和都与该阈值进行比较,小于该阈值则认为是负样本并提前退出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610852086.XA CN106446832B (zh) | 2016-09-27 | 2016-09-27 | 一种基于视频的实时检测行人的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610852086.XA CN106446832B (zh) | 2016-09-27 | 2016-09-27 | 一种基于视频的实时检测行人的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106446832A CN106446832A (zh) | 2017-02-22 |
CN106446832B true CN106446832B (zh) | 2020-01-10 |
Family
ID=58170195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610852086.XA Active CN106446832B (zh) | 2016-09-27 | 2016-09-27 | 一种基于视频的实时检测行人的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106446832B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363953B (zh) * | 2018-01-12 | 2020-09-29 | 浙江大华技术股份有限公司 | 一种行人检测的方法及双目监控设备 |
US11348245B2 (en) * | 2019-06-21 | 2022-05-31 | Micron Technology, Inc. | Adapted scanning window in image frame of sensor for object detection |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853389A (zh) * | 2009-04-01 | 2010-10-06 | 索尼株式会社 | 多类目标的检测装置及检测方法 |
CN102609682A (zh) * | 2012-01-13 | 2012-07-25 | 北京邮电大学 | 一种针对感兴趣区域的反馈式行人检测方法 |
KR101344034B1 (ko) * | 2013-08-21 | 2013-12-24 | 주식회사 넥스파시스템 | 보행자 인식기반 사고방지 시스템 및 그 제어 방법 |
CN104573646A (zh) * | 2014-12-29 | 2015-04-29 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
CN105550675A (zh) * | 2016-02-02 | 2016-05-04 | 天津大学 | 一种基于优化聚合积分通道的双目行人检测方法 |
-
2016
- 2016-09-27 CN CN201610852086.XA patent/CN106446832B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853389A (zh) * | 2009-04-01 | 2010-10-06 | 索尼株式会社 | 多类目标的检测装置及检测方法 |
CN102609682A (zh) * | 2012-01-13 | 2012-07-25 | 北京邮电大学 | 一种针对感兴趣区域的反馈式行人检测方法 |
KR101344034B1 (ko) * | 2013-08-21 | 2013-12-24 | 주식회사 넥스파시스템 | 보행자 인식기반 사고방지 시스템 및 그 제어 방법 |
CN104573646A (zh) * | 2014-12-29 | 2015-04-29 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
CN105550675A (zh) * | 2016-02-02 | 2016-05-04 | 天津大学 | 一种基于优化聚合积分通道的双目行人检测方法 |
Non-Patent Citations (2)
Title |
---|
A pedestrian detection system based on binocular stereo;Xiaohui Liu,et al.;《2012 International Conference on Wireless Communications and Signal Processing (WCSP)》;20121027;第1-6页 * |
多尺度级联行人检测算法的研究与实现;李梦涵 等;《计算机技术与发展》;20140521;第10-13页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106446832A (zh) | 2017-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105261017B (zh) | 基于路面约束的图像分割法提取行人感兴趣区域的方法 | |
CN104392468B (zh) | 基于改进视觉背景提取的运动目标检测方法 | |
CN104217208B (zh) | 目标检测方法和装置 | |
CN107330390B (zh) | 一种基于图像分析和深度学习的人数统计方法 | |
CN107909081B (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN101383005B (zh) | 一种利用辅助规则纹理的乘客目标图像和背景分离方法 | |
CN106204594A (zh) | 一种基于视频图像的弥散性运动物体的方向检测方法 | |
CN105741319B (zh) | 基于盲目更新策略和前景模型的改进视觉背景提取方法 | |
WO2019197021A1 (en) | Device and method for instance-level segmentation of an image | |
CN105069816B (zh) | 一种进出口人流量统计的方法及系统 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
Liu et al. | Multi-type road marking recognition using adaboost detection and extreme learning machine classification | |
CN108073940B (zh) | 一种非结构化环境中的3d目标实例物体检测的方法 | |
CN111009005A (zh) | 几何信息与光度信息相结合的场景分类点云粗配准方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN105354547A (zh) | 一种结合纹理和彩色特征的行人检测方法 | |
CN113221739B (zh) | 基于单目视觉的车距测量方法 | |
CN106446832B (zh) | 一种基于视频的实时检测行人的方法 | |
CN107704864B (zh) | 基于图像对象性语义检测的显著目标检测方法 | |
CN109978916B (zh) | 基于灰度图像特征匹配的Vibe运动目标检测方法 | |
Cheng et al. | Power pole detection based on graph cut |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |