CN106971193A - 基于结构型Haar和Adaboost的目标检测方法 - Google Patents
基于结构型Haar和Adaboost的目标检测方法 Download PDFInfo
- Publication number
- CN106971193A CN106971193A CN201611033728.XA CN201611033728A CN106971193A CN 106971193 A CN106971193 A CN 106971193A CN 201611033728 A CN201611033728 A CN 201611033728A CN 106971193 A CN106971193 A CN 106971193A
- Authority
- CN
- China
- Prior art keywords
- sample
- classifier
- training
- structural type
- haar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于结构型Haar和Adaboost的目标检测方法,包括如下步骤:先创建样本,得到正例样本向量描述文件和反例样本描述文件;然后构造结构型Haar特征,根据结构型Haar特征进行训练,得到弱分类器和强分类器;之后得到级联分类器,最后利用得到的级联分类器进行目标检测,得到最终的检测结果。本发明中所得到的目标检测结果不但能保证良好的检测精度,降低误检率,还有效地缩短了训练的时间,可以应用于智能交通检测、视频监控领域,以及图像识别、搜索等领域。
Description
技术领域
本发明涉及目标检测技术领域,特别是一种基于结构型Haar和Adaboost的目标检测方法。
背景技术
智能视频监控是计算机视觉的重要领域,有着广泛的应用场景,尤其是那些对安全 要求比较敏感的场合,如银行、商店、飞机场、地铁站、停车场等;另外,还有工业生 产现场的监控以及交通系统的监控等。智能视频监控可以通过对目标的持续跟踪,进而 进行轨迹分析、行为识别和理解,做出是否发生异常事件的判断,从而采取必要的措施 并且发出报警信号,同时记录有关信息。
目前,比较成熟的目标检测算法可以分为以下三类:
(1)帧差法等简单的目标检测算法。帧间差分法的主要思想就是利用视频图像序列中连续两帧或三顿的差异来检测发生运动的区域。帧间差分法的特点是动态性强,能 够适应动态背景下的运动目标检测。但是,这类算法检测出的目标轮廓非常不理想,在 目标内部会留有许多空洞,在目标运动较快时目标的轮廓会被扩大,在目标运动较慢时 甚至有可能无法得到目标的边界。
(2)基于光流的目标检测算法。基于光流的目标检测算法是利用光流方程计算出每个像素点的运动状态矢量,从而发现运动的像素点,并且能够对这些像素点进行跟踪。在摄像机运动、背景变化时,光流法也能检测出运动目标,并且它能同时完成运动目标 检测和跟踪,但是该方法的计算复杂度高,在没有专用硬件支持的情况下很难做到实时 检测,同时光流场的计算非常容易受到噪声、光照变化和背景扰动的影响。采用光流场 计算的方法也很难将运动目标的轮廓完整地提取出来。
(3)基于背景差分法的目标检测算法,如多帧平均法,IIR滤波法,高斯建模法等都是侧重于背景差分法中背景的建立或背景的更新机制。在这类目标检测算法中,首先 根据一定的原理建立背景模型,然后利用输入一帧图像和背景模型比较,不同的则是运 动目标,得到运动目标像素,反之则是背景像素,得到检测结果。此类算法的缺点是由 于通常需要缓冲若干帧来学习背景,因此往往需要消耗大量的内存,这使其使用范围受 到了限制。此外,对于大范围的背景扰动,此类算法的检测效果也不理想。
目前,Adaboost算法是一种自适应boosting方法,它在海量的特征库中进行学习并 且选出少量的具有高效性的特征来组成各级的弱的分类器,之后根据弱分类器训练强的 分类器,最后将多个强分类器按照一定的规则组合成为一个级联的分类器。但是在Adaboost训练过程中,每个迭代都会对那些分类错误的样本进行加权,当这个样本多次 被分类错误,那么就会使权重过大,分类器的精确度下降。
发明内容
本发明的目的在于提供一种基于结构型Haar特征和Adaboost算法的目标检测方法, 从而实现对视频中指定目标的精确、高效检测。
实现本发明目的的技术解决方案为:一种基于结构型Haar和Adaboost的目标检测方法,所述方法包括以下步骤:
步骤1,准备正例样本和反例样本,进行训练样本的创建,得到正样本向量描述文件和负样本向量描述文件;
步骤2,构造五种基本的类Haar特征,然后构造以车辆为实例的结构型Haar特征,分别计算结构型Haar特征的特征值;
步骤3,分别进行弱分类器和强分类器的训练;
步骤4,将多个强分类器按照规则组合成为一个级联的分类器;
步骤5,根据所得到的级联分类器进行目标检测。
本发明与现有技术相比,其显著优点为:(1)利用了自适应阈值的优化方法去实现特征的选取,可以选出对训练器最有意义的特征值,将弱分类器的总个数减少,提高了Adaboost训练的速度;(2)对改进后的Adaboost算法得出的特征库进行分析,找到最 高效的分类特征,根据这些特征提出了基于先验特征的结构型Haar特征的Adaboost算 法,使用了快速搜索算法,大大的减少了计算量,从而大大加快了搜索的速度,使得检 测图像的实时性得到了有效的保证;(3)使用了结构型Haar特征进行样本的训练,使 得检测的结果精度得到很大的提升,同时降低了误检率。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于结构型Haar特征和Adaboost算法的目标检测方法的流程图。
图2是本发明正样本生成info.txt文件示意图。
图3是本发明生成正样本向量描述文件示意图。
图4是本发明5种基本的Haar特征图,其中(a)是水平边缘的Haar特征图,(b) 是垂直边缘的Haar特征图,(c)是水平中心的Haar特征图,(d)是垂直中心的Haar 特征图,(e)是对角的Haar特征图。
图5是本发明车辆与路面等外界环境外接的Haar特征示意。
图6是本发明车辆的车灯、排气孔等具有与其他物体高区分度的Haar特征示意图。
图7是本发明一个级联的分类器的检测的过程图。
图8是本发明目标检测的仿真结果图,其中(a)是原始视频图像第10帧目标检测的仿真结果图,(b)是原始视频图像第40帧目标检测的仿真结果图,(c)是原始视频 图像第78帧目标检测的仿真结果图。
具体实施方式
结合图1该目标检测方法的流程图,本发明基于结构型Haar特征和Adaboost算法的目标检测方法包括以下步骤:
步骤1、准备正例样本和反例样本,进行训练样本的创建,得到正样本向量描述文件和负样本向量描述文件,具体步骤为:
(1.1)训练样本分为正例样本和反例样本,准备正例样本图片2500张,反例样本图片4500张,所有的样本图片格式转换为.BMP格式,并且所有的样本图片归一化为 24×24的尺寸大小;
(1.2)采用分组的方式创建正样本描述文件即向量文件。
首先,训练样本分为正例样本和反例样本,准备正例样本图片2500张,反例样本图片4500张,其中正例样本是待检测目标样本,反例样本是其它任意不包含待检测目 标图片,创建样本的过程如下:
①将所有的样本用任意的图片处理软件把图片格式转换为.BMP格式;
②对于正样本,截图目标区域,由于样本数目过多,可以进行分组,先处理100张图片,生成一个小文件,最后将几个小文件合并成一个大文件,生成info.txt文件如图2 所示;
③创建正样本描述文件即向量文件,利用openCV执行createsamples.exe-infopositive/info.txt-vec data/vector.vec-num 2500-w 24-h 24命令,其中,createsamples.exe 为openCV自带的程序,info.txt为②中所得到的文件,-num后面为数量,这里设置为 样本的数量2500,-w和-h后为图片的resize大小,这里设置为归一化尺寸24×24,最 后生成vector.vec文件,即为向量描述文件,如图3所示;
④按照②相同的方法生成反例样本的描述文件。
步骤2、构造五种基本的类Haar特征,然后构造以车辆为实例的结构型Haar特征,分别计算结构型Haar特征的特征值;
对于如图4所示的5种基本的类Haar特征类型,分别求其特征值的过程如下:
(2.1)利用步骤1中得到的向量描述文件,根据对待检测目标的结构分析,构造结构型Haar特征;
利用步骤1中所生成的向量描述文件vector.vec,计算类Haar矩形特征在图像中的位 置,计算结果按照type x1 x2 x3 x4 x5 x6 y1 y2 y3 y4 y5 y6为一行的格式,存储在Haar.txt 中,其中type为特征类型,x和y为特征坐标;
(2.2)积分图像中任意一像素点(x,y)的积分图如下:
其中,ii(x,y)表示像素点(x,y)的积分图,i(x',y')为原图像中点(x',y')的像素值;
通过对原始图像的每个像素进行一遍顺序扫描得到ii(x,y),计算方法:
s(x,y)=s(x,y-1)+i(x,y) (2)
ii(x,y)=ii(x-1,y)+s(x,y) (3)
其中,
s(x,y)表示点(x,y)的y方向的所有原始图像之和,i(x,y)表示原始图像。
之后得到的值存储在二维数组data中,由于当像素很接近,Haar特征值是相同的,因此为了加快运算,因此每十个坐标取一个,对于在程序中设置了而暂时没有使用到的 坐标位置全部置为-1。
之后以车辆为例设计结构型Haar矩形特征如图5和图6所示,图5构造了车辆与路面等外界环境外接的Haar特征,图6构造了车辆的车灯、排气孔等具有与其他物体高 区分度的Haar特征。特征值的计算方法与上面的5种基本的Haar特征的计算一致。
步骤3、分别进行弱分类器和强分类器的训练;
经过步骤2计算得到Haar特征的特征值,首先对于弱的分类器的训练,训练过程如下:
(3.1)假设训练集中有m个训练样本,训练时用到的Haar特征总数为n,样本的 特征值存储在二维数组feature[i][j]中,其中1≤i≤n,1≤j≤m,表示第i个特征下所有 样本的特征值存储在数组的第i行feature[i][]中;
(3.2)遍历每个矩阵特征,将每个矩阵特征下样本的特征值全部复制到一维数组value中,并且使得其中的值从大到小排序,之后遍历每个样本,得到前j个样本的聚集 度leftvalue:
余下的m-j个样本的聚集度rightvalue:
前j个样本的离散度lefterror和余下的m-j个样本的离散度righterror为:
其中,wk代表的是第k个样本的权重,yk代表的是第k个样本的标记,yk=1标示 为正样本,yk=-1标示为负样本;
计算均方误差value=lefterror+righterror,将均方误差最小的Haar特征记录下来;
(3.3)将最优的矩形特征参数记录下来,得到一个弱分类器。
接下来,训练强分类器,过程如下:
①设定初值,强分类器的最小检测率dmin,最大的误检率fmin;
②假设训练样本共有m个,其中正样本numPos个和负样本numNeg个,则 m=numPos+numNeg,训练样本的形式表示为:(x1,y1),…(xm,ym),其中,xi表示第i 个样本,yi=1代表的是正样本,权重的最初值设为wi=1/(2×numPos),yi=1代表的是 正样本,权重的最初值设为wi=1/(2×numNeg);
③设强分类器的当前检测率为dcur,误检率fcur,令最初值分别为dcur=0,fcur=1.0;
④先计算当前强分类器检测率满足dcur≥dmin,目前强分类器阈值ψt,之后计算强分类器误检率fcur,当fcur≤fmax,停止训练,然后更新权重,归一化样本权重,最后记 录下强分类器。
步骤4、将多个强分类器按照规则组合成为一个级联的分类器;
一个强分类器由若干个弱分类器组成,一般对正样本已有较强的检测能力,然而对 于负样本,它的排除能力还是很弱,当多个强分类器通过一定的规则组合成为一个级联分类器时,就会降低对负样本的误检率,同时也会提高检测速度,如图7所示。由步骤 3所得到的弱分类器和强分类器,级联分类器的训练过程如下:
(4.1)将级联的分类器的最大误检率设为Fmax,每个强分类器的最小的检测率设置为dmin,最大的误检率设置为fmax,计算级联的分类器的最大的层数为:
M=log(Fmax)/log(fmax) (9)
(4.2)在样本库中,挑选正样本numPos个和负样本numNeg个;
(4.3)计算出所有正负样本的全部矩阵特征值,并且用矩阵的形式来存储;
(4.4)对{t|t=1,2,…,M},训练第t个强分类器,设定误检率ft≤fmax,设定检测率dt≥dmin,将前t个强分类器构造成级联的分类器,改变Ft为ft*Ft-1,当Ft≤Fmax时,结 束训练,将正样本拿来验证,如果通过级联的分类器的正样本的数量为N,则改变下一 轮训练强分类器的正样本的数目为N,将负样本拿来验证,滤除掉被否决掉的非目标, 继续从负样本中补充负样本样本的数量为numPos/ratio,ratio定义为负样本与正样本 的比率,如下所示:
ratio=numNeg/numPos (10)
训练结束后将级联分类器记录下来。
图像只有通过所有层的分类器才会被判为目标。不能通过级联分类器的正样本和能 通过级联分类器的负样本,都是被误分的样本,这些被错分的样本对于训练下一层没有任何意义,若继续使用会拉低整个系统的整体的性能。相对正样本,我们训练得出的强 的分类器的检测率就趋近于1,这样在每一层正样本被滤除的个数就极其少,基本对整 个训练过程没影响;增加非目标的样本时,设定将此轮的训练强的分类器的过程里使到 的非目标全部直接去除,然后再在负的样本库里面选出来被错分的负样本,提升负样本 的丰富度,让它更加符合实际生活的情况。
步骤5、根据所得到的级联分类器进行目标检测;
(5.1)利用步骤4得到的级联分类器检测目标,首先固定待检测图像的大小不变,根据设定的比例对检测窗口进行等比放大,随后将原始图用放大后的窗口进行检测,到 待测图像的宽与设定的窗口相同时停止;
(5.2)对不同尺寸下检测挑选来的备选窗进行合并处理,设两个矩形窗口的位置的 参数分别为r1=(x1,y1,w1,h1),r2=(x2,y2,w2,h2),其中r1,r2分别为两个窗口的位置参数, x1,y1,w1,h1分别表示第一个窗口的顶点坐标,窗口的宽和高,x2,y2,w2,h2分别表示第二个窗口的顶点坐标,窗口的宽和高。
如果两个窗口有下列条件
其中,α为一个中间参数。
当满足上面的条件,就进行合并,然后剔除非目标,最后得到待检测的目标。
下面结合算法仿真实例对本发明做进一步的说明。
实施例1
如图1所示,先创建样本,得到正样本向量描述文件和负样本描述文件,然后构造结构型Haar特征,根据结构型Haar特征和5中基本的Haar特征如图4、图5及图6所 示,进行训练得到弱的分类器,利用弱的分类器得到强分类器,之后得到级联分类器, 最后利用得到的级联分类器进行目标检测,得到最终检测结果如图8所示。
本算法利用Intel公司开发的openCV3.0.0计算机视觉库,用来处理目标检测阶段利 用到的各种图像处理算法,例如彩色图像的灰度化、图像的复制、图像的背景检测等。实验的硬件平台为:计算机系统为Windows 7,64位操作系统,内存8G,处理器为Intel(R)Core(TM)i5-2450M CPU@2.50GHz,开发环境VS2012。
在训练级联分类器时,选用了2500张24×24大小的正样本,4500张24×24大小的负样本。在训练过程中将强分类器的最小检测率设为dmin,根据一般规定,设定为 dmin=0.999,最大的漏检率设定为fmax=0.5,最大的训练层数设定为N=50。
表1是针对各种Haar特征的训练结果,特征总数、训练耗时、训练层数、最小检测率、最大误检率等。从图8中可以看出,使用结构型Haar特征时,对于相同大小的样 本,特征总数明显减少,训练耗时减小,训练出的级联分类器的层数变化不大,从而实 现了加快训练速度的目的。
表1针对各种Haar特征的训练结果
训练的Haar特征 | 特征总数 | 训练耗时 | 训练层数 | 最小检测率 | 最大误检率 |
水平边缘 | 13516 | 6h | 15 | 0.999 | 0.5 |
垂直边缘 | 13516 | 6h | 13 | 0.999 | 0.5 |
水平中心 | 8712 | 5h | 17 | 0.999 | 0.5 |
垂直中心 | 8712 | 5h | 25 | 0.999 | 0.5 |
对角 | 7131 | 3.5h | 24 | 0.999 | 0.5 |
5种基本 | 51587 | 9.5h | 19 | 0.999 | 0.5 |
结构型 | 1152 | 2.5h | 17 | 0.999 | 0.5 |
图8中(a)、(b)、(c)分别是原始视频图像第10、40、78帧目标检测后的图像, 原始视频为AVI格式,共120帧,其中用矩形框表示出的即为检测目标,图8展示了一 个车辆和多个车辆的检测结果,对于少量遮挡,只要车脸能显示出来,就能够检测到, 但当车辆成像不清晰时,可能会出现误检或者漏检的情况。
表2自建车辆测试库的检测结果
表2是自建车辆测试库的检测结果,使用结构型Haar特征训练出来的分类器,训练时间明显减少,而且检测效果也有提高,由于使用使用了结构型特征训练的方法,因 此对正样本的检测率更高一些。
综上,本发明利用了自适应阈值的优化方法去实现特征的选取,可以选出对训练器 最有意义的特征值,将弱分类器的总个数减少,提高了Adaboost训练的速度,解决掉Adaboost训练过程中计算量庞大,消耗较长时间的缺点。另外,对改进后的Adaboost 算法得出的特征库进行分析,找到最高效的分类特征,根据这些特征提出了基于先验特 征的结构型Haar特征的Adaboost算法,使用了较新的快速搜索算法,对比与之前的传 统的全搜索算法,大大的减少了计算量,从而大大加快了搜索的速度,使得检测图像的 实时性得到了有效的保证。使用了结构型Haar特征进行样本的训练,使得检测的结果 精度得到很大的提升,同时降低了误检率。
Claims (6)
1.一种基于结构型Haar和Adaboost的目标检测方法,其特征在于,所述方法包括以下步骤:
步骤1,准备正例样本和反例样本,进行训练样本的创建,得到正样本向量描述文件和负样本向量描述文件;
步骤2,构造五种基本的类Haar特征,然后构造以车辆为实例的结构型Haar特征,分别计算结构型Haar特征的特征值;
步骤3,分别进行弱分类器和强分类器的训练;
步骤4,将多个强分类器按照规则组合成为一个级联的分类器;
步骤5,根据所得到的级联分类器进行目标检测。
2.根据权利要求1所述的基于结构型Haar和Adaboost的目标检测方法,其特征在于,步骤1所述进行训练样本的创建,具体步骤为:
(1.1)训练样本分为正例样本和反例样本,准备正例样本图片2500张,反例样本图片4500张,所有的样本图片格式转换为.BMP格式,并且所有的样本图片归一化为24×24的尺寸大小;
(1.2)采用分组的方式创建正样本描述文件即向量文件。
3.根据权利要求1所述的基于结构型Haar和Adaboost的目标检测方法,其特征在于,步骤2所述构造五种基本的类Haar特征,具体步骤为:
(2.1)利用步骤1中得到的向量描述文件,根据对检测目标的结构分析,构造结构型Haar特征;
(2.2)积分图像中任意一像素点(x,y)的积分图如下:
其中,ii(x,y)表示像素点(x,y)的积分图,i(x',y')为原图像中点(x',y')的像素值;
通过对原始图像的每个像素进行一遍顺序扫描得到ii(x,y),计算方法:
s(x,y)=s(x,y-1)+i(x,y) (2)
ii(x,y)=ii(x-1,y)+s(x,y) (3)
其中,
s(x,y)表示点(x,y)的y方向的所有原始图像之和,i(x,y)表示原始图像。
4.根据权利要求1所述的基于结构型Haar和Adaboost的目标检测方法,其特征在于,步骤3所述弱分类器的训练步骤具体如下:
(3.1)假设训练集中有m个训练样本,训练时用到的Haar特征总数为n,样本的特征值存储在二维数组feature[i][j]中,其中1≤i≤n,1≤j≤m,表示第i个特征下所有样本的特征值存储在数组的第i行feature[i][]中;
(3.2)遍历每个矩阵特征,将每个矩阵特征下样本的特征值全部复制到一维数组value中,并且使得其中的值从大到小排序,之后遍历每个样本,得到前j个样本的聚集度leftvalue:
余下的m-j个样本的聚集度rightvalue:
前j个样本的离散度lefterror和余下的m-j个样本的离散度righterror为:
其中,wk代表的是第k个样本的权重,yk代表的是第k个样本的标记,yk=1标示为正样本,yk=-1标示为负样本;
计算均方误差value=lefterror+righterror,将均方误差最小的Haar特征记录下来;
(3.3)将最优的矩形特征参数记录下来,得到一个弱分类器。
5.根据权利要求1所述的基于结构型Haar和Adaboost的目标检测方法,其特征在于,步骤4所述将多个强分类器按照规则组合成为一个级联的分类器,具体步骤为:
(4.1)将级联的分类器的最大误检率设为Fmax,每个强分类器的最小的检测率设置为dmin,最大的误检率设置为fmax,计算级联的分类器的最大的层数为:
M=log(Fmax)/log(fmax) (9)
(4.2)在样本库中,挑选正样本numPos个和负样本numNeg个;
(4.3)计算出所有正负样本的全部矩阵特征值,并且用矩阵的形式来存储;
(4.4)对{t|t=1,2,…,M},训练第t个强分类器,设定误检率ft≤fmax,设定检测率dt≥dmin,将前t个强分类器构造成级联的分类器。
6.根据权利要求1所述的基于结构型Haar和Adaboost的目标检测方法,其特征在于,步骤5根据所得到的级联分类器进行目标检测,步骤为:
(5.1)首先固定待检测图像的大小不变,根据设定的比例对检测窗口进行等比放大,随后将原始图用放大后的窗口进行检测,到待测图像的宽与设定的窗口相同时停止;
(5.2)对不同尺寸下检测挑选来的备选窗进行合并处理,设两个矩形窗口的位置参数分别为r1=(v1,u1,w1,h1),r2=(v2,u2,w2,h2),其中,v1,u1,w1,h1分别表示第一个窗口的顶点坐标、窗口的宽和高,v2,u2,w2,h2分别表示第二个窗口的顶点坐标、窗口的宽和高;
如果两个窗口有下列条件:
其中,α为中间参数;
当满足上面的条件,就进行合并,然后剔除非目标,最后得到待检测的目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611033728.XA CN106971193A (zh) | 2016-11-23 | 2016-11-23 | 基于结构型Haar和Adaboost的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611033728.XA CN106971193A (zh) | 2016-11-23 | 2016-11-23 | 基于结构型Haar和Adaboost的目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106971193A true CN106971193A (zh) | 2017-07-21 |
Family
ID=59334906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611033728.XA Pending CN106971193A (zh) | 2016-11-23 | 2016-11-23 | 基于结构型Haar和Adaboost的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106971193A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107862341A (zh) * | 2017-11-27 | 2018-03-30 | 南京理工大学 | 一种车辆检测方法 |
CN108764110A (zh) * | 2018-05-23 | 2018-11-06 | 大连民族大学 | 基于hog特征行人检测器的递归错检校验方法、系统及设备 |
CN108846331A (zh) * | 2018-05-30 | 2018-11-20 | 北京天亿时代科技有限公司 | 一种动车组底盘螺丝紧固件是否脱落的视频识别方法 |
CN109241969A (zh) * | 2018-09-26 | 2019-01-18 | 旺微科技(上海)有限公司 | 一种多目标检测方法及检测系统 |
CN109740637A (zh) * | 2018-12-12 | 2019-05-10 | 天津津航技术物理研究所 | 训练adaboost级联分类器的优化方法 |
CN110119771A (zh) * | 2019-04-29 | 2019-08-13 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 基于组合特征和级联分类器的高压输电线路防震锤检测方法 |
CN110210237A (zh) * | 2019-05-29 | 2019-09-06 | 北京工业大学 | 基于云雾协同的工业互联网敏感数据保护方法 |
CN110415229A (zh) * | 2019-07-25 | 2019-11-05 | 广西科技大学 | 基于Haar特征和AdaBoost算法的纹理图像质量估计方法 |
CN111950588A (zh) * | 2020-07-03 | 2020-11-17 | 国网冀北电力有限公司 | 一种基于改进Adaboost算法的分布式电源孤岛检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006057475A1 (en) * | 2004-11-23 | 2006-06-01 | Kicheon Hong | Face detection and authentication apparatus and method |
CN102147866A (zh) * | 2011-04-20 | 2011-08-10 | 上海交通大学 | 基于训练自适应增强和支持矢量机的目标识别方法 |
CN103093250A (zh) * | 2013-02-22 | 2013-05-08 | 福建师范大学 | 一种基于新Haar-like特征的Adaboost人脸检测方法 |
CN104298969A (zh) * | 2014-09-25 | 2015-01-21 | 电子科技大学 | 基于颜色与haar特征融合的人群规模统计方法 |
CN105260715A (zh) * | 2015-10-16 | 2016-01-20 | 中国人民解放军国防科学技术大学 | 面向偏僻地段的小动物目标检测方法 |
-
2016
- 2016-11-23 CN CN201611033728.XA patent/CN106971193A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006057475A1 (en) * | 2004-11-23 | 2006-06-01 | Kicheon Hong | Face detection and authentication apparatus and method |
CN102147866A (zh) * | 2011-04-20 | 2011-08-10 | 上海交通大学 | 基于训练自适应增强和支持矢量机的目标识别方法 |
CN103093250A (zh) * | 2013-02-22 | 2013-05-08 | 福建师范大学 | 一种基于新Haar-like特征的Adaboost人脸检测方法 |
CN104298969A (zh) * | 2014-09-25 | 2015-01-21 | 电子科技大学 | 基于颜色与haar特征融合的人群规模统计方法 |
CN105260715A (zh) * | 2015-10-16 | 2016-01-20 | 中国人民解放军国防科学技术大学 | 面向偏僻地段的小动物目标检测方法 |
Non-Patent Citations (3)
Title |
---|
曹二奎: "基于Gentle Adaboost的人脸检测算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
祝博荟: "基于深度与视觉信息融合的行人检测与再识别研究", 《中国博士学位论文全文数据库信息科技辑》 * |
赵池航等: "《交通信息感知理论与方法》", 30 September 2014, 东南大学出版社 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107862341A (zh) * | 2017-11-27 | 2018-03-30 | 南京理工大学 | 一种车辆检测方法 |
CN108764110A (zh) * | 2018-05-23 | 2018-11-06 | 大连民族大学 | 基于hog特征行人检测器的递归错检校验方法、系统及设备 |
CN108846331A (zh) * | 2018-05-30 | 2018-11-20 | 北京天亿时代科技有限公司 | 一种动车组底盘螺丝紧固件是否脱落的视频识别方法 |
CN108846331B (zh) * | 2018-05-30 | 2022-07-19 | 北京天亿时代科技有限公司 | 一种动车组底盘螺丝紧固件是否脱落的视频识别方法 |
CN109241969A (zh) * | 2018-09-26 | 2019-01-18 | 旺微科技(上海)有限公司 | 一种多目标检测方法及检测系统 |
CN109740637A (zh) * | 2018-12-12 | 2019-05-10 | 天津津航技术物理研究所 | 训练adaboost级联分类器的优化方法 |
CN109740637B (zh) * | 2018-12-12 | 2023-08-15 | 天津津航技术物理研究所 | 训练adaboost级联分类器的优化方法 |
CN110119771B (zh) * | 2019-04-29 | 2020-12-22 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 基于组合特征和级联分类器的高压输电线路防震锤检测方法 |
CN110119771A (zh) * | 2019-04-29 | 2019-08-13 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 基于组合特征和级联分类器的高压输电线路防震锤检测方法 |
CN110210237B (zh) * | 2019-05-29 | 2021-02-26 | 北京工业大学 | 基于云雾协同的工业互联网敏感数据保护方法 |
CN110210237A (zh) * | 2019-05-29 | 2019-09-06 | 北京工业大学 | 基于云雾协同的工业互联网敏感数据保护方法 |
CN110415229A (zh) * | 2019-07-25 | 2019-11-05 | 广西科技大学 | 基于Haar特征和AdaBoost算法的纹理图像质量估计方法 |
CN110415229B (zh) * | 2019-07-25 | 2022-04-26 | 广西科技大学 | 基于Haar特征和AdaBoost算法的纹理图像质量估计方法 |
CN111950588A (zh) * | 2020-07-03 | 2020-11-17 | 国网冀北电力有限公司 | 一种基于改进Adaboost算法的分布式电源孤岛检测方法 |
CN111950588B (zh) * | 2020-07-03 | 2023-10-17 | 国网冀北电力有限公司 | 一种基于改进Adaboost算法的分布式电源孤岛检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106971193A (zh) | 基于结构型Haar和Adaboost的目标检测方法 | |
CN102081734B (zh) | 对象检测装置及其学习装置 | |
US10325202B2 (en) | Incorporating top-down information in deep neural networks via the bias term | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN103198493B (zh) | 一种基于多特征自适应融合和在线学习的目标跟踪方法 | |
CN111079674B (zh) | 一种基于全局和局部信息融合的目标检测方法 | |
Woźniak et al. | Object detection and recognition via clustered features | |
CN101178770B (zh) | 一种图像检测方法及装置 | |
CN107273832B (zh) | 基于积分通道特征与卷积神经网络的车牌识别方法及系统 | |
CN107748873A (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN103390164A (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN108280397A (zh) | 基于深度卷积神经网络的人体图像头发检测方法 | |
CN110119726A (zh) | 一种基于YOLOv3模型的车辆品牌多角度识别方法 | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN106650617A (zh) | 一种基于概率潜在语义分析的行人异常识别方法 | |
CN109948616A (zh) | 图像检测方法、装置、电子设备及计算机可读存储介质 | |
CN107545263A (zh) | 一种物体检测方法及装置 | |
Haider et al. | Human detection in aerial thermal imaging using a fully convolutional regression network | |
CN110991444A (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN111640136A (zh) | 一种复杂环境中的深度目标跟踪方法 | |
CN101187984A (zh) | 一种图像检测方法及装置 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN105046278A (zh) | 基于Haar特征的Adaboost检测算法的优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170721 |