CN110706235B - 一种基于双级级联分割的远红外行人检测方法 - Google Patents

一种基于双级级联分割的远红外行人检测方法 Download PDF

Info

Publication number
CN110706235B
CN110706235B CN201910812839.8A CN201910812839A CN110706235B CN 110706235 B CN110706235 B CN 110706235B CN 201910812839 A CN201910812839 A CN 201910812839A CN 110706235 B CN110706235 B CN 110706235B
Authority
CN
China
Prior art keywords
image
weight
pixel
value
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910812839.8A
Other languages
English (en)
Other versions
CN110706235A (zh
Inventor
王国华
李露
郑沐杭
郑永森
刘财兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Tonglue Holdings Co ltd
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN201910812839.8A priority Critical patent/CN110706235B/zh
Publication of CN110706235A publication Critical patent/CN110706235A/zh
Application granted granted Critical
Publication of CN110706235B publication Critical patent/CN110706235B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于双级级联分割的远红外行人检测方法,本发明采用中值滤波和拉普拉斯积分的预处理可以使得图像的轮廓加强;基于图模型的快速图像分割方法可以将图像中具有相近亮度的区域进行合并,从而可以列举出图像中可能存在物体的各局部区域;双阈值法和基于图模型的快速图像分割方法的联用可以使得分割结果更加的准确;基于先验知识层级合并的候选区域列举根据人体成像的特点,对人体区域优先进行合并,提高感兴趣区域的准确率,采用聚合通道特征和高低频红外图像有效的提高了系统的鲁棒性和实时性,二级级联分类器的使用使得分类结果更加的准确。

Description

一种基于双级级联分割的远红外行人检测方法
技术领域
本发明涉及计算机视觉和智能交通的研究领域,特别涉及一种基于双级级联分割的远红外行人检测方法。
背景技术
随着科技的进步,智能化生活越来越被大众所向往,对于智能交通也广受关注,关于行人安全方面,现有技术有,行人保护装置与行人保护保险杠(中国专利授权公告号:CN107021058A,授权公告日:2017年08月08日)等都属于被动的行人保护方法,都是在交通事故发生之后起到一定的保护作用,并不能提前预防事故的发生。目前,提高夜间行车安全的解决方法之一是夜视系统,石永彪(石永彪,张湧.车载红外夜视技术发展研究综述[J].红外技术,2019,41(06):504-510.)采用夜视系统辅助司机夜间开车,它可以帮助司机改善他的感知设施,提供更多的时间做出决定。该系统不仅可以防止汽车使用者和行人在道路上发生事故,而且还可以防止交通事故的发生。其中在行人检测的问题中,光照充足的可见光检测领域已经取得众多的研究成果,但在光照不足的场景下特别是夜间的检测依旧是一个待解决的难题。近年来,随者电子计算机技术的不断发展,价格低廉的红外摄像装备随之广泛应用与家庭和车载摄像,极大促进红外图像处理技术在各领域中的应用和推广。在国内,已有相关的技术研究和实际应用系统,但是其行人检测系统仍存在准确率不够高、检测的实时性不够好等问题。
类似于可见光领域的行人检测,基于红外图像的行人检测也分为两个部分:特征提取和分类识别。梯度方向直方图(Histograms of Oriented Gradient,HOG)特征结合线性支持向量机(Linear Support Vector Machines,SVM)分类器的行人检测方法首次由Dalal(Dalal N,Triggs B.Histograms of Oriented Gradients for Human Detection[C].IEEE Computer Society Conference on Computer Vision&Pattern Recognition,2005.)等提出。HOG特征由于具有较好的鲁棒性,被广泛用于红外行人检测上,并且出现了一些基于HOG的有所改变的特征组合。OMalley等(Omalley R,Jones E,GlavinM.Detection of Pedestrians in Far-infrared Automotive Night Vision UsingRegion-growing and Clothing Distortion Compensation[J].Infrared Physics&Technology,2010,53(6):439-449)较早使用HOG特征实现了远红外视频序列的行人检测。目前该检测框架利用传统的HOG特征提取方式的检测速度很难满足实时性的需求。
红外图像分割结果的好坏依赖于红外图像成像时的效果。如果成像时物体特征分布不均匀,例如一个人体上身和下身的着装差异和受环境的影响将导致被分割为不同的区域,无法得到完整的物体尺度信息。此时,为了得到更完整的物体尺度信息,需要对初始分割后得到的区域进行进一步的合并。Uijlings等(UIJLINGS J R,SANDE K E,GEVERS T,etal.Selective search for object recognition[J].International Journal ofComputer Vision,2013,104(2):154-171)提出选择性搜索的方法对初始分割结果进行迭代层次合并,使各区域的面积逐层增大。该方法分别从区域的尺度、纹理、颜色和距离等角度出发来衡量两个区域的相似度,优先合并相似度大的两个区域。对于红外图像来说,颜色和纹理等信息均不充足,且同一人体不同部位的成像可能由于衣服厚度和环境等因素影响所呈现的热量并不均衡,因此并不能利用灰度特征对不同的区域进行相似度合并。
所以,综上所述,虽然在红外图像行人检测方面已取得一定的成果,但尚不能满足其在实际应用中的要求,为了更加适合现实应用,急需在检测的精确率和检测的实时性方面进行改进。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于双级级联分割的远红外行人检测方法,采用聚合通过特征检测框架,可以显著的提高检测系统的鲁棒性,并且相对于传统的方向梯度直方图(Histogram of Oriented Gradient,HOG)特征提取方式,本发明专利改进的聚合通道特征的实时性更高。同时,为了提高候选区域的选取,采用了二级级联图分割方法,将基于图模型的快速图像分割方法和双阈值分割方法级联,显著的提高了现有的图分割的准确率。
本发明的目的通过以下的技术方案实现:
一种基于双级级联分割的远红外行人检测方法,包括以下步骤:
S1、获取红外图像,对红外图像进行中值滤波和拉普拉斯微分处理,得到处理后红外图像;
S2、采用基于图模型的快速图像分割方法和阈值分割方法构成的二级级联图像分割方法,通过二级级联图像分割方法对处理后红外图像进行分割,得到分割红外图像;
S3、对分割红外图像进行基于先验知识层级合并的候选区域列举,优先合并行人区域,并利用行人高宽比过滤候选区域,得到列举红外图像;
S4、对列举红外图像进行第一特征提取,得到第一特征红外图像,并提取高低频图像;
S5、利用基于改进的聚合通道方法进行第二特征提取,得到第二特征图像,引入统计转化直方图描述子和局部二值模式描述子,通过由加速的自适应增强分类器和支持向量机分类器组成的二级级联分类器进行分类,得到分类结果,进而得到行人检测结果。
进一步地,所述中值滤波具体为:使用滑动窗口,将窗口中的像素值进行排序,用领域像素值的中值代替窗口中心点的像素值;所述拉普拉斯微分处理用于加强目标的轮廓和边缘。
进一步地,所述步骤S1具体为:首先对红外图像进行一次中值滤波处理,抑制图像背景,然后再进行拉普拉斯微分处理,加强目标的轮廓和边缘,最后再对图像进行一次中值滤波处理,去除拉普拉斯微分处理后加强的噪声,最终得到处理后红外图像。
进一步地,所述步骤S2具体如下:
基于图模型的快速图像分割方法,具体如下:
将红外图像定义为无向图,即每个像素点为一个顶点,每相邻像素点对之间存在一条边,并对应一个权值,其为像素点对之间的不相似度,不相似度也为灰度值差异:
u=gi-gj
其中,gi为像素点i的灰度值,gj为像素点j的灰度值,u为像素点i和像素点j之间的不相似度;
将每个像素点进行分类,分类后的像素点分别形成区域;无向图为G=(V,E);
定义一个区域内的类内差异:
Figure BDA0002185524110000031
其中,C为一系列连通成分,MST(C,E)为的最小生成树,IntraDif(C)为区域内最大的像素灰度值差异,即MST中最大边权值;
定义两个区域内的类间差异,连接两个区域的所有边中最小灰度值差异,即连接两个区域的边的最小权值:
Figure BDA0002185524110000041
其中,w(vi,vj)为顶点vi和顶点vj之间的边所对应的权值;
定义容忍度范围为Γ(C):
Figure BDA0002185524110000042
其中,k为特定常量常数,控制区域形成大小的参数;|Cv|为连通区域内包含的顶点数;
当|Cv|越来越大即区域越来越大时,容忍度范围越来越小,效果就越来越小。
定义一个自适应阈值IntD(C1,C2),
IntD(C1,C2)=min(IntraDif(C1)+Γ(C1),IntraDif(C2)+Γ(C2)),
其中,Γ(C)为对应连通区域的容忍度范围,IntraDif(C)为对应连通区域内的类内差异;
两区域是否合并用Merge(C1,C2)表示,则有:
Figure BDA0002185524110000043
其中,InterDif为两个区域内的类间差异,IntD(C1,C2)为自适应阈值;
对比两个像素点的不相似度,若不相似度大于自适应阈值,则两个像素点不合并;若不相似度小于自适应阈值,则两个像素点合并,形成连通图,即新的区域;进行迭代合并,最终得到所需分割区域;
基于阈值分割方法,具体如下:
使用统计方差计算出全局阈值,设m为灰度值,则灰度值为m的像素点个数为nm,则总像素点个数为N:
Figure BDA0002185524110000044
其中,m为灰度值[0,...,255],nm为灰度值是m的像素点个数,N为总像素点个数,
则有,灰度值出现的概率为:
Figure BDA0002185524110000051
其中,Pm为灰度值出现的概率;
假设阈值T0将红外图像初始分割为目标类Ct和背景类Cb
则目标类Ct的概率为:
Figure BDA0002185524110000052
背景类Cb的概率为:
Figure BDA0002185524110000053
目标类Ct的均值为:
Figure BDA0002185524110000054
背景类Cb的均值为:
Figure BDA0002185524110000055
则有目标类Ct和背景类Cb的方差为:
Figure BDA0002185524110000056
Figure BDA0002185524110000057
根据方差,计算出最佳全局阈值T1
Figure BDA0002185524110000058
其中,σt 2是被局部阈值分割后目标区域所对应的方差,σb 2是被局部阈值分割后背景所对应的方差;
通过最佳全局阈值T1对红外图像进行初步分割,像素灰度值大于阈值的划分为目标区域,反之,划分为背景区域;
Figure BDA0002185524110000059
其中,BinarI(x,y)为像素点二值化值,I(x,y)为像素原始灰度值,T1为最佳全局阈值;
以像素点为中心的十字滑动窗口所包含的像素点有:
Figure BDA0002185524110000061
其中,(N为十字滑动窗口包含的像素点数,nm为灰度值为m的像素个数,a为特定的常量;
使用十字滑动窗口扫描红外图像,找到目标区域内的像素点d(x,y),以该像素点为中心,利用统计方差计算十字滑动窗口范围内灰度值的局部阈值:
Figure BDA0002185524110000062
其中,σt10 2是被局部阈值分割后十字滑动窗口中目标区域所对应的方差,σb10 2是被局部阈值分割后十字滑动窗口中背景所对应的方差;
根据局部阈值和头部划分区域得到目标区域像素点的准确划分:
Figure BDA0002185524110000063
其中,Binar(x,y-1)为该像素点的上方像素点的二值化值;
当局部阈值小于全局阈值时,当前像素点被划分为背景区域;当该像素点的灰度值大于局部阈值时,被划分为目标区域;当该像素点的灰度值小于局部阈值且大于全局阈值时,参考头部划分区域即Binar(x,y-1)的值,若头部划分区域为目标区域即Binar(x,y-1)=1,则该像素点被划分为目标区域,反之,划分为背景区域;
将基于图模型的快速图像分割方法和双阈值分割法级联:当被分割出的行人区域在两个分割方法中都存在时就将其视为候选区域,否则,视为背景区域。
进一步地,所述行人高宽比在1:1.2到1:1.4之间。
进一步地,所述步骤S4具体为:
搭建快读特征金字塔,采用快速特征金字塔对列举红外图像进行第一特征提取,得到第一特征红外图像,即通过快速特征金字塔对列举红外图像进行关键尺度变化,提取其对应的特征图:
Is=R(I,s),
其中,R(I,s)为对图像I进行尺度为s的缩放,Is为缩放后图像;
剩余尺度的特征图由已有尺度的特征图近似估算得出:
Cs=R(C,s)·s-r
其中,R是由训练样本得到的经验值,Cs为对应尺度为的特征图;
得到高低频图像,利用红外图像增强进行处理,并转化为灰度图。
进一步地,所述步骤S5具体为:
在聚合通道原有简单特征的基础上,引入CENTRIST描述子+LBP描述子,得到基于改进的聚合通道,利用基于改进的聚合通道方法进行第二特征提取,得到第二特征图像,引入统计转化直方图描述子和局部二值模式描述子,通过由加速的自适应增强分类器和支持向量机分类器组成的二级级联分类器进行分类,得到分类结果,最后的分类结果由加速的自适应增强分类器和支持向量机分类器的结果决定,如果两个分类器的分类结果均为行人,则最终分类结果为行人区域;反之,其中一分类器的分类或者两分类器结果为非行人,则最终分类结果为非行人区域,得到行人检测结果。
进一步地,所述CENTRIST描述子获取过程如下:计算图像的索贝尔边缘图像,将获得的图像划分为n×n的小块Cell,定义滑动窗口为r×r个Cell的大块Block,然后对每个Block进行CT变换,即将中心像素与相邻像素的灰度值进行比较,若大于某一个相邻像素的灰度值,则为1,否则为0,并根据相邻像素值进行转化得到其CT值,进而得到相应的CT直方图,将不同的CT直方图合并得到CENTRIST描述子;所述LBP描述子获取过程如下:将图像划分为若干个小区域,对每个小区域进行LBP编码,得到该区域的LBP描述,用直方图表示,即将半径为R的圆形区域的中心像素与其余像素进行比较,若大于中心像素则标记为1,否则为0,将所得二进制数转换为十进制数,并用该值替代中心像素的灰度值,最后将各个小区域的直方图结合起来得到该图像的LBP描述子。
进一步地,所述加速的自适应增强分类器为加速的Adaboost分类器;所述支持向量机分类器为SVM分类器。
进一步地,所述加速的Adaboost分类器训练和检测过程如下:
训练时选择的模板尺寸为[64,32],选用训练由M个弱分类器加权构成的强分类器;在训练过程中,第一次迭代前赋予训练数据中的每个训练样本等同的权重,构成权重向量D,然后在此训练样本数据上训练出一个弱分类器并且计算该弱分类器的错误率;第一次训练后,调整样本数据中的每个训练样本的权重,其中第一次被弱分类器分对的训练样本权重会减小,而分错的训练样本权重则会增大,将新的调整了样本权重的训练数据进行第二次训练,得到第二个弱分类器;重复进行下一轮的迭代,Adaboost算法不断地更新训练样本的权重和重复训练,直到训练出的弱分类器的数目达到M个之后停止训练;最后,将训练出的弱分类器加权之后得到强分类器;
Adaboost算法为每次迭代训练出的弱分类器赋予一个权重a,而a是由该弱分类器的错误率计算得到的,其中,错误率的定义为:
Figure BDA0002185524110000081
其中,εi为第i个弱分类器的错误率;
弱分类器对应的权重a的定义为:
Figure BDA0002185524110000082
其中,αi为第i个弱分类器对应的权重。
由上述式子得出,由于错误率是大于0.5小于1的值,所以当错误率增大时,a也是对应增大的,即弱分类器的错误率越大,则其被赋予的权重也越大,在进行下一次迭代训练前将根据上一次弱分类器的权重对训练样本权重向量D进行更新,使得错分的样本权重增加,被分对的样本权重减小,其中,权重更新的定义为:
假设某个训练样本被正确分类,则该样本的权重更新定义为:
Figure BDA0002185524110000083
其中,Dt (i+1)为第i+1次迭代训练时第t个样本对应的权重值,Dt (i)为第i次迭代训练时第t个样本对应的权重值,sum(D)为所有训练样本的权重值的加和;
假设某个训练样本被错误分类,则该样本的权重更新定义为:
Figure BDA0002185524110000084
其中,Dt (i+1)为第i+1次迭代训练时第t个样本对应的权重值,Dt (i)为第i次迭代训练时第t个样本对应的权重值,sum(D)为所有训练样本的权重值的加和;
计算出更新之后的D后,Adaboost算法又进行下一次迭代训练弱分类器,直到训练出M个弱分类器;
SVM分类器训练和检测过程如下:
将聚合通道提取的特征,输入到线性SVM分类器中,如下式,若输出f(x)>0,则判断为行人,反之则为非行人:
f(x)=WT·x+b,
其中,W是线性SVM的权值向量,x是输入的特征向量,b是偏移常量,f(x)是输入x的响应。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明采用中值滤波和拉普拉斯积分的预处理可以使得图像的轮廓加强;基于图模型的快速图像分割方法可以将图像中具有相近亮度的区域进行合并,从而可以列举出图像中可能存在物体的各局部区域;双阈值法和基于图模型的快速图像分割方法的联用可以使得分割结果更加的准确;基于先验知识层级合并的候选区域列举根据人体成像的特点,对人体区域优先进行合并,提高感兴趣区域的准确率,采用聚合通道特征和高低频红外图像有效的提高了系统的鲁棒性和实时性,二级级联分类器的使用使得分类结果更加的准确。
2、本发明采用并且两次中值滤波可以很好的消除图像的噪声包括拉普拉斯积分处理后产生的微弱噪声。
3、本发明采用加速的Adaboost分类器和支持支持向量机分类器的级联更适合大样本高维特征的分类,使得分类结果更加准确。
附图说明
图1是本发明所述一种基于双级级联分割的远红外行人检测方法的方法流程图;
图2是本发明所述实施例中基于改进的聚合通道的特征提取方法的方法流程图;
图3是本发明所述实施例中Adaboost分类器的训练分类流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
一种基于双级级联分割的远红外行人检测方法,如图1所示,包括以下步骤:
第一步、获取红外图像,对红外图像进行两次中值滤波和一次拉普拉斯微分处理,即首先对红外图像进行一次中值滤波处理,抑制图像背景,然后再进行拉普拉斯微分处理,加强目标的轮廓和边缘,最后再对图像进行一次中值滤波处理,去除拉普拉斯微分处理后加强的一些噪声,最终得到处理后红外图像;中值滤波是指一种非线性平滑技术,使用滑动窗口,将窗口中的像素值排序,用领域像素值的中值代替窗口中心点的像素值,使得领域的像素值更加接近真实值,消除了孤立的噪点。在平滑图像的同时保持了原有图像的边缘的清晰。而拉普拉斯微分处理的作用原理是拉普拉斯二阶微分在灰度值恒定的区域范围的微分值为0,而在灰度值波动的起点处微分值不为0,加强图像高频分量,使得图像的轮廓更加清晰。
第二步、采用基于图模型的快速图像分割方法和阈值分割方法构成的二级级联图像分割方法,通过二级级联图像分割方法对处理后红外图像进行分割,得到分割红外图像;
采用LSIFIR数据库中的远红外行人数据集,LSIFIR数据库为车载相机运动时拍摄画面。我们使用数据库中的1500个正样本和4500个负样本,训练模板的尺寸选择为[32,64]。正样本是其中包含行人的数据集,负样本则是剔除行人之后的背景数据集;具体如下:
基于图模型的快速图像分割方法,具体流程为:
将红外图像定义为无向图,即每个像素点为一个顶点,每相邻像素点对之间存在一条边,并对应一个权值,其为像素点对之间的不相似度,不相似度也为灰度值差异:
u=gi-gj,,
其中,gi为像素点i的灰度值,gj为像素点j的灰度值,u为像素点i和像素点j之间的不相似度;
将每个像素点进行分类,分类后的像素点分别形成区域;无向图为G=(V,E);
图像分割的过程其实就是将顶点V划分为一系列连通成分C的过程。令MST(C,E)表示为C的最小生成树;
定义一个区域内的类内差异:
Figure BDA0002185524110000101
其中,C为一系列连通成分,MST(C,E)为的最小生成树,IntraDif(C)为区域内最大的像素灰度值差异,即MST中最大边权值;
定义两个区域内的类间差异IntraDif(C1,C2),连接两个区域的所有边中最小灰度值差异,即连接两个区域的边的最小权值:
Figure BDA0002185524110000111
其中,w(vi,vj)为顶点vi和顶点vj之间的边所对应的权值;
定义容忍度范围:一开始当区域内只有一个像素点时,IntraDif(C1)和IntraDif(C2)都等于0,这将会导致一开始只有完全相同的像素点会合并,这会形成过分割的现象,所以设定一个容忍度,使其不会在初始情况下导致过分割,但是当区域合并到一定的程度下应去除这个容忍度范围的作用,定义容忍度范围为Γ(C):
Figure BDA0002185524110000112
其中,k为特定的常量参数,控制区域形成大小,|Cv|为连通区域内包含的顶点数;
当|Cv|越来越大即区域越来越大时,容忍度范围越来越小,效果就越来越小。
定义一个自适应阈值IntD(C1,C2),
IntD(C1,C2)=min(IntraDif(C1)+Γ(C1),IntraDif(C2)+Γ(C2))
其中,Γ(C)为对应连通区域的容忍度范围,IntraDif(C)为对应连通区域内的类内差异;
两区域是否合并用Merge(C1,C2)表示,则有:
Figure BDA0002185524110000113
其中,InterDif为两个区域内的类间差异,IntD(C1,C2)为自适应阈值;
对比两个像素点的不相似度,若不相似度大于自适应阈值,则两个像素点不合并;若不相似度小于自适应阈值,则两个像素点合并,形成连通图,即新的区域;进行迭代合并,最终得到所需分割区域;
其实施方法如下:
1)、将无向图的权值按升序进行排序;
2)、S0为初始分割状态,即将每个顶点都看作一个分割区域;
3)、每次处理一条边,重复4)的操作;
4)、根据上次Sm-1的分割区域,选择一条边e(vi,vj)。假如vi和vj不在同一个分割区域内,拿这条边的权值w(e(vi,vj))同两顶点所在的两个分割区域的最小类内差异IntD比较,如果w(e(vi,vj))<IntD,则合并两个区域,否则,不合并,即Sm=Sm-1
5)、最终得到所需分割区域。
双阈值分割法
利用全局阈值和局部阈值对图像进行分割。首先用全局阈值对图像进行初始分割,然后再用局部阈值对初始分割的目标区域进行二次分割。
基于阈值分割方法,具体如下:
使用统计方差计算出全局阈值,设m为灰度值,则灰度值为m的像素点个数为nm,则总像素点个数为N:
Figure BDA0002185524110000121
其中,m为灰度值[0,...,255],nm为灰度值是m的像素点个数,N为总像素点个数,
则有,灰度值出现的概率为:
Figure BDA0002185524110000122
其中,Pm为灰度值出现的概率;
假设阈值T0将红外图像初始分割为目标类Ct和背景类Cb
则目标类Ct的概率为:
Figure BDA0002185524110000123
背景类Cb的概率为:
Figure BDA0002185524110000124
目标类Ct的均值为:
Figure BDA0002185524110000125
背景类Cb的均值为:
Figure BDA0002185524110000126
则有目标类Ct和背景类Cb的方差为:
Figure BDA0002185524110000127
Figure BDA0002185524110000131
根据方差,计算出最佳全局阈值T1
Figure BDA0002185524110000132
通过最佳全局阈值T1对红外图像进行初步分割,像素灰度值大于阈值的划分为目标区域,反之,划分为背景区域;
Figure BDA0002185524110000133
其中,BinarI(x,y)为像素点二值化值,I(x,y)为像素原始灰度值,T1为最佳全局阈值;
局部阈值:
确定一个像素的分类可以由周围像素值获得的阈值决定,由于人通常是直立的,所以利用十字滑动窗口来获取该像素点邻近的像素信息,这样同时可以获得垂直和水平的像素信息。由于人的头部受衣着和环境的影响较小,所以人的头部总是能被初步分割准确的划分在目标区域,所以利用头部信息来判断头部以下部位的分类,使得分类更加的准确。
以像素点为中心的十字滑动窗口所包含的像素点有:
Figure BDA0002185524110000134
其中,N为十字滑动窗口包含的像素点数,nm为灰度值为m的像素个数,a为特定的常量;
使用十字滑动窗口扫描红外图像,找到目标区域内的像素点d(x,y),以该像素点为中心,利用统计方差计算十字滑动窗口范围内灰度值的局部阈值:
Figure BDA0002185524110000135
其中,σt10 2是被局部阈值分割后十字滑动窗口中目标区域所对应的方差,σb10 2是被局部阈值分割后十字滑动窗口中背景所对应的方差;
双阈值分割:
使用统计方差的方法计算出全局阈值对图像进行初步的分割,然后使用十字滑动窗口扫描图像,初步分割后的目标区域内的像素点对应的局部阈值,利用这两个阈值和头部划分区域信息对像素点进行分类。
根据局部阈值和头部划分区域得到目标区域像素点的准确划分:
Figure BDA0002185524110000141
其中,Binar(x,y-1)为该像素点的上方像素点的二值化值;
当局部阈值小于全局阈值时,当前像素点被划分为背景区域;当该像素点的灰度值大于局部阈值时,被划分为目标区域;当该像素点的灰度值小于局部阈值且大于全局阈值时,参考头部划分区域即Binar(x,y-1)的的值,若头部划分区域为目标区域即Binar(x,y-1)=1,则该像素点被划分为目标区域,反之,划分为背景区域。
级联图分割法,将基于图模型的快速图像分割方法和双阈值分割法级联:当被分割出的行人区域在两个分割方法中都存在时就将其视为候选区域,否则,视为背景区域。
第三步、对分割红外图像进行基于先验知识层级合并的候选区域列举,优先合并行人区域,并利用行人高宽比过滤候选区域,得到列举红外图像;
第四步、对列举红外图像进行第一特征提取,得到第一特征红外图像,并提取高低频图像;具体为:
搭建快读特征金字塔,采用快速特征金字塔对列举红外图像进行第一特征提取,得到第一特征红外图像,即通过快速特征金字塔对列举红外图像进行关键尺度变化,1/2、1/4,提取其对应的特征图:
Is=R(I,s),
其中,R(I,s)为对图像I进行尺度为s的缩放,Is为缩放后图像;
具体过程跟传统特征金字塔相同,剩余尺度的特征图由已有尺度的特征图近似估算得出:
Cs=R(C,s)·s-r
其中,R是由训练样本得到的经验值,Cs为对应尺度为的特征图;
相比传统特征金字塔先对图像进行尺度变换,然后对尺度变化后的图像进行特征提取得到对应尺度的特征图的方法,显著地减少了特征金字塔的计算时间
得到高低频图像,利用红外图像增强进行处理,并转化为灰度图。
第五步、利用基于改进的聚合通道方法进行第二特征提取,得到第二特征图像,引入统计转化直方图描述子和局部二值模式描述子,这里为引入CENTRIST描述子和LBP描述子,通过由加速的自适应增强分类器和支持向量机分类器组成的二级级联分类器进行分类,得到分类结果,进而得到行人检测结果,所述加速的自适应增强分类器为加速的Adaboost分类器;所述支持向量机分类器为SVM分类器。
聚合通道
通道特征是指图像在对应特征空间的取值,将不同的通道特征结合起来就形成了聚合通道,常见的有效的特征通道组合为梯度直方图+梯度幅值+LUV颜色通道,由于红外图像缺乏颜色通道特征,这里改进为6个梯度直方图+1个幅值+3个灰度图(含高低频)的组合,这里引入了红外高低频灰度图。具体实施流程如下:
对红外图像进行多尺度滤波处理得到其高低频图像,利用红外图像增强进行处理,并转化为灰度图;红外高频图像中包含丰富的纹理和边缘信息,但充满噪声;红外低频图像则包含丰富的轮廓信息,将其与6个梯度直方图+1个幅值+3个灰度图(含高低频)的组合,如图2所示。
流程具体为:
在聚合通道原有简单特征的基础上,引入CENTRIST描述子+LBP描述子,得到基于改进的聚合通道,利用基于改进的聚合通道方法进行第二特征提取,得到第二特征图像,引入统计转化直方图描述子和局部二值模式描述子,通过由加速的自适应增强分类器和支持向量机分类器组成的二级级联分类器进行分类,得到分类结果,最后的分类结果由加速的自适应增强分类器和支持向量机分类器的结果决定,如果两个分类器的分类结果均为行人,则最终分类结果为行人区域;反之,其中一分类器的分类或者两分类器结果为非行人,则最终分类结果为非行人区域,得到行人检测结果。
所述CENTRIST描述子获取过程如下:计算图像的索贝尔边缘图像,将获得的图像划分为n×n的小块Cell,定义滑动窗口为r×r个Cell的大块Block,然后对每个Block进行CT变换,即将中心像素与相邻像素的灰度值进行比较,若大于某一个相邻像素的灰度值,则为1,否则为0,并根据相邻像素值进行转化得到其CT值,进而得到相应的CT直方图,将不同的CT直方图合并得到CENTRIST描述子;所述LBP描述子获取过程如下:将图像划分为若干个小区域,对每个小区域进行LBP编码,得到该区域的LBP描述,用直方图表示,即将半径为R的圆形区域的中心像素与其余像素进行比较,若大于中心像素则标记为1,否则为0,将所得二进制数转换为十进制数,并用该值替代中心像素的灰度值,最后将各个小区域的直方图结合起来得到该图像的LBP描述子。
所述加速的Adaboost分类器训练和检测过程如下:
训练时选择的模板尺寸为[64,32],选用训练由M个弱分类器加权构成的强分类器,这里M为2048;在训练过程中,第一次迭代前赋予训练数据中的每个训练样本等同的权重,构成权重向量D,然后在此训练样本数据上训练出一个弱分类器并且计算该弱分类器的错误率;第一次训练后,调整样本数据中的每个训练样本的权重,其中第一次被弱分类器分对的训练样本权重会减小,而分错的训练样本权重则会增大,将新的调整了样本权重的训练数据进行第二次训练,得到第二个弱分类器;重复进行下一轮的迭代,Adaboost算法不断地更新训练样本的权重和重复训练,直到训练出的弱分类器的数目达到2048个之后停止训练;最后,将训练出的弱分类器加权之后得到强分类器,如图3所示;
Adaboost算法为每次迭代训练出的弱分类器赋予一个权重a,而a是由该弱分类器的错误率计算得到的,其中,错误率的定义为:
Figure BDA0002185524110000161
其中,εi为第i个弱分类器的错误率;
弱分类器对应的权重a的定义为:
Figure BDA0002185524110000162
其中,αi为第i个弱分类器对应的权重。
由上述式子得出,由于错误率是大于0.5小于1的值,所以当错误率增大时,a也是对应增大的,即弱分类器的错误率越大,则其被赋予的权重也越大,在进行下一次迭代训练前将根据上一次弱分类器的权重对训练样本权重向量D进行更新,使得错分的样本权重增加,被分对的样本权重减小,其中,权重更新的定义为:
假设某个训练样本被正确分类,则该样本的权重更新定义为:
Figure BDA0002185524110000171
其中,Dt (i+1)为第i+1次迭代训练时第t个样本对应的权重值,Dt (i)为第i次迭代训练时第t个样本对应的权重值,sum(D)为所有训练样本的权重值的加和;
假设某个训练样本被错误分类,则该样本的权重更新定义为:
Figure BDA0002185524110000172
其中,Dt (i+1)为第i+1次迭代训练时第t个样本对应的权重值,Dt (i)为第i次迭代训练时第t个样本对应的权重值,sum(D)为所有训练样本的权重值的加和;
计算出更新之后的D后,Adaboost算法又进行下一次迭代训练弱分类器,直到训练出M个弱分类器;
SVM分类器训练和检测过程如下:
将聚合通道提取的特征,输入到线性SVM分类器中,如下式,若输出f(x)>0,则判断为行人,反之则为非行人:
f(x)=WT·x+b,
其中,W是线性SVM的权值向量,x是输入的特征向量,b是偏移常量,f(x)是输入x的响应。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于双级级联分割的远红外行人检测方法,其特征在于,包括以下步骤:
S1、获取红外图像,对红外图像进行中值滤波和拉普拉斯微分处理,得到处理后红外图像;
S2、采用基于图模型的快速图像分割方法和阈值分割方法构成的二级级联图像分割方法,通过二级级联图像分割方法对处理后红外图像进行分割,得到分割红外图像;
所述基于图模型的快速图像分割方法包括:将红外图像定义为无向图,根据像素点之间的相似度进行迭代合得到所需分割区域;
所述阈值分割方法包括:通过方差计算出的阈值对图像进行分割得到分割区域;
所述基于图模型的快速图像分割方法和阈值分割方法构成的二级级联图像分割方法包括:当分割区域在基于图模型的快速图像分割方法和阈值分割方法中都存在时,将其视为候选区域,否则,视为背景区域,从而得到分割图像;
S3、对分割红外图像进行基于先验知识层级合并的候选区域列举,优先合并行人区域,并利用行人高宽比过滤候选区域,得到列举红外图像;
S4、对列举红外图像进行第一特征提取,得到第一特征红外图像,并提取高低频图像;
所述对列举红外图像进行第一特征提取,为通过快速特征金字塔对列举红外图像进行关键尺度变化的特征提取;所述第一特征,为通过快速特征金字塔对列举红外图像进行关键尺度变化的特征提取后得到的尺度特征;
S5、利用基于改进的聚合通道方法进行第二特征提取,得到第二特征图像,引入统计转化直方图描述子和局部二值模式描述子,通过由加速的自适应增强分类器和支持向量机分类器组成的二级级联分类器进行分类,得到分类结果,进而得到行人检测结果;所述基于改进的聚合通道方法为将梯度直方图特征通道、幅值特征通道、灰度图特征通道聚合形成特征通道组合;所述第二特征为通过基于改进的聚合通道方法进行特征提取所得到的通道特征。
2.根据权利要求1所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述中值滤波具体为:使用滑动窗口,将窗口中的像素值进行排序,用领域像素值的中值代替窗口中心点的像素值;所述拉普拉斯微分处理用于加强目标的轮廓和边缘。
3.根据权利要求2所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述步骤S1具体为:首先对红外图像进行一次中值滤波处理,抑制图像背景,然后再进行拉普拉斯微分处理,加强目标的轮廓和边缘,最后再对图像进行一次中值滤波处理,去除拉普拉斯微分处理后加强的噪声,最终得到处理后红外图像。
4.根据权利要求1所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述步骤S2具体如下:
基于图模型的快速图像分割方法,具体如下:
将红外图像定义为无向图,即每个像素点为一个顶点,每相邻像素点对之间存在一条边,并对应一个权值,其为像素点对之间的不相似度,不相似度也为灰度值差异:
u=gi-gj
其中,gi为像素点i的灰度值,gj为像素点j的灰度值,u为像素点i和像素点j之间的不相似度;
将每个像素点进行分类,分类后的像素点分别形成区域;无向图为G=(V,E);
定义一个区域内的类内差异:
Figure FDA0004055234590000021
其中,C为一系列连通成分,MST(C,E)为的最小生成树,IntraDif(C)为区域内最大的像素灰度值差异,即MST中最大边权值;
定义两个区域内的类间差异,连接两个区域的所有边中最小灰度值差异,即连接两个区域的边的最小权值:
Figure FDA0004055234590000022
其中,w(vi,vj)为顶点vi和顶点vj之间的边所对应的权值;
定义容忍度范围为Γ(C):
Figure FDA0004055234590000023
其中,k为特定常量常数,控制区域形成大小的参数;|Cv|为连通区域内包含的顶点数;
定义一个自适应阈值IntD(C1,C2),
IntD(C1,C2)=min(IntraDif(C1)+Γ(C1),IntraDif(C2)+Γ(C2)),
其中,Γ(C)为对应连通区域的容忍度范围,IntraDif(C)为对应连通区域内的类内差异;
两区域是否合并用Merge(C1,C2)表示,则有:
Figure FDA0004055234590000031
其中,InterDif为两个区域内的类间差异,IntD(C1,C2)为自适应阈值;
对比两个像素点的不相似度,若不相似度大于自适应阈值,则两个像素点不合并;若不相似度小于自适应阈值,则两个像素点合并,形成连通图,即新的区域;进行迭代合并,最终得到所需分割区域;
基于阈值分割方法,具体如下:
使用统计方差计算出全局阈值,设m为灰度值,则灰度值为m的像素点个数为nm,则总像素点个数为N:
Figure FDA0004055234590000032
其中,m为灰度值[0,...,255],nm为灰度值是m的像素点个数,N为总像素点个数,
则有,灰度值出现的概率为:
Figure FDA0004055234590000033
其中,Pm为灰度值出现的概率;
假设阈值T0将红外图像初始分割为目标类Ct和背景类Cb
则目标类Ct的概率为:
Figure FDA0004055234590000034
/>
背景类Cb的概率为:
Figure FDA0004055234590000035
目标类Ct的均值为:
Figure FDA0004055234590000036
背景类Cb的均值为:
Figure FDA0004055234590000037
则有目标类Ct和背景类Cb的方差为:
Figure FDA0004055234590000038
Figure FDA0004055234590000039
根据方差,计算出最佳全局阈值T1
Figure FDA0004055234590000041
其中,
Figure FDA0004055234590000042
是被局部阈值分割后目标区域所对应的方差,σb 2是被局部阈值分割后背景所对应的方差;
通过最佳全局阈值T1对红外图像进行初步分割,像素灰度值大于阈值的划分为目标区域,反之,划分为背景区域;
Figure FDA0004055234590000043
其中,BinarI(x,y)为像素点二值化值,I(x,y)为像素原始灰度值,T1为最佳全局阈值;
以像素点为中心的十字滑动窗口所包含的像素点有:
Figure FDA0004055234590000044
其中,(N为十字滑动窗口包含的像素点数,nm为灰度值为m的像素个数,a为特定的常量;
使用十字滑动窗口扫描红外图像,找到目标区域内的像素点d(x,y),以该像素点为中心,利用统计方差计算十字滑动窗口范围内灰度值的局部阈值:
Figure FDA0004055234590000045
其中,σt10 2是被局部阈值分割后十字滑动窗口中目标区域所对应的方差,σb10 2是被局部阈值分割后十字滑动窗口中背景所对应的方差;
根据局部阈值和头部划分区域得到目标区域像素点的准确划分:
Figure FDA0004055234590000046
其中,Binar(x,y-1)为该像素点的上方像素点的二值化值;
当局部阈值小于全局阈值时,当前像素点被划分为背景区域;当该像素点的灰度值大于局部阈值时,被划分为目标区域;当该像素点的灰度值小于局部阈值且大于全局阈值时,参考头部划分区域即Binar(x,y-1)的值,若头部划分区域为目标区域即Binar(x,y-1)=1,则该像素点被划分为目标区域,反之,划分为背景区域;
将基于图模型的快速图像分割方法和双阈值分割法级联:当被分割出的行人区域在两个分割方法中都存在时就将其视为候选区域,否则,视为背景区域。
5.根据权利要求1所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述行人高宽比在1:1.2到1:1.4之间。
6.根据权利要求1所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述步骤S4具体为:
搭建快读特征金字塔,采用快速特征金字塔对列举红外图像进行第一特征提取,得到第一特征红外图像,即通过快速特征金字塔对列举红外图像进行关键尺度变化,提取其对应的特征图:
Is=R(I,s),
其中,R(I,s)为对图像I进行尺度为s的缩放,Is为缩放后图像;
剩余尺度的特征图由已有尺度的特征图近似估算得出:
Cs=R(C,s)·s-r
其中,R是由训练样本得到的经验值,Cs为对应尺度为的特征图;
得到高低频图像,利用红外图像增强进行处理,并转化为灰度图。
7.根据权利要求1所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述步骤S5具体为:
在聚合通道原有简单特征的基础上,引入CENTRIST描述子+LBP描述子,得到基于改进的聚合通道,利用基于改进的聚合通道方法进行第二特征提取,得到第二特征图像,引入统计转化直方图描述子和局部二值模式描述子,通过由加速的自适应增强分类器和支持向量机分类器组成的二级级联分类器进行分类,得到分类结果,最后的分类结果由加速的自适应增强分类器和支持向量机分类器的结果决定,如果两个分类器的分类结果均为行人,则最终分类结果为行人区域;反之,其中一分类器的分类或者两分类器结果为非行人,则最终分类结果为非行人区域,得到行人检测结果。
8.根据权利要求7所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述CENTRIST描述子获取过程如下:计算图像的索贝尔边缘图像,将获得的图像划分为n×n的小块Cell,定义滑动窗口为r×r个Cell的大块Block,然后对每个Block进行CT变换,即将中心像素与相邻像素的灰度值进行比较,若大于某一个相邻像素的灰度值,则为1,否则为0,并根据相邻像素值进行转化得到其CT值,进而得到相应的CT直方图,将不同的CT直方图合并得到CENTRIST描述子;所述LBP描述子获取过程如下:将图像划分为若干个小区域,对每个小区域进行LBP编码,得到该区域的LBP描述,用直方图表示,即将半径为R的圆形区域的中心像素与其余像素进行比较,若大于中心像素则标记为1,否则为0,将所得二进制数转换为十进制数,并用该值替代中心像素的灰度值,最后将各个小区域的直方图结合起来得到该图像的LBP描述子。
9.根据权利要求7所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述加速的自适应增强分类器为加速的Adaboost分类器;所述支持向量机分类器为SVM分类器。
10.根据权利要求9所述的一种基于双级级联分割的远红外行人检测方法,其特征在于,所述加速的Adaboost分类器训练和检测过程如下:
训练时选择的模板尺寸为[64,32],选用训练由M个弱分类器加权构成的强分类器;在训练过程中,第一次迭代前赋予训练数据中的每个训练样本等同的权重,构成权重向量D,然后在此训练样本数据上训练出一个弱分类器并且计算该弱分类器的错误率;第一次训练后,调整样本数据中的每个训练样本的权重,其中第一次被弱分类器分对的训练样本权重会减小,而分错的训练样本权重则会增大,将新的调整了样本权重的训练数据进行第二次训练,得到第二个弱分类器;重复进行下一轮的迭代,Adaboost算法不断地更新训练样本的权重和重复训练,直到训练出的弱分类器的数目达到M个之后停止训练;最后,将训练出的弱分类器加权之后得到强分类器;
Adaboost算法为每次迭代训练出的弱分类器赋予一个权重a,而a是由该弱分类器的错误率计算得到的,其中,错误率的定义为:
Figure FDA0004055234590000061
其中,εi为第i个弱分类器的错误率;
弱分类器对应的权重a的定义为:
Figure FDA0004055234590000062
其中,αi为第i个弱分类器对应的权重;
由上述式子得出,由于错误率是大于0.5小于1的值,所以当错误率增大时,a也是对应增大的,即弱分类器的错误率越大,则其被赋予的权重也越大,在进行下一次迭代训练前将根据上一次弱分类器的权重对训练样本权重向量D进行更新,使得错分的样本权重增加,被分对的样本权重减小,其中,权重更新的定义为:
假设某个训练样本被正确分类,则该样本的权重更新定义为:
Figure FDA0004055234590000063
其中,
Figure FDA0004055234590000071
为第i+1次迭代训练时第t个样本对应的权重值,Dt (i)为第i次迭代训练时第t个样本对应的权重值,sum(D)为所有训练样本的权重值的加和;/>
假设某个训练样本被错误分类,则该样本的权重更新定义为:
Figure FDA0004055234590000072
其中,
Figure FDA0004055234590000073
为第i+1次迭代训练时第t个样本对应的权重值,Dt (i)为第i次迭代训练时第t个样本对应的权重值,sum(D)为所有训练样本的权重值的加和;
计算出更新之后的D后,Adaboost算法又进行下一次迭代训练弱分类器,直到训练出M个弱分类器;
SVM分类器训练和检测过程如下:
将聚合通道提取的特征,输入到线性SVM分类器中,如下式,若输出f(x)>0,则判断为行人,反之则为非行人:
f(x)=WT·x+b,
其中,W是线性SVM的权值向量,x是输入的特征向量,b是偏移常量,f(x)是输入x的响应。
CN201910812839.8A 2019-08-30 2019-08-30 一种基于双级级联分割的远红外行人检测方法 Active CN110706235B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910812839.8A CN110706235B (zh) 2019-08-30 2019-08-30 一种基于双级级联分割的远红外行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910812839.8A CN110706235B (zh) 2019-08-30 2019-08-30 一种基于双级级联分割的远红外行人检测方法

Publications (2)

Publication Number Publication Date
CN110706235A CN110706235A (zh) 2020-01-17
CN110706235B true CN110706235B (zh) 2023-05-23

Family

ID=69193766

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910812839.8A Active CN110706235B (zh) 2019-08-30 2019-08-30 一种基于双级级联分割的远红外行人检测方法

Country Status (1)

Country Link
CN (1) CN110706235B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223009B (zh) * 2021-04-16 2023-10-17 北京戴纳实验科技有限公司 一种衣着检测系统
CN113657460A (zh) * 2021-07-28 2021-11-16 上海影谱科技有限公司 一种基于Boosting的属性识别方法及装置
CN115205902B (zh) * 2022-07-15 2023-06-30 宜宾学院 基于Fast-RCNN和联合概率数据关联滤波器的行人检测方法
CN116433657B (zh) * 2023-06-08 2023-08-25 金乡县明耀玻璃有限公司 一种基于计算机视觉的钢化玻璃划伤区域图像增强方法
CN116996673B (zh) * 2023-09-28 2023-11-24 深圳市铁军智能科技有限公司 基于通行出入管理及设备运行状态的智能云端管理系统
CN117557583B (zh) * 2024-01-10 2024-03-15 江苏锡澄环境科学研究院有限公司 基于图像处理的电泳线废水处理效果视觉检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198332A (zh) * 2012-12-14 2013-07-10 华南理工大学 一种实时鲁棒的远红外车载行人检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008151471A1 (fr) * 2007-06-15 2008-12-18 Tsinghua University Procédé de positionnementrobuste et précis de l'oeil dans une image d'arrière-plan compliquée
KR102021152B1 (ko) * 2013-05-07 2019-09-11 현대모비스 주식회사 원적외선 카메라 기반 야간 보행자 인식 방법
US9894255B2 (en) * 2013-06-17 2018-02-13 Industrial Technology Research Institute Method and system for depth selective segmentation of object
CN104751474A (zh) * 2015-04-13 2015-07-01 上海理工大学 一种级联式快速图像缺陷分割方法
US10552962B2 (en) * 2017-04-27 2020-02-04 Intel Corporation Fast motion based and color assisted segmentation of video into region layers
CN110111338B (zh) * 2019-04-24 2023-03-31 广东技术师范大学 一种基于超像素时空显著性分割的视觉跟踪方法
CN110136131A (zh) * 2019-05-24 2019-08-16 贵州电网有限责任公司 一种基于深度学习的零值绝缘子检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198332A (zh) * 2012-12-14 2013-07-10 华南理工大学 一种实时鲁棒的远红外车载行人检测方法

Also Published As

Publication number Publication date
CN110706235A (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
CN110706235B (zh) 一种基于双级级联分割的远红外行人检测方法
CN107316031B (zh) 用于行人重识别的图像特征提取方法
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN108268859A (zh) 一种基于深度学习的人脸表情识别方法
CN107729812B (zh) 一种适用于监控场景中的车辆颜色识别的方法
Romdhane et al. An improved traffic signs recognition and tracking method for driver assistance system
CN109918971B (zh) 监控视频中人数检测方法及装置
CN106886778B (zh) 一种监控场景下车牌字符分割与识别方法
CN109255326B (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN107315990B (zh) 一种基于xcs-lbp特征的行人检测算法
CN111967511A (zh) 一种基于异构特征融合网络的地基云图分类方法
Yao et al. Coupled multivehicle detection and classification with prior objectness measure
Do et al. Speed limit traffic sign detection and recognition based on support vector machines
Barodi et al. An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement
CN112686248B (zh) 证件增减类别检测方法、装置、可读存储介质和终端
CN111461002B (zh) 一种面向热成像行人检测的样本处理方法
Karungaru et al. Road traffic signs recognition using genetic algorithms and neural networks
CN112070116B (zh) 一种基于支持向量机的艺术画作自动分类系统及方法
Sridevi et al. Vehicle identification based on the model
CN107341456B (zh) 一种基于单幅户外彩色图像的天气晴阴分类方法
JP2017228297A (ja) テキスト検出方法および装置
Misman et al. Camera-based vehicle recognition methods and techniques: Systematic literature review
Brehar et al. A study of the impact of HOG and LBP based temporal association on far infrared pedestrian detection
CN109190547B (zh) 快速高效的行人检测方法
Yunzhou et al. Real-time vehicle detection in highway based on improved Adaboost and image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240228

Address after: Room 1304, Building 1, Zone 9, No. 11 Hanxing Fifth Street, Zhongcun Street, Panyu District, Guangzhou City, Guangdong Province, 511495

Patentee after: Guangzhou Tonglue Holdings Co.,Ltd.

Country or region after: China

Address before: 510642 No. five, 483 mountain road, Guangzhou, Guangdong, Tianhe District

Patentee before: SOUTH CHINA AGRICULTURAL University

Country or region before: China

TR01 Transfer of patent right