CN105118073A - 基于Xtion摄像机的人体头部目标识别方法 - Google Patents
基于Xtion摄像机的人体头部目标识别方法 Download PDFInfo
- Publication number
- CN105118073A CN105118073A CN201510512475.3A CN201510512475A CN105118073A CN 105118073 A CN105118073 A CN 105118073A CN 201510512475 A CN201510512475 A CN 201510512475A CN 105118073 A CN105118073 A CN 105118073A
- Authority
- CN
- China
- Prior art keywords
- head
- xtion
- human body
- target
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于Xtion摄像机的人体头部目标识别方法,其特征在于,包括以下步骤:硬件平台的搭建:将一个Xtion摄像机放置在待拍摄目标场景的正上方;采用Xtion摄像机获得目标场景的原始深度图像;对原始深度图像根据人体头部目标的灰度和几何特征,进行头部目标区域识别;对头部目标区域进行头部分割。
Description
技术领域
本发明涉及运动目标的检测和跟踪技术,特别一种基于Xtion摄像机的人体头部目标识别方法。
背景技术
人体目标检测是人体运动分析的基础,同时也是至关重要的部分。基于图像处理的目标检测是一项较新的技术,近年来,也取得了较大的进展。由Haritaoglu等人提出的W4(即who、When、Where、What)系统,可以进行多个人体目标的检测与跟踪。CMU提出的VASM是一个跟踪人体和运动目标的发展系统。Kang和Lee提出了可以解决多人遮挡问题的人体目标跟踪系统。总的来说,目前大多数研究都属于对单个摄像机拍摄到的视频图像进行处理的过程。
视频图像中人体目标检测常用的方法有相邻帧差法、光流法、背景减法等。相邻帧差法是对视频图像中相邻两帧图像做差分计算,将得到的差分结果和预先设定的阈值作比较,从而判断是否为运动目标。相邻帧差法算法简单易实现,但是相隔时间较短且当运动目标变化较慢时,相邻两帧图像间重叠较多,重叠部分不易被检测,造成目标检测的不完整。此外两帧图像之间存在的灰度的差异也会造成目标检测的误差,影响结果的精度。光流法是根据运动目标随时间变化的光流特性来计算视频图像序列的光流场,并根据目标的特点来实现目标检测的方法。光流法进行目标检测的优点在于即使在摄像机移动的情况下,也可以较为准确的从复杂背景中检测到运动目标,但是光流法算法过程复杂,计算量较大,很难实现实时检测。背景减法是首先得到一个背景模型,然后将每帧图像与当前背景作差分得到运动目标。缺点在于当背景模型不能及时更新时,将对检测结果造成直接的影响。上述这些方法都是基于二位图像处理的目标检测。综上可知,该类算法对视频图像的要求比较高,容易受到背景的影响,且光照变化、光照产生的阴影对系统算法设计以及精度影响较大,通用性较差,均很难实现较高精度的实时监测。
发明内容
本发明的目的在于提供一种基于Xtion摄像机的人体头部目标识别方法,其特征在于,包括以下步骤:
步骤S101,硬件平台的搭建:将一个Xtion摄像机放置在待拍摄目标场景的正上方;
步骤S102,采用Xtion摄像机获得目标场景的原始深度图像;
步骤S103,对原始深度图像根据人体头部目标的灰度和几何特征,进行头部目标区域识别;
步骤S104,对头部目标区域进行头部分割。
采用上述方法,步骤S103中的所述人体头部识别包括:
步骤S1031,采用Matlab软件对原始深度图像进行取反,然后利用伪彩色算法显示取反后的深度图像对应的三维直方图;
步骤S1032,根据三维直方图,选取原始深度图像中局部最高点所在的区域作为目标区域;
步骤S1033,确定灰度突变值和头部总像元的宽高比,其中灰度突变值g=h/α,h为头顶到肩部的最长距离,α为Xtion摄像机的空间深度距离与相应灰度值之间的转换系数,头部总像元的宽高比范围为[0.65,1.5];
步骤S1034,若目标区域存在灰度突变值及目标区域的宽高比落入头部总像元的宽高比中,则该目标区域为头部区域。
采用上述方法,步骤S104中的所述对头部目标区域进行头部分割包括:选取分割图像的阈值,对目标区域,区域中不低于阈值的像素点构成疑似头部区域,低于阈值的像素点构成非头部区域。
本发明与现有技术相比,具有以下优点:(1)采用自顶向下的拍摄方式获得目标场景深度图像,即使在人流拥挤的情况下,头部和头部之间还存在一定空隙,可以有效避免人流的遮挡、重叠等现象;(2)深度图像的像素灰度值大小只与图像上的点到传感器的距离有关,与外界光照条件无关,因此图像质量不受外界光照条件的影响;(3)利用深度信息快速找到疑似头部目标,减少搜索范围,提高识别速度。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为本发明的方法流程图。
图2为本发明Xtion摄像机最优布置示意图。
具体实施方式
结合图1,一种基于Xtion摄像机的人体头部目标识别方法,其特征在于,包括以下步骤:
步骤S101,硬件平台的搭建:将一个Xtion摄像机放置在待拍摄目标场景的正上方;
步骤S102,采用Xtion摄像机获得目标场景的原始深度图像;
步骤S103,对原始深度图像根据人体头部目标的灰度和几何特征,进行头部目标区域识别;
步骤S104,对头部目标区域进行头部分割。
结合图2,在步骤S101中,Xtion摄像机放置在待拍摄目标场景的正上方20.5m处。
在步骤S103中的所述人体头部识别包括:
根据得到的原始深度图像的灰度值信息以及像素灰度值大小与距离的转换关系式(1),即可知道场景图像中的每一个像素点到传感器之间的距离:
H=α×G(1)
式(1)中,H表示空间某点和传感器摄像窗口的距离。α是空间深度距离与相应灰度值之间的转换系数,G表示深度图像中的像素灰度值大小。
采用Matlab软件对原始深度图像进行取反,然后利用伪彩色算法显示取反后的深度图像对应的三维直方图。
分析三维直方图可知,像素信息大量堆积于头部,且头肩存在一定的高度差,所以头肩的深度信息会存在一个突变值。即使在拥挤的情况下,头部与头部之间还存在空隙。此外,头部满足一定的面积且是闭合的类圆连通域。在本文实验条件下(摄像机架设高度为2.5米),头部总像元的宽高比w/h的范围是[0.65,1.5],其中,w表示头部总像元的宽度,h表示头部总像元的高度。再以头部最高点为起点,根据式(1),假设头顶到肩部的最长距离为h,那么可以得到灰度的突变值g=h/α。若目标区域存在灰度突变值及目标区域的宽高比落入头部总像元的宽高比中,则该目标区域为头部区域。
在步骤S104之前,采用MeanShift算法对头部目标区域进行预处理,具体为:
首先计算图像中的任一像素点x的概率密度,采用的方法如下:xi为以x为圆心,h为半径的圆形区域中的一个点,定义二个规则:
1)x像素点的颜色与xi像素点颜色越相近,概率密度越高;
2)x像素点与xi像素点距离越近,概率密度越高。
总的概率密度为两个规则概率密度乘积的结果,用式(2)表示:
其中C表示归一化常数,hs,hr为核函数的窗口大小,用来控制平滑的程度。hs是距离核函数,控制子窗口的大小,代表空间位置信息,离xi越近,其值就越大。hr是颜色核函数,是颜色差值的阈值,表示颜色信息,颜色越相似,其值越大。
接下来计算每一个目标区域中任一点x的MeanShift向量,其中,MeanShift向量定义如下:
对于给定d维空间Rd中的n个样本点xi(i=1,…,n),x点处的MeanShift向量计算公式为式(3)
式中,Sh为由所有满足式(4)的y点的集合构成的半径为h的高维球区域
Sh(x)={y:(y-x)T(y-x)≤h2}(4)
其中,k表示在n个样本点组成的xi中,有k个点落入Sh区域中。
在每一个目标区域中,任选一点x作为圆心(其中x由概率密度函数采集得到),以h为半径做一个圆。此时所有落在圆内的点和x会产生一个向量,以x为起点,以所有落在圆内的点为终点,将这些向量相加,得到一个MeanShift向量,接着再以MeanShift向量的终点为圆心,重复以上计算,MeanShift向量可以收敛到概率密度最大的地方。通过MeanShift进行图像聚类处理,可以得到清晰的图像边缘,可以实现更精确的图像分割。
在步骤S104中的所述对头部目标区域进行头部分割包括:选取分割图像的阈值,对目标区域,区域中不低于阈值的像素点构成疑似头部区域,低于阈值的像素点构成非头部区域。
利用Matlab图像处理软件显示步骤3预处理过的图像的三维直方图,分析直方图中像素值的分布,可知,目标区域像素大量堆积于头部和肩部。以图像中像素局部最高点的集合以及像素差值小于设定值的邻域一起作为目标图像块。对每一个图像块以灰度级t作为阈值分割头部和非头部区域。邻域中像素值高于t的像素点构成头部区域,像素值低于t的像素点构成非头部区域。那么,非头部和头部区域的熵分别为HB和Ho:
其中,pi表示图象中灰度值为i的像素所占的比例,t为分割图像的阈值,且 为两个熵函数之和,当取得最大值时,t即为局部分割阈值。最后将分割后的图像进行二值化处理,得到清晰的头部目标区域。
Claims (6)
1.一种基于Xtion摄像机的人体头部目标识别方法,其特征在于,包括:
硬件平台的搭建:将一个Xtion摄像机放置在待拍摄目标场景的正上方;
采用Xtion摄像机获得目标场景的原始深度图像;
对原始深度图像根据人体头部目标的灰度和几何特征,进行头部目标区域识别;
对头部目标区域进行头部分割。
2.根据权利要求1所述的基于Xtion摄像机的人体头部目标识别方法,其特征在于,Xtion摄像机设置于目标场景正上方2.5米处高度。
3.根据权利要求2所述的基于Xtion摄像机的人体头部目标识别方法,其特征在于,所述人体头部识别包括:
步骤1,采用Matlab软件对原始深度图像进行取反,然后利用伪彩色算法显示取反后的深度图像对应的三维直方图;
步骤2,根据三维直方图,选取原始深度图像中局部最高点所在的区域作为目标区域;
步骤3,确定灰度突变值和头部总像元的宽高比,其中灰度突变值g=h/α,h为头顶到肩部的最长距离,α为Xtion摄像机的空间深度距离与相应灰度值之间的转换系数,头部总像元的宽高比范围为[0.65,1.5];
步骤4,若目标区域存在灰度突变值及目标区域的宽高比落入头部总像元的宽高比中,则该目标区域为头部区域。
4.根据权利要求1所述的基于Xtion摄像机的人体头部目标识别方法,其特征在于,所述对头部目标区域进行头部分割包括:选取分割图像的阈值,对目标区域,区域中不低于阈值的像素点构成疑似头部区域,低于阈值的像素点构成非头部区域。
5.根据权利要求4所述的基于Xtion摄像机的人体头部目标识别方法,其特征在于,所述分割图像的阈值通过下式获得:
其中,pi表示图象中灰度值为i的像素所占的比例,灰度级t为分割图像的阈值,HB表示图像中非头部区域的的一元灰度熵,Ho表示图像中头部区域的一元灰度熵,为两个熵函数之和,当取得最大时。
6.根据权利要求1所述的基于Xtion摄像机的人体头部目标识别方法,其特征在于,该方法还包括采用MeanShift算法对头部目标区域进行预处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510512475.3A CN105118073A (zh) | 2015-08-19 | 2015-08-19 | 基于Xtion摄像机的人体头部目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510512475.3A CN105118073A (zh) | 2015-08-19 | 2015-08-19 | 基于Xtion摄像机的人体头部目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105118073A true CN105118073A (zh) | 2015-12-02 |
Family
ID=54666046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510512475.3A Pending CN105118073A (zh) | 2015-08-19 | 2015-08-19 | 基于Xtion摄像机的人体头部目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105118073A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107613269A (zh) * | 2017-11-01 | 2018-01-19 | 韦彩霞 | 一种监控效果好的安防监控系统 |
WO2018053763A1 (zh) * | 2016-09-22 | 2018-03-29 | 深圳大学 | 一种图像识别方法和装置 |
CN107861510A (zh) * | 2017-11-01 | 2018-03-30 | 龚土婷 | 一种智能车辆驾驶系统 |
CN109697444A (zh) * | 2017-10-20 | 2019-04-30 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070165931A1 (en) * | 2005-12-07 | 2007-07-19 | Honda Motor Co., Ltd. | Human being detection apparatus, method of detecting human being, and human being detecting program |
CN104751491A (zh) * | 2015-04-10 | 2015-07-01 | 中国科学院宁波材料技术与工程研究所 | 一种人群跟踪及人流量统计方法及装置 |
-
2015
- 2015-08-19 CN CN201510512475.3A patent/CN105118073A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070165931A1 (en) * | 2005-12-07 | 2007-07-19 | Honda Motor Co., Ltd. | Human being detection apparatus, method of detecting human being, and human being detecting program |
CN104751491A (zh) * | 2015-04-10 | 2015-07-01 | 中国科学院宁波材料技术与工程研究所 | 一种人群跟踪及人流量统计方法及装置 |
Non-Patent Citations (2)
Title |
---|
尹章芹: "三维自动客流计数系统设计", 《中国优秀硕士学位论文全文数据库》 * |
王小鹏等: "基于最大熵分割和肤色模型的人眼定位", 《计算机工程》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018053763A1 (zh) * | 2016-09-22 | 2018-03-29 | 深圳大学 | 一种图像识别方法和装置 |
CN109697444A (zh) * | 2017-10-20 | 2019-04-30 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
CN109697444B (zh) * | 2017-10-20 | 2021-04-13 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
CN107613269A (zh) * | 2017-11-01 | 2018-01-19 | 韦彩霞 | 一种监控效果好的安防监控系统 |
CN107861510A (zh) * | 2017-11-01 | 2018-03-30 | 龚土婷 | 一种智能车辆驾驶系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching | |
CN102214291B (zh) | 一种快速准确的基于视频序列的人脸检测跟踪方法 | |
CN103971386B (zh) | 一种动态背景场景下的前景检测方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
Dai et al. | Multi-task faster R-CNN for nighttime pedestrian detection and distance estimation | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN103310444B (zh) | 一种基于头顶摄像头的监控行人计数的方法 | |
CN106128121B (zh) | 基于局部特征分析的车辆排队长度快速检测算法 | |
CN105488815A (zh) | 一种支持目标尺寸变化的实时对象跟踪方法 | |
CN106485735A (zh) | 基于立体视觉技术的人体目标识别与跟踪方法 | |
CN102609724B (zh) | 一种基于双摄像头的周围环境信息提示方法 | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN103605953A (zh) | 基于滑窗搜索的车辆兴趣目标检测方法 | |
CN103514432A (zh) | 人脸特征提取方法、设备和计算机程序产品 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
Cai et al. | Counting people in crowded scenes by video analyzing | |
CN107301376B (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN101924871A (zh) | 基于均值偏移的视频目标跟踪方法 | |
CN104835182A (zh) | 摄像机上实现动态目标实时跟踪的方法 | |
CN104517095A (zh) | 一种基于深度图像的人头分割方法 | |
CN104050685A (zh) | 基于粒子滤波视觉注意力模型的运动目标检测方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN106023249A (zh) | 一种基于局部二值相似性模式的运动目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20151202 |