CN105678779B - 基于椭圆匹配的人体朝向角度实时检测方法 - Google Patents
基于椭圆匹配的人体朝向角度实时检测方法 Download PDFInfo
- Publication number
- CN105678779B CN105678779B CN201610024401.XA CN201610024401A CN105678779B CN 105678779 B CN105678779 B CN 105678779B CN 201610024401 A CN201610024401 A CN 201610024401A CN 105678779 B CN105678779 B CN 105678779B
- Authority
- CN
- China
- Prior art keywords
- human body
- angle
- shoulder
- point set
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一种基于椭圆匹配的人体朝向角度实时检测方法,首先通过从参考图像中得到参考前景区域的非对称椭圆模型的参数,然后在任意朝向角度下采集得到肩膀横截面点集,并基于非对称椭圆模型生成非对称椭圆模型点集,最后通过匹配相邻两帧之间的肩膀横截面点集和不对称椭圆模型点集,得到人体朝向角度;根据本方法可实现实时且精确至1°的人体朝向检测。
Description
技术领域
本发明涉及的是一种计算机图形处理领域的技术,具体是一种基于椭圆匹配的人体朝向角度实时检测方法。
背景技术
在计算机视觉领域中,人体检测、人体姿态检测、人体行为识别均是非常重要的课题。这里所说的人物包括人体及其各个组成部分,如手臂、手指、躯干等都属于其中的一个部分。这些技术都可以应用在人们的日常生活中,给人们的生活带来便利。运动人物分析从包含人的图像序列中检测、跟踪与识别人或人体的某一部分,并进一步分析理解人的运动行为。对人体朝向角度的识别有非常重要的意义。其一,人体的朝向角度本身就是一种人的运动行为;其二,人体的朝向角度可以作为一种中间信息,帮助理解更复杂的人的运动行为。
经过对现有技术的文献检索发现,Shotton等人在《Communications of the ACM》2013年第56卷第1期上发表的论文“Real-time human pose recognition in parts fromsingle depth images”提出了使用随机森林的方法实时获得整体人体骨架,进而可以通过两肩膀骨架点得到人体朝向姿态。但是该方法在人体侧身或转身时骨架提取精确度较低,朝向估计不准。鹿建国在《微型机与应用》2010年第29卷第12期上发表的论文《多目及单目环境下的人体朝向分析》中采用色度分析与灰度分析相结合的方法,计算肤色区域和人体前景图的关系,得到人体的朝向。当然,该方法得到的朝向只能是大概的估计,不能得到朝向的精确角度。
因此,对上述现有技术的问题分析促使我们去寻找一种更加精确的人体朝向角度估计方法,使其能够应对复杂的场景和环境,并有较高的估计精度。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于椭圆匹配的人体朝向角度实时检测方法,通过用椭圆模型匹配人体肩膀处的景深数据来得到最佳匹配椭圆的倾斜角,该角度即为人体朝向角度;本发明可实现精确至1°的人体朝向检测。
本发明是通过以下技术方案实现的:
本发明首先通过从参考图像中得到参考前景区域的非对称椭圆模型的参数,然后在任意朝向角度下采集得到肩膀横截面点集,并基于非对称椭圆模型生成非对称椭圆模型点集,最后通过匹配相邻两帧之间的肩膀横截面点集和不对称椭圆模型点集,得到人体朝向角度。
所述方法具体包括以下步骤:
步骤一,通过深度摄像头采集人体纯正面,即没有朝向角度、双臂垂直放于人体两侧时的景深帧作为参考图像,并从中提取得到参考点集数据和参考前景区域,即人体外轮廓,计算得到非对称椭圆模型的参数。
步骤二,通过深度摄像头采集任意朝向角度的景深帧,并从中提取得到景深帧和人体前景区域及其中的肩部坐标、两个肩部坐标构成的线段上的景深点(肩膀横截面点集),计算肩膀横截面点集的中心点,并将该中心点作为坐标系的新原点。
步骤三,根据步骤一得到的非对称椭圆模型的参数,采集非对称椭圆模型点集并与肩膀横截面点集进行基于参考图像原点和步骤二得到新原点的匹配,根据匹配结果得到人体朝向角度。
技术效果
与现有技术相比,本发明所述的方法比较精确地测量出人体朝向的角度。现有方法只能定性地估计出人体大致朝向,即向左还是向右;而本方法可以测量出人体朝向的准确角度,设置的测量精度为1°。而且可以测量360°中任意朝向,同时本发明所述的方法平均耗时仅5.6ms,可以在实时的系统中使用。
附图说明
图1是人体肩膀横截面非对称椭圆模型;
图2是提取人体肩膀宽度的示意图;
图3是提取的人体不同姿态下的人体肩膀景深数据;
图4是本发明方法流程图。
具体实施方式
如图4所示,本实施例包括以下步骤:
步骤一,通过深度摄像头采集人体纯正面,即没有朝向角度、双臂垂直放于人体两侧时的景深帧作为参考图像,并从中提取得到参考点集数据和参考前景区域,即人体外轮廓,计算得到非对称椭圆模型的参数,具体步骤为:
所述的参考图像位于的坐标系为:x轴为宽度方向、y轴为高度方向。
所述的参考前景区域在参考图像内的像素值即该点景深,参考前景区域外的像素值为0。
本实施例中,采用微软公司出品的Kinect摄像头(dev.windows.com/en-us/kinect)进行景深帧的采集,并进行景深提取。
1.1统计参考前景区域内每列像素点的个数,并找到每列像素点个数最大值l,即得参考前景区域的高度;
1.2从参考前景区域的任意一侧向中间查看每列像素点的个数,当该列个数大于阈值时,设定该列为一侧肩膀边缘点x坐标x1;采用相同方法从另一侧进行阈值筛选,得到了另一侧肩膀边缘点x坐标x2;在x=x1和x=x2列中各选择一个人体前景参考点,并使用Kinect SDK的函数转换到三维空间中得到该两个人体前景参考点的坐标(xp1,yp1,zp1)和(xp2,yp2,zp2),计算得到参考肩膀宽度w=|xp1-xp2|;
1.3在两个肩部坐标(x1,λl)和(x2,λl)之间的线段上寻找景深最大值depmax和最小值depmin,得到非对称椭圆模型的参数,即:长半轴前短半轴b1=1.2×|depmax-depmin|和后短半轴b2=1.5×|depmax-depmin|,其中:l为1.1中的参考前景区域的高度,λl为肩膀高度位置,λ是[0,1]之间的比例系数。
所述的非对称椭圆是指:以x轴为对称轴,该椭圆的两侧短半轴不相同。
本实施例中比例系数取0.75。
步骤二,通过深度摄像头采集若干任意朝向角度的景深帧,对于其中一帧I中的景深帧及人体前景区域(由摄像头直接提供),根据步骤一中的比例系数λ计算得到任意朝向角度下的肩部坐标,以两个肩部坐标构成的线段上的景深点即为肩膀横截面点集P,使用Kinect SDK将这些点转换到三维空间中的x-z平面上;计算肩膀横截面点集P的中心点(xm,zm),并将该点作为坐标系的新原点。
由于景深帧是一个二维图像,可以将其数据转换到三维空间中,因此上述景深点即为景深帧里的像素点,从而得到对应点集。
步骤二处理的景深帧与步骤一采集的景深帧源自同一拍摄对象。
步骤三,根据步骤一得到的非对称椭圆模型的参数,采集非对称椭圆模型点集并与肩膀横截面点集进行基于参考图像原点和步骤二得到新原点的匹配,根据匹配结果得到人体朝向角度,具体步骤如下:
3.1分别以a为长半轴、b1、b2为短半轴、中心点为原点、x轴为对称轴的非对称椭圆模型为范围进行均匀采样,得到非对称椭圆模型点集Pm;
3.2以景深帧I的前一帧检测得到的旋转角度为初始值作为静态初始旋转角度,如果当前帧是第一帧,则以0°为静态初始旋转角度进行计算,对肩膀横截面点集P和非对称椭圆模型点集Pm进行匹配,得到静态旋转角度θstill以及静态匹配误差εstill;
3.3取肩膀横截面点集P中距离步骤二中新原点最远的点,计算新原点到该点的向量与x轴之间的夹角θ2,以该夹角θ2作为动态初始旋转角度,对肩膀横截面点集P和非对称椭圆模型点集Pm进行匹配,得到动态旋转角度θmotion以及动态匹配误差εmotion。
所述的匹配,具体步骤包括:
i)设置旋转角度搜索范围为初始旋转角度±45°,计算以5°为搜索间隔的旋转角度下两个点集之间的匹配误差;
ii)将步骤3.1中得到的非对称椭圆模型点集Pm旋转当前搜索角度,遍历寻找肩膀横截面点集P中每个点离Pm距离最近的对应点,并计算该距离的平方和作为此旋转角度下的匹配误差;
iii)搜索最小的两个匹配误差对应的旋转角度,记为θ1'和θ1”,其中θ1'<θ1”;
iv)将旋转角度搜索范围缩小至[θ1',θ1”],计算以1°为搜索间隔的旋转角度下两个点集之间的匹配误差,即重复ii)操作,搜索得到其中最小的匹配误差及其对应的旋转角度,即匹配结果。
3.4当εstill<εmotion,则截面朝向角度为静态旋转角度θstill,否则截面朝向角度为动态旋转角度θmotion;
3.5在距离肩膀横截面的上方和下方λ'l位置处各取一个横截面,提取该横截面上的点,使用Kinect SDK转换到三维空间中的x-z平面上,重复3.1至3.4的操作并得到该两个横截面对应的截面朝向角度,以三个横截面的截面朝向角度平均值作为人体朝向角度,其中:λ'是[0,1]之间的比例系数。
本实施例中上述比例系数取0.05。
与现有技术相比,本方法比较精确地测量出人体朝向的角度。实验表明,鹿建国在《微型机与应用》2010年第29卷第12期上发表的论文《多目及单目环境下的人体朝向分析》的算法只能定性地估计出人体大致朝向,即向左还是向右;而本方法可以测量出人体朝向的准确角度,设置的测量精度为1°。而且可以测量360°中任意朝向,由于上述算法。同时经过测试,本方法平均耗时仅5.6ms,可以在实时的系统中使用。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (8)
1.一种基于椭圆匹配的人体朝向角度实时检测方法,其特征在于,首先通过从参考图像中得到参考前景区域的非对称椭圆模型的参数,然后在任意朝向角度下采集得到肩膀横截面点集,并基于非对称椭圆模型生成非对称椭圆模型点集,最后通过匹配相邻两帧之间的肩膀横截面点集和不对称椭圆模型点集,得到人体朝向角度;
所述方法具体步骤如下:
步骤一,通过深度摄像头采集人体纯正面,即没有朝向角度、双臂垂直放于人体两侧时的景深帧作为参考图像,并从中提取得到参考点集数据和参考前景区域,即人体外轮廓,计算得到非对称椭圆模型的参数;
步骤二,通过深度摄像头采集任意朝向角度的景深帧,并从中提取得到景深帧和人体前景区域及其中的肩部坐标、两个肩部坐标构成的线段上的景深点,即肩膀横截面点集,计算肩膀横截面点集的中心点,并将该中心点作为坐标系的新原点;
步骤三,根据步骤一得到的非对称椭圆模型的参数,采集非对称椭圆模型点集并与肩膀横截面点集进行基于参考图像原点和步骤二得到新原点的匹配,根据匹配结果得到人体朝向角度。
2.根据权利要求1所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的非对称椭圆是指:以x轴为对称轴,该椭圆的两侧短半轴不相同。
3.根据权利要求1所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的步骤一具体包括:
1.1统计参考前景区域内每列像素点的个数,并找到每列像素点个数最大值l,即得参考前景区域的高度;
1.2从参考前景区域的任意一侧向中间查看每列像素点的个数,当该列个数大于阈值时,设定该列为一侧肩膀边缘点x坐标x1;采用相同方法从另一侧进行阈值筛选,得到了另一侧肩膀边缘点x坐标x2;在x=x1和x=x2列中各选择一个人体前景参考点,并使用KinectSDK的函数转换到三维空间中得到该两个人体前景参考点的坐标(xp1,yp1,zp1)和(xp2,yp2,zp2),计算得到参考肩膀宽度w=|xp1-xp2|;
1.3在两个肩部坐标(x1,λl)和(x2,λl)之间的线段上寻找景深最大值depmax和最小值depmin,得到非对称椭圆模型的参数,即:长半轴前短半轴b1=1.2×|depmax-depmin|和后短半轴b2=1.5×|depmax-depmin|,其中:l为1.1中的参考前景区域的高度,λl为肩膀高度位置,λ是[0,1]之间的比例系数。
4.根据权利要求3所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的比例系数取0.75。
5.根据权利要求1所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的新原点,通过以下方式得到:通过深度摄像头采集若干任意朝向角度的景深帧,对于其中一帧I中的景深帧及由摄像头直接提供的人体前景区域,计算得到任意朝向角度下的肩部坐标,以两个肩部坐标构成的线段上的景深点即为肩膀横截面点集P,使用Kinect SDK将这些点转换到三维空间中的x-z平面上;计算肩膀横截面点集P的中心点(xm,zm),并将该点作为坐标系的新原点。
6.根据权利要求3所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的步骤三具体包括:
3.1分别以a为长半轴、b1、b2为短半轴、中心点为原点、x轴为对称轴的非对称椭圆模型为范围进行均匀采样,得到非对称椭圆模型点集Pm;
3.2以景深帧I的前一帧检测得到的旋转角度为初始值作为静态初始旋转角度,如果当前帧是第一帧,则以0°为静态初始旋转角度进行计算,对肩膀横截面点集P和非对称椭圆模型点集Pm进行匹配,得到静态旋转角度θstill以及静态匹配误差εstill;
3.3取肩膀横截面点集P中距离步骤二中新原点最远的点,计算新原点到该点的向量与x轴之间的夹角θ2,以该夹角θ2作为动态初始旋转角度,对肩膀横截面点集P和非对称椭圆模型点集Pm进行匹配,得到动态旋转角度θmotion以及动态匹配误差εmotion;
3.4当εstill<εmotion,则截面朝向角度为静态旋转角度θstill,否则截面朝向角度为动态旋转角度θmotion;
3.5在距离肩膀横截面的上方和下方λ'l位置处各取一个横截面,λ'为[0,1]之间的比例系数,提取该横截面上的点,使用Kinect SDK转换到三维空间中的x-z平面上,重复3.1至3.4的操作并得到该两个横截面对应的截面朝向角度,以三个横截面的截面朝向角度平均值作为人体朝向角度。
7.根据权利要求6所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的静态初始旋转角度,以景深帧I的前一帧检测得到的旋转角度为初始值进行计算。
8.根据权利要求6所述的基于椭圆匹配的人体朝向角度实时检测方法,其特征是,所述的匹配,具体步骤包括:
i)设置旋转角度搜索范围为初始旋转角度±45°,计算以5°为搜索间隔的旋转角度下两个点集之间的匹配误差;
ii)将步骤3.1中得到的非对称椭圆模型点集Pm旋转当前搜索角度,遍历寻找肩膀横截面点集P中每个点离Pm距离最近的对应点,并计算该距离的平方和作为此旋转角度下的匹配误差;
iii)搜索最小的两个匹配误差对应的旋转角度,记为θ1'和θ1”,其中θ1'<θ1”;
iv)将旋转角度搜索范围缩小至[θ1',θ1”],计算以1°为搜索间隔的旋转角度下两个点集之间的匹配误差,即重复ii)操作,搜索得到其中最小的匹配误差及其对应的旋转角度,即匹配结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610024401.XA CN105678779B (zh) | 2016-01-15 | 2016-01-15 | 基于椭圆匹配的人体朝向角度实时检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610024401.XA CN105678779B (zh) | 2016-01-15 | 2016-01-15 | 基于椭圆匹配的人体朝向角度实时检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105678779A CN105678779A (zh) | 2016-06-15 |
CN105678779B true CN105678779B (zh) | 2018-05-08 |
Family
ID=56300837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610024401.XA Active CN105678779B (zh) | 2016-01-15 | 2016-01-15 | 基于椭圆匹配的人体朝向角度实时检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105678779B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106685590B (zh) * | 2016-12-08 | 2019-10-29 | 浙江工业大学 | 一种基于信道状态信息和knn的室内人体朝向识别方法 |
CN109146962B (zh) * | 2018-09-07 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 检测脸部角度的方法、装置、存储介质和终端设备 |
CN112825145B (zh) * | 2019-11-20 | 2022-08-23 | 上海商汤智能科技有限公司 | 人体朝向检测方法、装置、电子设备和计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129072A (zh) * | 2010-01-20 | 2011-07-20 | 中国科学院电子学研究所 | 基于逆边界散射变换的超宽带雷达人体运动目标成像方法 |
CN103310188A (zh) * | 2012-03-06 | 2013-09-18 | 三星电子株式会社 | 用于姿态识别的方法和设备 |
CN104200200A (zh) * | 2014-08-28 | 2014-12-10 | 公安部第三研究所 | 融合深度信息和灰度信息实现步态识别的系统及方法 |
CN104573665A (zh) * | 2015-01-23 | 2015-04-29 | 北京理工大学 | 一种基于改进维特比算法的连续动作识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4533643B2 (ja) * | 2004-02-26 | 2010-09-01 | 株式会社島精機製作所 | 人体モデルへのニットガーメントの着装シミュレーション方法とその装置、並びにそのプログラム |
-
2016
- 2016-01-15 CN CN201610024401.XA patent/CN105678779B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129072A (zh) * | 2010-01-20 | 2011-07-20 | 中国科学院电子学研究所 | 基于逆边界散射变换的超宽带雷达人体运动目标成像方法 |
CN103310188A (zh) * | 2012-03-06 | 2013-09-18 | 三星电子株式会社 | 用于姿态识别的方法和设备 |
CN104200200A (zh) * | 2014-08-28 | 2014-12-10 | 公安部第三研究所 | 融合深度信息和灰度信息实现步态识别的系统及方法 |
CN104573665A (zh) * | 2015-01-23 | 2015-04-29 | 北京理工大学 | 一种基于改进维特比算法的连续动作识别方法 |
Non-Patent Citations (5)
Title |
---|
Agent-Based群体模拟中的朝向计算方法;叶青 等;《计算机辅助设计与图形学学报》;20110831;第23卷(第8期);1349-1356 * |
Efficient Human Pose Estimation from Single Depth Images;Jamie Shotton 等;《PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20131231;第35卷(第12期);2821-2840 * |
Pedestrian Flow Characteristics for Different Pedestrian Facilities and Situations Pedestrian Facilities and Situations;Rajat Rastogi 等;《European Transport》;20130430;1-21 * |
多摄像机人体姿态跟踪;孙洛 等;《清华大学学报(自然科学版)》;20110731;第51卷(第7期);966-971 * |
行进人体目标雷达瞬时多普勒特征分析;贺峰 等;《信号处理》;20100930;第26卷(第9期);1281-1288 * |
Also Published As
Publication number | Publication date |
---|---|
CN105678779A (zh) | 2016-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111414798A (zh) | 基于rgb-d图像的头部姿态检测方法及系统 | |
EP3446065B1 (en) | Flight parameter measuring apparatus and flight parameter measuring method | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
CN111210477B (zh) | 一种运动目标的定位方法及系统 | |
CN108615244B (zh) | 一种基于cnn和深度滤波器的图像深度估计方法及系统 | |
US9235928B2 (en) | 3D body modeling, from a single or multiple 3D cameras, in the presence of motion | |
CN109993113A (zh) | 一种基于rgb-d和imu信息融合的位姿估计方法 | |
CN105806315B (zh) | 基于主动编码信息的非合作目标相对测量系统及测量方法 | |
WO2020172783A1 (zh) | 一种用于经颅磁刺激诊疗的人头姿态跟踪系统 | |
CN112902953A (zh) | 一种基于slam技术的自主位姿测量方法 | |
CN101894278B (zh) | 基于变结构多模型的人体运动跟踪方法 | |
CN102609684A (zh) | 人体姿势检测方法及装置 | |
WO2016082797A1 (zh) | 一种基于单幅图像的三维场景结构建模与注册方法 | |
CN106355147A (zh) | 一种活体人脸检测头部姿态回归器的获取方法及检测方法 | |
CN112509044A (zh) | 一种基于点线特征融合的双目视觉slam方法 | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN103745474A (zh) | 基于惯性传感器和摄像机的图像配准方法 | |
CN109448045A (zh) | 基于slam的平面多边形物体测量方法及机器可读存储介质 | |
CN104167016A (zh) | 一种基于rgb彩色与深度图像的三维运动重建方法 | |
CN105678779B (zh) | 基于椭圆匹配的人体朝向角度实时检测方法 | |
CN105716539A (zh) | 一种快速高精度的三维形面测量方法 | |
CN109977827B (zh) | 一种使用多视图匹配方法的多人三维姿态估计方法 | |
CN103735269A (zh) | 一种基于视频多目标跟踪的高度测量方法 | |
JP6166297B2 (ja) | 姿勢推定装置 | |
CN107949851A (zh) | 在场景内的物体的端点的快速和鲁棒识别 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |