CN103543830A - 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 - Google Patents
一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 Download PDFInfo
- Publication number
- CN103543830A CN103543830A CN201310515054.7A CN201310515054A CN103543830A CN 103543830 A CN103543830 A CN 103543830A CN 201310515054 A CN201310515054 A CN 201310515054A CN 103543830 A CN103543830 A CN 103543830A
- Authority
- CN
- China
- Prior art keywords
- virtual
- coordinate system
- coordinate
- skeleton point
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明的针对传统交互应用中仅允许二维方向的交互的不足,结合可提取骨骼点的3D信息的Kinect和可提供立体视觉效果的立体显示器,通过将人体骨骼坐标映射至虚拟3D空间世界坐标,提出一种基于Kinect的人体骨骼点映射至立体显示中虚拟3D空间点的方法,使得用户可与立体显示系统完成实现非接触式交互,控制虚拟3D空间内的物体跟随用户的特定骨骼点在3D方向上移动。
Description
技术领域
本发明涉及虚拟现实3D(三维)交互技术以及计算机图形技术。
背景技术
虚拟现实交互技术是一种新兴的综合集成技术,人们可利用计算机来虚构一个3D世界,并与虚拟的3D世界产生交互作用。近年来,体感交互技术蓬勃发展,渐渐走进人们的生活。Kinect体感设备的传感深度范围在0.8米到4.0米之间,而立体显示器中的自由立体显示器的最佳观看距离一般在2米左右,两者之间的适应距离范围存在匹配关系。通过立体显示器,用户可观看到立体画面,同时通过Kinect体感设备,用户可以在不手持或触摸任何设备的情况下,将肢体动作转化为与立体显示器中的虚拟3D图像进行沟通的“语言”,自然地实现人与虚拟空间的交互。
现有的大多数基于Kinect体感设备的交互应用中,如基于Kinect体感设备的3D立体试衣装置,多是将人体3D坐标转换为以二维坐标为基准的数据,控制虚拟物体在二维方向上移动。基于Kinect体感设备的立体显示的交互系统中,由于立体显示器能为用户呈现虚拟3D空间,因此将人体骨骼坐标转换为虚拟3D空间中的坐标显得十分必要,而目前缺少有效的解决方案。
发明内容
本发明提出一种人体骨骼点映射至立体显示中虚拟3D空间点的方法,如附图1所示,该方法获取人体骨骼数据并将关键骨骼点J变换至深度图坐标系上点D,然后将深度图坐标系上点D变换至视图坐标系上点V,再将视图坐标系上点V变换至世界坐标系上点W,最后虚拟3D物体根据世界坐标系上点W进行坐标平移变换。本发明的目的在于,如附图2所示,使得用户可与立体显示系统实现非接触式交互,控制虚拟3D空间内的物体跟随用户的特定骨骼点在3D方向上移动。
所述获取人体骨骼数据并将关键骨骼点J变换至深度图坐标系上点D,通过Kinect体感设备获取人体骨骼数据并对其进行平滑处理,从中提取右手骨骼点HR、左肩膀骨骼点SL、右肩膀骨骼点SR、头部骨骼点H、右脚骨骼点F在Kinect骨骼坐标系中的坐标值,各骨骼点位置如附图3所示。设右手骨骼点HR为关键骨骼点J,并通过调用Kinect SDK(软件开发工具包)所提供的接口函数得到骨骼坐标系上关键骨骼点J在深度图坐标系上点D的二维坐标(X D,Y D)。
所述深度图坐标系上点D变换至视图坐标系上点V,获取虚拟3D场景中虚拟相机的投影变换矩阵P,设单幅视差图像的分辨率为H P×V P,则深度图坐标系上点D对应的视图坐标系的近平面上点V的3D坐标(X V,Y V,Z V)可由下列公式计算得到:
其中,P 11,P 22分别为投影变换矩阵P第一行第一列元素和第二行第二列元素,Z n 为虚拟相机投影中心至视框体近平面在z轴方向上的距离。
所述视图坐标系上点V变换至世界坐标系上点W,获取虚拟3D场景中虚拟相机的视图空间变换矩阵V,计算得矩阵V的逆变换矩阵为V -1,视图空间坐标系上点V对应的世界坐标系上点W的3D坐标(X W,Y W,Z W)可由下列公式计算得到:
其中,[V -1]2×3为矩阵V -1的部分矩阵,由左上角两行乘三列的元素组成;S为缩放因子,设由深度图坐标系下坐标点(640,0)代入公式(1)(2)(3)计算得其对应于视图坐标系上的坐标点的x轴坐标值x 1,该虚拟3D空间中屏幕右上角点对应的视图坐标系上的x轴坐标值为x 2,则缩放因子S可由x 2/x 1计算得到;Min、Max分别为该虚拟相机结构下立体显示器显示时视差可融合的世界坐标系中z轴上的最小坐标值和最大坐标值;(Z SR-Z J)Max为用户右手向前伸直时骨骼坐标系中z轴方向上右肩膀骨骼点SR到右手骨骼点HR的距离,可由下式计算得到:
(6)
其中,X SL、X SR分别为左肩膀骨骼点和右肩膀骨骼点在骨骼坐标系x轴上的坐标值,Y H、Y F分别为头部骨骼点和右脚骨骼点在骨骼坐标系y轴上的坐标值。
所述虚拟3D物体根据世界坐标系上点W进行坐标平移变换,对于虚拟3D空间中的指定3D物体,根据坐标(X W,Y W,Z W)对3D物体在世界坐标系中进行坐标平移变换,实现由世界坐标系上点W的坐标值决定3D物体的空间位置。
本发明针对传统交互应用中仅允许二维方向的交互的不足,结合可提取骨骼点的3D信息的Kinect和可提供立体视觉效果的立体显示器,通过将人体骨骼坐标映射至虚拟3D空间坐标,提供一种观看者在Kinect有效探测范围内均可控制并观看虚拟物体在3D方向上移动的方法。
附图说明
附图1为本发明一种人体骨骼点映射至立体显示中虚拟3D空间点的方法的实现流程图。
附图2为本发明中控制虚拟3D物体跟随人体骨骼点在3D方向上移动的示意图。
附图3为本发明所提取人体骨骼点位置的示意图。
上述附图中的图示标号为:
1人体骨骼空间,2 Kinect体感设备,3 骨骼坐标系,4 立体显示器,5 虚拟3D物体,6 世界坐标系,7 头部骨骼点H,8 右手骨骼点HR,9 右肩膀骨骼点SR,10 左肩膀骨骼点SL,11 右脚骨骼点F。
应该理解上述附图只是示意性的,并没有按比例绘制。
具体实施方式
下面详细说明利用本发明一种人体骨骼点映射至立体显示中虚拟3D空间点的方法的一个典型实施例,对本发明进行进一步的具体描述。有必要在此指出的是,以下实施例只用于本发明做进一步的说明,不能理解为对本发明保护范围的限制,该领域技术熟练人员根据上述本发明内容对本发明做出一些非本质的改进和调整,仍属于本发明的保护范围。
在本实施实例中立体显示器采用21.5英寸的柱透镜光栅自由立体显示器,视点数为8,2D分辨率为1920×1080,光栅相对显示器的倾斜角度为arctan(-0.4330), 3D深度范围为-15cm~20cm。采用Kinect体感设备作为人体骨骼点数据采集设备,通过调整Kinect体感设备的空间位置与马达改变其交互区域,保证用户的整个骨骼框架在交互区域范围内,且限定用户的活动范围在Kinect体感设备的水平视角范围小于57°,垂直视角范围小于43°,与Kinect体感设备的距离在0.8米到4.0米之间。基于微软公司提供的3D图形API(应用程序接口)Direct3D实现虚拟3D场景的建立和视差图像的获取。
采用本发明实现将人体骨骼坐标转换为虚拟3D空间中世界坐标系上的坐标的步骤如下:
第一步,通过调用Kinect SDK中相应API函数获取用户的骨骼信息,并根据Kinect反馈的骨骼数据流中的追踪状态判断是否有用户被追踪到,如果有则从中提取用户的骨骼数据,采用霍尔特双指数平滑算法平衡化骨骼数据中的不规则点。
Kinect获取骨骼坐标系上人体骨骼坐标的示意图如附图1所示。当有用户在Kinect的交互区域内,所获取骨骼数据中在骨骼空间中,如附图2所示,右手骨骼点HR坐标为(0.148131,0.359362,1.60576),左肩膀骨骼点SL坐标为(﹣0.0892748,0.301257,2.35958),右肩膀骨骼点SR坐标为(0.166963,0.271924,2.2483),头部骨骼点H坐标为(0.046896,0.57084,2.27484),右脚骨骼点F坐标为(0.192251,﹣0.996962,2.43674),并设右手骨骼点HR为关键骨骼点J。
第二步,调用Kinect SDK中的接口函数NuiTransformSkeletonToDepthImage计算后得到骨骼坐标系上关键骨骼点J在深度图坐标系上点D的二维坐标(372.699,112.155)。
第三步,通过调用Direct3D的接口函数GetTransform(D3DTS_PROJECTION,&P)获取虚拟3D场景中虚拟相机的投影变换矩阵P,其值为。设单幅视差图像的分辨率为640×480,虚拟相机投影中心至视框体近平面在z轴方向上的距离Z n设为1.0,由公式(1)(2)(3)计算得深度图坐标系上点D对应的视图坐标系的近平面上点V的3D坐标(0.0823416,0.166465,1.0)。
第四步,通过调用Direct3D的接口函数GetTransform(D3DTS_VIEW,&V)获取虚拟3D场景中虚拟相机的视图空间变换矩阵V,其值为,计算得矩阵V的逆变换矩阵为V -1,其值为。由深度图坐标系下坐标点(640,0)代入公式(1)(2)(3)计算得其对应于视图坐标系上的坐标点的x轴坐标值为0.0514635,该虚拟3D场景中屏幕右上角点对应的视图坐标系上的x轴坐标值为15.43905,则缩放因子S为300.0。虚拟相机结构下立体显示器显示时视差可融合的世界坐标系中z轴上的最小坐标值Min和最大坐标值Max分别为-65.0、120.0,由公式(6)计算得用户右手向前伸直时,骨骼坐标系中z轴方向上右肩膀骨骼点SR到右手骨骼点HR的距离(Z SR-Z R)Max为0.6557821,由公式(4)(5)视图空间坐标系上点V对应的世界坐标系上点W的3D坐标(24.7025,25.857,116.2643)。
第五步,对于虚拟3D空间中的指定3D物体,根据步骤四中计算得的世界坐标系上点W的坐标值(24.7025,25.857,116.2643)对3D物体在世界坐标系中进行坐标平移变换,实现由世界坐标系上点W的坐标值决定3D物体的空间位置。
Claims (5)
1.一种人体骨骼点映射至立体显示中虚拟3D空间点的方法,其特征在于,该方法获取人体骨骼数据并将关键骨骼点J变换至深度图坐标系上点D,然后将深度图坐标系上点D变换至视图坐标系上点V,再将视图坐标系上点V变换至世界坐标系上点W,最后虚拟3D物体根据世界坐标系上点W进行坐标平移变换。
2.根据权利要求1所述的一种人体骨骼点映射至立体显示中虚拟3D空间点的方法,其特征在于,通过Kinect体感设备获取人体骨骼数据并对其进行平滑处理,并从中提取右手骨骼点HR、左肩膀骨骼点SL、右肩膀骨骼点SR、头部骨骼点H、右脚骨骼点F在Kinect骨骼坐标系中的坐标值。
4.根据权利要求1所述的一种人体骨骼点映射至立体显示中虚拟3D空间点的方法,其特征在于,获取虚拟3D场景中虚拟相机的视图空间变换矩阵V,计算得矩阵V的逆变换矩阵为V -1,视图空间坐标系上点V对应的世界坐标系上点W的3D坐标(X W ,Y W ,Z W )可由,计算得到,其中,[V -1]2×3为矩阵V -1的部分矩阵,由左上角两行乘三列的元素组成;S为缩放因子,设由深度图坐标系下坐标点(640,0)代入,,计算得其对应于视图坐标系上的坐标点的x轴坐标值x 1,该虚拟3D场景中屏幕右上角点对应的视图坐标系上的x轴坐标值为x 2,则缩放因子S可由x 2/x 1计算得到;Min、Max分别为该虚拟相机结构下立体显示器显示时视差可融合的世界坐标系中z轴上的最小坐标值和最大坐标值;(Z SR -Z R )Max为用户右手向前伸直时,骨骼坐标系中z轴方向上右肩膀骨骼点SR到右手骨骼点R的距离,可由计算得到,其中X SL、X SR分别为左肩膀骨骼点和右肩膀骨骼点在骨骼坐标系x轴上的坐标值,Y H、Y F分别为头部骨骼点和右脚骨骼点在骨骼坐标系y轴上的坐标值。
5.根据权利要求1所述的一种人体骨骼点映射至立体显示中虚拟3D空间点的方法,其特征在于,该方法适用于非裸眼3D显示与裸眼3D显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310515054.7A CN103543830B (zh) | 2013-10-28 | 2013-10-28 | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310515054.7A CN103543830B (zh) | 2013-10-28 | 2013-10-28 | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103543830A true CN103543830A (zh) | 2014-01-29 |
CN103543830B CN103543830B (zh) | 2017-02-15 |
Family
ID=49967367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310515054.7A Active CN103543830B (zh) | 2013-10-28 | 2013-10-28 | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103543830B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447889A (zh) * | 2015-11-19 | 2016-03-30 | 北京理工大学 | 一种基于体感的远程虚拟歌剧指挥系统 |
CN106127552A (zh) * | 2016-06-23 | 2016-11-16 | 北京理工大学 | 一种虚拟场景显示方法、装置及系统 |
CN106873775A (zh) * | 2017-01-16 | 2017-06-20 | 深圳中科呼图电子商务有限公司 | 一种虚拟现实交互的实现方法、系统及mr手套 |
CN107272882A (zh) * | 2017-05-03 | 2017-10-20 | 江苏大学 | 一种类全息远程呈现实现方法 |
CN108762481A (zh) * | 2018-04-08 | 2018-11-06 | 深圳市博乐信息技术有限公司 | 基于人体骨骼的自适应人机交互方法及系统 |
CN108986197A (zh) * | 2017-11-30 | 2018-12-11 | 成都通甲优博科技有限责任公司 | 3d骨架线构建方法及装置 |
CN111067597A (zh) * | 2019-12-10 | 2020-04-28 | 山东大学 | 肿瘤穿刺中根据人体姿态确定穿刺路径的系统及方法 |
CN112541969A (zh) * | 2021-01-21 | 2021-03-23 | 深圳市桔子智能信息科技有限公司 | 一种三维人体模型骨骼动态转移绑定方法 |
WO2021169839A1 (zh) * | 2020-02-29 | 2021-09-02 | 华为技术有限公司 | 一种基于骨骼关键点的动作还原方法以及装置 |
CN114077305A (zh) * | 2020-08-19 | 2022-02-22 | 宏达国际电子股份有限公司 | 将真实世界资讯撷取入虚拟环境的方法及头戴式装置 |
CN114863038A (zh) * | 2022-07-07 | 2022-08-05 | 杭州像衍科技有限公司 | 基于显式几何形变的实时动态自由视角合成方法及装置 |
US11964200B2 (en) | 2015-07-13 | 2024-04-23 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (HapSpace) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010138428A2 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Systems and methods for applying animations or motions to a character |
US20110187819A1 (en) * | 2010-02-02 | 2011-08-04 | Microsoft Corporation | Depth camera compatibility |
CN102253713A (zh) * | 2011-06-23 | 2011-11-23 | 康佳集团股份有限公司 | 面向三维立体影像显示系统 |
CN102640186A (zh) * | 2009-12-07 | 2012-08-15 | 微软公司 | 虚拟目标跟踪 |
-
2013
- 2013-10-28 CN CN201310515054.7A patent/CN103543830B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010138428A2 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Systems and methods for applying animations or motions to a character |
CN102640186A (zh) * | 2009-12-07 | 2012-08-15 | 微软公司 | 虚拟目标跟踪 |
US20110187819A1 (en) * | 2010-02-02 | 2011-08-04 | Microsoft Corporation | Depth camera compatibility |
CN102253713A (zh) * | 2011-06-23 | 2011-11-23 | 康佳集团股份有限公司 | 面向三维立体影像显示系统 |
Non-Patent Citations (1)
Title |
---|
谢亮等: "基于Kinect的姿势识别与应用研究", 《计算机技术与发展》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11964200B2 (en) | 2015-07-13 | 2024-04-23 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (HapSpace) |
CN105447889A (zh) * | 2015-11-19 | 2016-03-30 | 北京理工大学 | 一种基于体感的远程虚拟歌剧指挥系统 |
CN106127552A (zh) * | 2016-06-23 | 2016-11-16 | 北京理工大学 | 一种虚拟场景显示方法、装置及系统 |
CN106127552B (zh) * | 2016-06-23 | 2019-12-13 | 北京理工大学 | 一种虚拟场景显示方法、装置及系统 |
CN106873775A (zh) * | 2017-01-16 | 2017-06-20 | 深圳中科呼图电子商务有限公司 | 一种虚拟现实交互的实现方法、系统及mr手套 |
CN107272882A (zh) * | 2017-05-03 | 2017-10-20 | 江苏大学 | 一种类全息远程呈现实现方法 |
CN108986197A (zh) * | 2017-11-30 | 2018-12-11 | 成都通甲优博科技有限责任公司 | 3d骨架线构建方法及装置 |
CN108986197B (zh) * | 2017-11-30 | 2022-02-01 | 成都通甲优博科技有限责任公司 | 3d骨架线构建方法及装置 |
CN108762481A (zh) * | 2018-04-08 | 2018-11-06 | 深圳市博乐信息技术有限公司 | 基于人体骨骼的自适应人机交互方法及系统 |
CN111067597A (zh) * | 2019-12-10 | 2020-04-28 | 山东大学 | 肿瘤穿刺中根据人体姿态确定穿刺路径的系统及方法 |
CN111067597B (zh) * | 2019-12-10 | 2021-04-16 | 山东大学 | 肿瘤穿刺中根据人体姿态确定穿刺路径的系统 |
WO2021169839A1 (zh) * | 2020-02-29 | 2021-09-02 | 华为技术有限公司 | 一种基于骨骼关键点的动作还原方法以及装置 |
CN114077305A (zh) * | 2020-08-19 | 2022-02-22 | 宏达国际电子股份有限公司 | 将真实世界资讯撷取入虚拟环境的方法及头戴式装置 |
CN114077305B (zh) * | 2020-08-19 | 2024-03-01 | 宏达国际电子股份有限公司 | 将真实世界资讯撷取入虚拟环境的方法及头戴式装置 |
CN112541969B (zh) * | 2021-01-21 | 2022-04-12 | 深圳市桔子智能信息科技有限公司 | 一种三维人体模型骨骼动态转移绑定方法 |
CN112541969A (zh) * | 2021-01-21 | 2021-03-23 | 深圳市桔子智能信息科技有限公司 | 一种三维人体模型骨骼动态转移绑定方法 |
CN114863038A (zh) * | 2022-07-07 | 2022-08-05 | 杭州像衍科技有限公司 | 基于显式几何形变的实时动态自由视角合成方法及装置 |
CN114863038B (zh) * | 2022-07-07 | 2022-11-01 | 杭州像衍科技有限公司 | 基于显式几何形变的实时动态自由视角合成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103543830B (zh) | 2017-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103543830A (zh) | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 | |
KR100953931B1 (ko) | 혼합현실 구현 시스템 및 그 방법 | |
CN104050859A (zh) | 可交互数字化立体沙盘系统 | |
CN103440677A (zh) | 一种基于Kinect体感设备的多视点自由立体交互系统 | |
CN206961066U (zh) | 一种虚拟现实交互设备 | |
US20140368539A1 (en) | Head wearable electronic device for augmented reality and method for generating augmented reality using the same | |
CN102509348B (zh) | 一种共享增强现实场景的真实物体多方位表示方法 | |
JP5167439B1 (ja) | 立体画像表示装置及び立体画像表示方法 | |
CN109643014A (zh) | 头戴式显示器追踪 | |
CN106062821A (zh) | 用于不受限制的slam的基于传感器的相机运动检测 | |
US10019130B2 (en) | Zero parallax drawing within a three dimensional display | |
CN106840112B (zh) | 一种利用自由空间视线凝视点测量的空间几何量测量方法 | |
WO2012107892A3 (en) | Gaze detection in a 3d mapping environment | |
CN106980368A (zh) | 一种基于视觉计算及惯性测量单元的虚拟现实交互设备 | |
JP5656514B2 (ja) | 情報処理装置及び方法 | |
CN102448681A (zh) | 动作空间提示装置、动作空间提示方法以及程序 | |
CN105005970A (zh) | 一种增强现实的实现方法及装置 | |
Piekarski et al. | Augmented reality working planes: A foundation for action and construction at a distance | |
CN103279942A (zh) | 一种基于环境感受器的2d屏幕上虚拟3d展示的控制方法 | |
CN107071388A (zh) | 一种立体增强现实显示方法及装置 | |
CN203773476U (zh) | 基于3d交互的虚拟现实系统 | |
CN107967054B (zh) | 一种虚拟现实与增强现实耦合的沉浸式三维电子沙盘 | |
CN105095314A (zh) | 一种兴趣点的标注方法、终端、导航服务器及导航系统 | |
CN107145822A (zh) | 偏离深度相机的用户体感交互标定的方法和系统 | |
KR20180120456A (ko) | 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |