CN104714649A - 一种基于kinect的裸眼3D UI交互方法 - Google Patents

一种基于kinect的裸眼3D UI交互方法 Download PDF

Info

Publication number
CN104714649A
CN104714649A CN201510144823.6A CN201510144823A CN104714649A CN 104714649 A CN104714649 A CN 104714649A CN 201510144823 A CN201510144823 A CN 201510144823A CN 104714649 A CN104714649 A CN 104714649A
Authority
CN
China
Prior art keywords
kinect
distance
information
response
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510144823.6A
Other languages
English (en)
Inventor
王子强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201510144823.6A priority Critical patent/CN104714649A/zh
Publication of CN104714649A publication Critical patent/CN104714649A/zh
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明基于裸眼3D UI,借助Kinect设备,解决了大屏裸眼3D由于观看距离的限制而在UI互动操作中存在不便的问题。本发明通过对Kinect获取的深度图像信息进行处理,通过动态手势的识别,最终达到远距离手势操控裸眼3D UI的效果。本发明在视觉享受的同时将交互体验融入其中,进一步拉近了人与虚拟世界的距离,在呈现方式上给人以耳目一新的感觉,本发明的引入,将更进一步推动裸眼3D产品的发展。

Description

一种基于kinect的裸眼3D UI交互方法
技术领域
本发明在基于裸眼3D UI新技术的基础之上,利用kinect实现了一种交互方法,该方法进一步拉近了虚拟世界与现实生活的距离。
背景技术
裸眼3D显示技术作为显示行业内的一个重要发展方向,目前在视频显示领域已经取得了比较成熟的成果,如何打破单一的视频显示模式,将模型、图文与视频进行融合,以裸眼3D UI的形式呈现出来,目前本团队已经取得了显著的成果。
随着技术的发展,人机交互日趋简易化,易操作化,人们对交互的体验已不再满足于借助鼠标、键盘等辅助媒介的体验,裸眼3D UI虽然给人以更好的视觉感受,但在人机交互体验方面仍存在一定的不足,尤其是大屏裸眼3D产品对观看距离有一定的限制,以46寸4k裸眼3D广告机为例,最佳观看距离在3米左右,故如果采用键盘鼠标对其进行操作将存在很大的不便。基于此,本发明借助Kinect设备,在视觉享受的同时将交互体验融入其中,进一步拉近了人与虚拟世界的距离,在呈现方式上给人以耳目一新的感觉,在实现了裸眼3D内容呈现多样性的同时加入与客户互动交流的新体验,本发明尤其适用于广告机系统、产品展示及科研教学等。
发明内容
本发明解决的问题是利用kinect实现裸眼3D UI的人机交互。具体实现步骤如下:
第一步:将Kinect接入计算机系统;
第二步:通过深度图信息,对人体进行识别,主要是针对手掌部位的识别,通过识别判定是否需要进行操作响应,当检测当前画面中存在动态的手势时,则进入第三步,否则循环进行第二步的检测;
第三步:通过手心深度信息的获取,判断手心对应UI的区域,计算机将操作信息反馈给对应区域进行操作响应,鉴于裸眼3D UI在制作中是采用模块独立渲染的方式,即UI中涉及的视频模块、文字模块及产品模型展示模块等均是经过独立的多宫格视图渲染合成,最终以动态库的形式合成展现为一个完整的UI界面,故本步骤进行操作对应模块的检测,该模块可以单独对手势信息进行响应。
第四步:手势响应,此处需要将Kinect采集到的彩色图像和深度图像进行骨骼特征的提取,提取后的骨骼信息经由DTW动态规划算法的加权的不同,利用分类树的统计方法进行训练,最终实现有效的手势识别的检测与响应。此处手势信息的检测主要分为两部分,一是手部与摄像头的距离变动,另一个是手势的挥动。通过这两种手势信息,可以简单地定义对裸眼3D UI的点击、旋转、关闭等操作。具体的见下文中的实施例的介绍。同理我们也可以根据不同的界面的操作需求进行各种不同的手势定义,本发明只以其中的一种比较简单的实施例进行加以阐述。
本发明在进行手势识别操作中很主要的信息是来自于人手与摄像头的距离信息,而在Kinect中生成的深度图是用灰度图的灰度信息来表示的,其与实际的距离并不成标准的线性关系,故当人手与摄像头的距离减小时,由于Kinect中的金字塔视场会导致获取的图像的分辨率增大,故本发明在实际的应用中,根据识别到的手掌的大小即图像的灰度值大小,将获取的图像的灰度值转换为实际距离的深度值。根据Kinect的转换原理,实际距离的深度值d为:
d = K * tan ( d P 2842 . 5 + 1.1863 ) - M
其中,K=0.1237m,M=0.038m,dp为Kinect获取的某一像素点的深度值。
根据实际深度距离值,转换为原始像素位置(i,j,d)的实际位置(x,y,z),转换公式为:
x = ( i - W 2 ) × ( d 10 ) × s × W h y = ( j - 2 ‾ ) × ( d - 10 ) × s z = d
其中s=0.0021。
通过上述方法,以每个模块的中间视图作为坐标参考图,可以准确地定位到操作模块,并根据距离的变化进行具体操作动作响应。
本发明的有益效果是:基于裸眼3D合成及渲染的方式,在实现的裸眼3D UI的基础之上,最大程度地释放视觉束缚的同时通过Kinect交互操作,拉近了计算机虚拟世界与真实世界的距离,减少了外置有线设备给用户进行UI操作带来的不便。目前在广告机系统中,本发明在吸引客户眼球,增强产品体验度等方面有其他产品无法企及的优势,市场前景广阔,经济效益巨大。
附图说明:
附图1为Kinect裸眼3D UI交互实现流程图。
附图2为手心三维位置示意图。
具体实施方式
下面结合附图1、附图2及具体的实施例对本发明进行进一步的具体描述。
本发明基于目前比较流行的裸眼3D UI实现了一种新的界面交互的方式。该方法一方面呈现了一种新的用户交互体验,另一方面也考虑到裸眼3D设备存在最佳观看距离这一要求的情况,完美地弥补了以裸眼3D实现的UI借助外部设备进行操作容易给用户造成一定的眩晕感这一缺陷。具体方案如下:a.启动Kinect;b.判断当前是否显示裸眼UI模式,是则执行步骤c,否则返回步骤b;c.手势识别,检测是否有动态手势响应,如果有则进入步骤d,否则重复步骤c;e.检测手心所对应的UI区域并进而对相应的手势信息做出操作响应。
实施例:
以实现附图2中的八宫格裸眼3D UI布局为例,在该图中,当手心位置垂直对应于UI中的某一区域时,则对应区域对相应的手势信息做出响应,手势信息主要通过手心距离UI的位置进行识别,当距离减小时则响应为点击操作,利用挥手操作实现模型框的缩放及旋转等功能。本例中基于Kinect实现裸眼3D UI交互方法,采用以下步骤完成:
a.启动Kinect;
b.判断当前是否已进入裸眼3D UI操作模式,是则进入步骤c,否则继续步骤b;
c.动态手势识别。通过手部的骨架信息判别当前是否有动态手势响应,是则做好准备进入d步骤,否则循环进行c步骤;
d.操作区域判定。根据人手与摄像头实际距离的判定,识别当前手势需要操控的区域位置,本案例的裸眼3D UI区域分布如图2所示,每一个模块可以对手势信息进行单独响应,识别结束进入e步骤;
e.操作响应,根据人手与摄像头距离的变化以及挥手等操作,定义具体的响应结果进行最终的UI操作响应。定义的具体手势响应信息为:
e1.检测人手垂直对应的UI坐标,本实施例中以8宫格渲染的裸眼3D UI为例,由于渲染后的成像坐标的不确定性,故本案例采用每一个模块最为接近中间区域的视图作为坐标参考图,手势垂直对应的模块单独对后续的动态手势信息做出响应;
e2.当检测到人手与摄像机的距离减小超过阈值a(本实施例设置为0.2m)时,响应为点击操作;
e3.在操作模型区域时,手势向左挥动时,模型向左转动90度,同理向右或是上下方向挥动,则模型向对应方向旋转90度;
e4.当人手与摄像机的距离增大超过阈值b时(本实施例设置为0.5m),则响应关闭当前UI。
本发明所要求保护的技术方案包含但并不仅限于上述实施例,由于裸眼3D UI平台可以有很多组合的呈现方式,本实施例中仅以其中的一种示意布局进行阐述,凡在本发明的框架和原则之内所做的任何修改、等同替换或改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于Kinect的裸眼3D UI交互方法,其特征在于包括以下步骤:
a:将Kinect接入计算机系统;
b:通过深度图信息,对人体进行识别,主要是针对手掌部位的识别,通过识别判定是否需要进行操作响应;
c:通过手心深度信息的获取,判断手心对应UI的区域,计算机将操作信息反馈给对应区域进行操作响应;
d:手势响应,根据人手与摄像头距离的变化以及挥手等操作,定义具体的响应结果进行最终的UI操作响应。
2.根据权利要求1所述的基于Kinect的裸眼3D UI交互方法,其特征在于在b步骤中,对于深度信息的获取,Kinect中生成的深度图是用灰度图的灰度信息来表示的,其与实际的距离并不成标准的线性关系,故当人手与摄像头的距离减小时,由于Kinect中的金字塔视场会导致获取的图像的分辨率增大,故本发明在实际的应用中,根据识别到的手掌的大小即图像的灰度值大小,将获取的图像的灰度值转换为实际距离的深度值,根据Kinect的转换原理,实际距离的深度值d为:
d = K tan ( d p 2842 . 5 + 1.1863 ) M
其中,K=0.1237m,M=0.038m,dp为Kinect获取的某一像素点的深度值。
根据实际深度距离值,转换为原始像素位置(i,j,d)的实际位置(x,y,z),转换公式为:
x = ( i - w 2 ) × d 10 × s × w k y = ( j - 2 ‾ ) × d 10 × s z = d
其中s=0.0021。
3.根据权利要求2中所述的在获取距离信息后,需要进入权利要求1中的c步骤进行区域的响应。此处考虑到裸眼3D渲染内容格式的特殊性,需要选取一个固定视图作为坐标参考图进行位置确定。
4.根据权利要求1中的d步骤,其应该包括以下几个特征:1)当检测到人手与摄像机的距离减小超过阈值a(根据实际情况进行设定)时,响应为点击操作;2)在操作模型区域时,手势向左挥动时,模型向左转动90度,同理向右或是上下方向挥动,则模型向对应方向旋转90度;3)当人手与摄像机的距离增大超过阈值b时(根据实际情况进行设定),则响应关闭当前UI。
5.根据权利要求4中提到的手势信息响应,其特征在于对Kinect采集到的彩色图像和深度图像进行骨骼特征的提取,提取后的骨骼信息经由DTW动态规划算法的加权不同,利用有效的统计方法进行训练,最终实现有效的动态手势识别的检测与响应。
CN201510144823.6A 2015-03-31 2015-03-31 一种基于kinect的裸眼3D UI交互方法 Pending CN104714649A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510144823.6A CN104714649A (zh) 2015-03-31 2015-03-31 一种基于kinect的裸眼3D UI交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510144823.6A CN104714649A (zh) 2015-03-31 2015-03-31 一种基于kinect的裸眼3D UI交互方法

Publications (1)

Publication Number Publication Date
CN104714649A true CN104714649A (zh) 2015-06-17

Family

ID=53414059

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510144823.6A Pending CN104714649A (zh) 2015-03-31 2015-03-31 一种基于kinect的裸眼3D UI交互方法

Country Status (1)

Country Link
CN (1) CN104714649A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881128A (zh) * 2015-06-18 2015-09-02 北京国承万通信息科技有限公司 基于实物在虚拟现实场景中显示目标图像的方法及系统
CN105446596A (zh) * 2015-11-26 2016-03-30 四川长虹电器股份有限公司 基于深度的交互式3d界面显示系统与方法
CN106448475A (zh) * 2016-12-19 2017-02-22 中航华东光电(上海)有限公司 具有立体交互功能的3d广告机及其操作方法
CN108921129A (zh) * 2018-07-20 2018-11-30 网易(杭州)网络有限公司 图像处理方法、系统、介质和电子设备
CN109271847A (zh) * 2018-08-01 2019-01-25 阿里巴巴集团控股有限公司 无人结算场景中异常检测方法、装置及设备
CN110888533A (zh) * 2019-11-27 2020-03-17 云南电网有限责任公司电力科学研究院 一种结合体感设备的高精度手势交互系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
CN102769802A (zh) * 2012-06-11 2012-11-07 西安交通大学 一种智能电视机的人机交互系统及其交互方法
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和系统
CN103279188A (zh) * 2013-05-29 2013-09-04 山东大学 一种基于Kinect无接触性操作控制PPT的方法
CN103472916A (zh) * 2013-09-06 2013-12-25 东华大学 一种基于人体手势识别的人机交互方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
CN102769802A (zh) * 2012-06-11 2012-11-07 西安交通大学 一种智能电视机的人机交互系统及其交互方法
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和系统
CN103279188A (zh) * 2013-05-29 2013-09-04 山东大学 一种基于Kinect无接触性操作控制PPT的方法
CN103472916A (zh) * 2013-09-06 2013-12-25 东华大学 一种基于人体手势识别的人机交互方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881128A (zh) * 2015-06-18 2015-09-02 北京国承万通信息科技有限公司 基于实物在虚拟现实场景中显示目标图像的方法及系统
CN104881128B (zh) * 2015-06-18 2018-01-16 北京国承万通信息科技有限公司 基于实物在虚拟现实场景中显示目标图像的方法及系统
CN105446596A (zh) * 2015-11-26 2016-03-30 四川长虹电器股份有限公司 基于深度的交互式3d界面显示系统与方法
CN106448475A (zh) * 2016-12-19 2017-02-22 中航华东光电(上海)有限公司 具有立体交互功能的3d广告机及其操作方法
CN108921129A (zh) * 2018-07-20 2018-11-30 网易(杭州)网络有限公司 图像处理方法、系统、介质和电子设备
CN108921129B (zh) * 2018-07-20 2021-05-14 杭州易现先进科技有限公司 图像处理方法、系统、介质和电子设备
CN109271847A (zh) * 2018-08-01 2019-01-25 阿里巴巴集团控股有限公司 无人结算场景中异常检测方法、装置及设备
US11132559B2 (en) 2018-08-01 2021-09-28 Advanced New Technologies Co., Ltd. Abnormality detection method, apparatus, and device for unmanned checkout
CN110888533A (zh) * 2019-11-27 2020-03-17 云南电网有限责任公司电力科学研究院 一种结合体感设备的高精度手势交互系统及方法

Similar Documents

Publication Publication Date Title
CN104714649A (zh) 一种基于kinect的裸眼3D UI交互方法
King et al. ARVino-outdoor augmented reality visualisation of viticulture GIS data
CN103793060B (zh) 一种用户交互系统和方法
Mamassian et al. The perception of cast shadows
CN107728792A (zh) 一种基于手势识别的增强现实三维绘图系统及绘图方法
CN104820497B (zh) 一种基于增强现实的3d交互显示系统
US20170361216A1 (en) Method and system incorporating real environment for virtuality and reality combined interaction
US20100259610A1 (en) Two-Dimensional Display Synced with Real World Object Movement
CN107292950A (zh) 一种基于深度神经网络的端到端三维人脸重建方法
US20180130261A1 (en) System and Method of Markerless Injection of Ads in AR
CN104808790B (zh) 一种基于非接触式交互获取无形透明界面的方法
TW201104494A (en) Stereoscopic image interactive system
CN103049852A (zh) 虚拟试衣系统
CN103440677A (zh) 一种基于Kinect体感设备的多视点自由立体交互系统
CN106055082A (zh) 用于基于事件显示屏幕的装置和方法
CN103150020A (zh) 一种三维指控操作方法及系统
Cheng et al. Supporting interaction and collaboration on large displays using tablet devices
US10401947B2 (en) Method for simulating and controlling virtual sphere in a mobile device
Hirve et al. An approach towards data visualization based on AR principles
US20150033157A1 (en) 3d displaying apparatus and the method thereof
CN107092435A (zh) 基于商标图形识别并互动的方法及系统
Hu et al. Tourism demonstration system for large-scale museums based on 3D virtual simulation technology
Fang et al. Design of lingnan cultural gene implantation cultural and creative products based on virtual reality technology
CN106774938A (zh) 基于体感设备的人机交互集成装置
IL299465A (en) An object recognition neural network for predicting a missing visual information center

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
DD01 Delivery of document by public notice

Addressee: Wang Ziqiang

Document name: Notification that Application Deemed to be Withdrawn

DD01 Delivery of document by public notice
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150617

WD01 Invention patent application deemed withdrawn after publication