CN104866096B - 一种利用上臂伸展信息进行命令选择的方法 - Google Patents
一种利用上臂伸展信息进行命令选择的方法 Download PDFInfo
- Publication number
- CN104866096B CN104866096B CN201510254390.XA CN201510254390A CN104866096B CN 104866096 B CN104866096 B CN 104866096B CN 201510254390 A CN201510254390 A CN 201510254390A CN 104866096 B CN104866096 B CN 104866096B
- Authority
- CN
- China
- Prior art keywords
- menu
- cursor
- stretching
- user
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种利用上臂伸展信息进行命令选择的方法。本方法为:1)在控制器上创建一Stretching组件及其菜单;2)控制器通过显示屏幕上的深度摄像机实时采集该用户手心的三维空间位置,然后计算手心位置到该用户身体平面的投影距离,得到该用户的手臂伸展长度并将其发送给Stretching组件;3)该组件将该用户的手臂伸展长度转换为屏幕上光标在所述菜单上的显示位置;4)用户通过改变手臂伸展长度控制光标移动,当光标移动到所述菜单上的一待选菜单项时,保持手势悬停时间大于设定时间,则该菜单项被选中。本发明不使用佩戴式传感器,基于深度摄像机,使用上臂伸展信息来进行菜单命令选择的方法,不影响手指精细动作。
Description
技术领域
本发明涉及一种利用上臂伸展信息进行命令选择的方法,在使用深度摄像机与大屏幕交互进行选择操作的优势尤其显著,属于人机交互领域。
背景技术
手臂伸展是我们在日常生活中非常常用的动作。基于手臂伸缩的手势,用户可以使用它来控制目标对象的位置。目前市场上的深度摄像头能够支持对用户的身体运动捕获并具有可接受的精度,这为实现基于自然的身体运动的工具打开了新的通道。
最近,一些研究者利用深度摄像头的深度信息,来支持用户在平板设备和大屏幕设备上的交互行为。Wilson等人的研究(WILSON A D.Using a Depth Camera as a TouchSensor[M].ACM International Conference on Interactive Tabletops andSurfaces.Saarbrücken,Germany;ACM.2010:69-72.)演示了深度感应摄像头如何被用于检测在un-instrumented平面上的触摸行为,他们还组合多个深度摄像头和投影仪来检测接触平面、悬浮于平面上和发生在平面间的交互行为。DepthTouch(BENKO H,WILSONA.Depthtouch:Using Depth-Sensing Camera to Enable Freehand Interactions onand above the Interactive Surface[R].City:Microsoft Research,2009.)将深度摄像头放置于TouchLight的显示器上,以便检测触摸行为。Data Miming(HOLZ C,WILSONA.Data Miming:Inferring Spatial Object Descriptions from Human Gesture[M].Proceedings of the 2011annual conference on Human factors in computingsystems.Vancouver,BC,Canada;ACM.2011:811-820.)通过Kinect/PrimeSense深度摄像头,帮助用户使用空间手势对三维物体的形状进行描述,从而从数据库中检索出该三维物体。
有很多工作研究三维用户界面中,用户完成目标获取和选择的绩效表现:Hinckley等人(HINCKLEY K,PAUSCH R,GOBLE J C,et al.A Survey ofDesign Issues inSpatial Input[M].Proceedings ofthe 7th annual ACM symposium on User interfacesoftware and technology.Marina del Rey,California,United States;ACM.1994:213-222.)提出了一份调查报告,阐述在设计和实现有效的自由空间三维用户界面时所面临的问题。Cockburn(COCKBURN A,QUINN P,GUTWIN C,et al.Air Pointing:Design andEvaluation of Spatial Target Acquisition with and without Visual Feedback[J].International Journal of Human-Computer Studies,2011,69(6):401-414.)等人探讨了空中指点交互的设计空间,并提出了一个框架,帮助设计师理解输入维度和由此产生的交互特性。Poupyrev等人(POUPYREV I,WEGHORST S,BILLINGHURST M,et al.EgocentricObject Manipulation in Virtual Environments:Empirical Evaluation ofInteraction Techniques[J].Computer Graphics Forum,1998,17(3):C41-C52.)评估和比较了两个最基本的三维选择和操作隐喻的可用性特点。Grossman等人(GROSSMAN T,BALAKRISHNAN R.The Design and Evaluation of Selection Techniques for 3dVolumetric Displays[M].Proceedings ofthe 19th annual ACM symposium on Userinterface software and technology.Montreux,Switzerland;ACM.2006:3-12.)设计和评估了选择三维volumetric立体显示技术,并提出了对界面设计的implications。在三维用户界面中,研究者们已经提供了用于远距离指点,窗口管理和对象的控制的手势技术。然而,还很少有研究工作面向基于手势的菜单选择,唯一的例外是rapMenu(TAO N,MCMAHAN RP,BOWMAN D A.Rapmenu:Remote Menu Selection Using Freehand Gestural Input;proceedings of the IEEE Symposium on 3D User Interfaces 2008,Reno,Nevada,USA,F 8-9March 2008,2008[C].IEEE.),这是一个使用tilt和pinch选择菜单的用户界面。与rapMenu不同的是,手臂伸展手势能够支持用户使用手臂的简单动作完成命令选择任务,而与此同时,手和手指的精细动作可以被用来完成其他任务。
还有一些研究工作旨在了解各项任务中的基本用户行为。Zhai(ZHAI S.HumanPerformance in Six Degree ofFreedom Input Control[D];University ofToronto,1995.)研究了用户在六自由度输入控制时的绩效表现。Mine等人(MINE M R,FREDERICKP.BROOKS J,SEQUIN C H.Moving Objects in Space:Exploiting Proprioception inVirtual-Environment Interaction[M].Proceedings of the 24th annual conferenceon Computer graphics and interactive techniques.ACM Press/Addison-WesleyPublishing Co.1997:19-26.)探索了身体为中心的菜单,允许用户利用他们的proprioceptive本体感觉来选择菜单项或工具。Grossman等人(GROSSMAN T,BALAKRISHNANR.Pointing at Trivariate Targets in 3d Environments[M].Proceedings of theSIGCHI conference on Human factors in computing systems.Vienna,Austria;ACM.2004:447-454.)调研了在真实的三维环境下对不同大小三维目标的指点运动,提出并验证了一种新的模型,描述针对trivariate targets的指向运动。和本研究最相关的是Ware等人的工作(WARE C,BALAKRISHNAN R.Reaching for Objects in Vr Displays:Lagand Frame Rate[J].ACM Trans Comput-Hum Interact,1994,1(4):331-356.),他们对reaching运动进行了实验研究,该实验在鼠标中植入一个Polhemus IsotrakTM传感器用以追踪物体选择运动,并发现Z轴上的reaching运动符合Fitts'law(FITTS P M.TheInformation Capacity ofthe Human Motor System in Controlling the AmplitudeofMovement[J].Journal ofExperimental Psychology,1954,47(6):381.)。目前研究都依赖于在被试身体上加入传感器或者佩戴其他物品的方式实现,操作复杂。而且普通摄像头难以获取深度信息,无法利用深度方向上的细小距离变化来进行层级菜单的精确选择。本发明可以不依赖人体佩戴其它设备,通过深度摄像机来捕捉深度变化,将深度变化与菜单选择动作进行映射,来实现大屏幕的菜单选择,实现自然人机交互。
发明内容
针对现有技术中存在的技术问题,本发明的目的在于提供一种利用上臂伸展信息进行命令选择的方法。通过身体运动控制光标移动,操作显示界面目前局限于XOY二维平面。对于三维空间的尤其是Z轴的深度信息利用很少。考虑到3D空间变化复杂,用户很难精确控制,因此选择深度维度的距离变化做为菜单选择的映射。
本发明的技术方案为:
一种利用上臂伸展信息进行命令选择的方法,其步骤为:
1)在控制器上创建一Stretching组件及该Stretching组件的菜单;
2)控制器通过显示屏幕上的深度摄像机实时采集该用户手心的三维空间位置,然后计算手心位置到该用户身体平面的投影距离,得到该用户的手臂伸展长度并将其发送给Stretching组件;
3)Stretching组件将该用户的手臂伸展长度转换为屏幕上光标在所述菜单上的显示位置;其中,手臂伸展长度为零时,光标位于所述菜单的起点;
4)用户通过改变手臂伸展长度控制光标移动,当光标移动到所述菜单上的一待选菜单项时,保持手势悬停时间大于设定时间,则该菜单项被选中。
进一步的,所述Stretching组件根据公式SCPosition=L/Y*CPosition将该用户的手臂伸展长度转换为屏幕上光标在所述菜单上的显示位置;其中,SCPosition为光标的位置,CPosition为当前手臂所在位置,屏幕的上下方向长度为Y像素,L为该用户的手臂伸展长度。
进一步的,所述菜单为饼形菜单,光标起点为饼形菜单的圆心,光标在圆心到菜单外边缘的范围内与手臂伸展长度进行映射。
进一步的,所述菜单为竖直菜单或水平菜单,光标起点为菜单的一端,光标的位置在菜单长度范围内与手臂伸展长度进行映射。
进一步的,当进行图片浏览操作时,用户抬起手向外推或向里收时,Stretching组件自动控制图片相对应地在屏幕上放大或缩小显示。
进一步的,所述菜单状态包括:菜单被激活,菜单失效,菜单选择开始和菜单选择完成。
进一步的,当用户将手臂抬起至肩部位置时,菜单处于被激活状态;当手臂处于向前水平伸展状态,光标位于某个菜单项的边缘时,菜单处于失效状态;当手臂处于向前水平伸展状态,光标进入所述菜单的中心区域时,菜单处于选择开始状态;当手臂处于向前水平伸展状态,光标位于某个菜单项的边缘并保持,则菜单处于选择完成状态。
本发明通过采用一种新技术(Stretching组件)来执行深度摄像机捕捉下的离散性和连续性的交互任务。离散性交互任务的例子包括菜单选择,模式切换等。Stretching组件可以设计成不同的形状,如竖直菜单、水平菜单、饼形菜单等。不同形式的菜单设计需要选择合适的映射参数。当采用竖直或水平菜单时,光标起点为在其一端,光标的位置(在菜单竖直长度或水平长度范围内)与手臂伸展长度进行映射。当采用饼型菜单时,其光标起点为饼形菜单的圆心,在圆心到菜单外边缘的范围内与手臂伸展长度进行映射。连续性交互任务包括移动物体或在空间中导航。对于这样的任务,Stretching组件可以设计为一维形状(如线,圆),而光标需要在一维形状上不断移动,给用户提供当前参数值的实时反馈。
Stretching组件为软件模块,通过安置在显示屏幕上方的深度摄像机采集用户上臂伸展信息,将其发送给该组件,该组件根据伸展信息控制光标移动进行命令选择,通过该组件的不同选择转换为指令对大屏幕进行控制。
Stretching组件基于三维的方向信息(见图1)来完成上述任务,通过深度摄像机采集到手心的三维空间位置,然后计算手心位置到身体平面的投影距离(手臂伸展长度),将该长度的变化按照映射规则转换为屏幕菜单的光标显示位置。可以很轻松地植入用户界面中,不会与现有的设计相冲突,无需其它辅助设备的帮助。因此,本发明能完全自由地使用单手来同时完成指令选择和确认的任务,并且不影响手指精细动作。
本发明Stretching组件的显示形状见图2,形状为矩形或圆盘形,矩形菜单选项呈矩形垂直排列,圆盘形菜单选项在圆盘中呈环形排列。用户通过向前水平伸缩手臂来选择一个菜单项。当要选中一个菜单项时,保持手势悬停时间大于0.8秒,该菜单项被选中。
Stretching组件通过深度摄像机追踪手掌中心的三维位置,利用手掌中心的二维平面坐标来控制菜单的显示位置,以手掌中心在屏幕上的投影位置为其界面的中心,以手臂伸展长度的变化来控制光标的移动和显示位置,当手臂伸展控制光标移动时,菜单的显示位置保持固定。因此,Stretching组件可以节省菜单定位时间,节省物理上的选择位移。与此同时,用户采用伸缩上臂的方式来选择菜单项,不用改变手势原有的运动轨迹。大大便利了用户操作。
我们是基于上下文的当前任务需求来调用Stretching组件的,而不是一个明确的调用行为。当用户将手抬起,手掌心位置达到一定高度时,则显示当前任务环境下相应的功能选单,若当前所提供的功能选项可以直接与手臂伸展长度进行直接映射时(如伸展长度增大、减少对应图片的放大、缩小功能),则无需进行菜单选择,直接通过手臂的伸缩动作进行控制。例如,在深度摄像机的深度感知范围内,当浏览客厅电视上的图片时(深度摄像机安置在屏幕上方),抬起手向外推或向里收时,Stretching组件会自动出现,控制图片相对应地在屏幕上放大或缩小显示。当上下文情境改变时,如手臂放下或退出当前交互任务,Stretching组件会自动消失,无需用户的取消操作。
我们在三维笛卡尔坐标系中计算动态光标是否选中了Stretching组件的某个菜单项(见图3)。
Stretching组件的中心定位在手掌中心的位置,该中心即为三维坐标系的中心点。视点位于Z轴正方向的无穷远处。将手掌所处的位置向量投影到XOY平面,将投影量命名为Stretching动态光标。用动态光标来选择Stretching组件中的某个菜单项。
计算Stretching组件的菜单项是否被选中,其步骤为:
1)计算动态光标的位置SCPosition;
Stretching组件在进行菜单项显示时需要使用动态光标来标识当前被选中的菜单项,计算动态光标的位置SCPosition,需要用到如下参数(见图3):手臂长度(肩部到掌心的Z轴距离)L,屏幕的上下方向长度为Y像素。L和Y两个值在手臂和光标的不同坐标系统之间建立映射。手臂的坐标系统是XYZ,映射关系是Z轴和光标的线性坐标系统建立映射关系。即在手臂伸展长度与光标位置之间建立映射:
SCPosition=L/Y*CPosition;其中CPosition为当前手臂所在位置,L为通过深度图像计算出来的手臂伸展长度,SCPosition为菜单选择动态光标的实际位置。
2)若SCPosition的值在中心区域的范围内,意味着动态光标处于激活状态,或选中了Stretching组件中的某个菜单项。
Stretching组件状态转换:
见图2,Stretching组件界面的由菜单项包围的内区域称为中心区域(CenterRegion)。见图4,总共有四种状态:
状态1:菜单被激活。
状态2:菜单失效。此时手臂处于向前水平伸展状态,动态光标击中了中心区域的边缘。
可由状态1进入状态2,状态转移条件是:在动态光标处于状态1,光标击中了某个菜单项的边缘。
状态3:菜单选择开始。此时手臂处于向前水平伸展状态,动态光标进入中心区域的内部。
可由状态1进入状态3,状态转移条件是:在动态光标处于状态1,此时手臂处于向前水平伸展状态,动态光标完全位于中心区域的内部。
可由状态2进入状态3,状态转移条件是:在动态光标处于状态2,此时手臂处于向前水平伸展状态,动态光标重新进入中心区域的内部。
状态4:菜单选择完成。
可由状态3进入状态4,状态转移条件是:在动态光标处于状态3,此时手臂处于向前水平伸缩状态,光标击中了某个菜单项的边缘或进入菜单选项区域,并保持0.8秒。
状态转换全过程:
1、动态光标处于状态1,菜单被激活,中心处于手掌中心在屏幕的投影位置。菜单动态光标自动跟随手臂前后伸展运动进行移动,选择菜单项,用户完成选择活动后,组件消失。在此过程中,手臂伸展的距离信息决定了菜单的下一个状态。
2、动态光标处于状态1,动态光标整体位于本发明Stretching组件界面的中心区域内,状态转换至状态3:开始准备选择状态。在状态3,用户通过保持动态光标位置0.8秒,来完成选择任务。
3、动态光标处于状态1,在用户执行选择任务之前,动态光标已经击中了某个菜单项的边缘,那么状态转换至状态2,菜单失效。
4、若用户想从状态2转移到状态3,必须调整手臂伸展距离,使得动态光标整体位于本发明的中心区域内。
5、用户当前处于状态3,此时只要使动态光标击中本发明的Stretching组件某个菜单项的边缘或进入菜单项区域,保持0.8秒,即可完成某个菜单项的选择活动。
为使用户能够高效地使用Stretching组件,我们对手臂伸展和菜单的状态采取实时可视反馈的技术:使用动态光标动态反馈手臂伸展状态的三维可视化线索。当菜单处于失效状态(见图4状态2)时,菜单选项呈灰色。当菜单处于开始选择状态(见图4状态3)时,当前被选择的菜单项高亮显示,可视反馈出当前手臂伸展的位置信息。若用户一直保持手臂当前的向前伸展状态大于0.8秒,高亮的菜单项就会被选中。选择完成之后,Stretching组件自动消失。
与现有技术相比,本发明的积极效果为:
(1)提出不使用佩戴式传感器,基于固定式的深度摄像机,使用上臂伸展信息来进行菜单命令选择的方法,并且不影响手指精细动作。
(2)设计了Stretching组件来执行深度摄像机捕捉下的离散性和连续性的交互任务。通过安置在显示屏幕上方的深度摄像机采集用户上臂伸展信息,控制动态光标在一维形状菜单(如线,圆)上不断移动,进行菜单命令选择,通过该组件的不同选择转换为指令对大屏幕进行控制。
(3)提出了将手臂的伸展长度与菜单选择动态光标位置的线性映射方法,并给出了相应的计算公式。
(4)设计了基于手臂伸展位置变化的菜单选择状态转换图。
附图说明
图1为一位右手操作的用户使用本发明在手臂伸展的同时进行任务选择示意图。
图2为用户在图1状态下使用本发明示意图;
(a)矩形菜单,(b)圆形菜单。
图3为用户计算本发明中某个菜单项是否被选中的坐标系。
图4为本发明的状态转换图。
图5为动态光标的计算流程图。
具体实施方式
为了使本技术领域的人员更好的理解本发明,下面结合附图和实施方式对本发明作进一步的详细说明。
1)计算机通过深度相机获取手心位置并计算用户的手臂长度信息L,
2)首先参照图3,图3是实现动态光标的二维笛卡儿坐标系原理图,动态光标头在坐标的原点,视点在光标上z坐标轴的正向无限处,动态光标是手臂向量在XY平面上的投影。动态光标形状的计算可参考图5,其步骤如下:
设定初始参数,包含L,Y;
所述设定初始参数其值需根据显示屏的参数以及希望得到的效果来设定。
计算动态光标的位置,其详细步骤如下:SCPosition=L/Y*CPosition;其中CPosition为当前手臂所在位置。
3)状态转换(见图4):
见图2,Stretching组件的由菜单项包围的内区域称为中心区域(CenterRegion)。总共有四种状态:
状态1:菜单被激活。
状态2:菜单失效。此时手臂处于向前水平伸展状态,动态光标进入了某个菜单项的范围。
可由状态1进入状态2,状态转移条件是:在动态光标处于状态1,光标击中了某个菜单项的边缘。
状态3:菜单选择开始。此时手臂处于向前水平伸展状态,动态光标进入中心区域的内部。
可由状态1进入状态3,状态转移条件是:在动态光标处于状态1,此时手臂处于向前水平伸展状态,动态光标完全位于中心区域的内部。
可由状态2进入状态3,状态转移条件是:在动态光标处于状态2,此时手臂处于向前水平伸展状态,动态光标重新进入中心区域的内部。
状态4:菜单选择完成。
可由状态3进入状态4,状态转移条件是:在动态光标处于状态3,此时手臂处于向前水平伸展状态,光标进入了某个菜单项的范围并保持在该菜单项区域内部。
状态转换全过程:
1、动态光标处于状态1,菜单被激活,中心处于手掌中心位置。光标自动跟随手臂前后伸展运动,知道用户完成选择活动后消失。在此过程中,手臂与屏幕的距离信息决定了菜单的下一个状态。
2、动态光标处于状态1,动态光标整体位于本发明Stretching组件界面的中心区域内,状态转换至状态3:开始准备选择状态。在状态3,用户通过保持手臂当前的向前伸展状态大于0.8秒来完成选择任务。
3、动态光标处于状态1,在用户执行选择任务之前,动态光标已经击中了Stretching组件中的某个菜单项的边缘,那么状态转换至状态2,菜单失效。
4、若用户想从状态2转移到状态3,必须调整手臂与屏幕之间的距离,使得动态光标整体位于本发明Stretching组件界面的中心区域内。
5、用户当前处于状态3,此时只要使动态光标击中本发明Stretching组件的某个菜单选项边缘或进入菜单选项区域,并保持0.8秒,即可完成某个菜单项的选择活动。
实施例
在运行Stretching组件的软件环境中,Stretching组件的后台任务不断与深度摄像机进行通信,实时检测用户的手心位置,当用户的手臂处于自然下垂,手心位置位于肩关节以下时,Stretching组件处于未激活状态。在进行图片浏览操作时,用户在自然状态下,将手抬起肩部高度左右的位置,此时,Stretching组件激活并显示一个含有“缩放、旋转、返回上一级”三个选项的竖直方向菜单,光标此时处在顶部菜单边缘,没有菜单选项被选中,此时手掌前推,则手臂的伸展长度增加,光标位置开始向下移动,从上到下依次经过三个菜单选项,当手掌停止移动时则光标固定在某个菜单选项之上,若手掌位置保持0.8秒,则该选项菜单被选中,调用相应的程序功能。当光标触及最低端的菜单选项时,即使手臂继续前伸,光标也不会移动。当手臂回收时,则手臂的伸展长度减少,则此时光标从当前位置由下至上移动,若触及最顶端的菜单选项,则光标停止移动。在Stretching组件菜单显示时,若手臂放下或选择了“返回上一级”选项,则Stretching组件菜单消失。
Claims (7)
1.一种利用上臂伸展信息进行命令选择的方法,其步骤为:
1)在控制器上创建一组件及该组件的菜单;
2)控制器通过显示屏幕上的深度摄像机实时采集用户手心的三维空间位置,然后计算手心位置到该用户身体平面的投影距离,得到该用户的手臂伸展长度并将其发送给该组件;
3)该组件将该用户的手臂伸展长度转换为屏幕上光标在所述菜单上的显示位置;其中,手臂伸展长度为零时,光标位于所述菜单的起点;
4)用户通过改变手臂伸展长度控制光标移动,当光标移动到所述菜单上的一待选菜单项时,保持手势悬停时间大于设定时间,则该菜单项被选中。
2.如权利要求1所述的方法,其特征在于,所述组件根据公式SCPosition=L/Y*CPosition将该用户的手臂伸展长度转换为屏幕上光标在所述菜单上的显示位置;其中,SCPosition为光标的位置,CPosition为当前手臂所在位置,屏幕的上下方向长度为Y像素,L为该用户的手臂伸展长度。
3.如权利要求1或2所述的方法,其特征在于,所述菜单为饼形菜单,光标起点为饼形菜单的圆心,光标在圆心到菜单外边缘的范围内与手臂伸展长度进行映射。
4.如权利要求1或2所述的方法,其特征在于,所述菜单为竖直菜单或水平菜单,光标起点为菜单的一端,光标的位置在菜单长度范围内与手臂伸展长度进行映射。
5.如权利要求1或2所述的方法,其特征在于,当进行图片浏览操作时,用户抬起手向外推或向里收时,该组件自动控制图片相对应地在屏幕上放大或缩小显示。
6.如权利要求1或2所述的方法,其特征在于,所述菜单状态包括:菜单被激活,菜单失效,菜单选择开始和菜单选择完成。
7.如权利要求6所述的方法,其特征在于,当用户将手臂抬起至肩部位置时,菜单处于被激活状态;当手臂处于向前水平伸展状态,光标位于某个菜单项的边缘时,菜单处于失效状态;当手臂处于向前水平伸展状态,光标进入所述菜单的中心区域时,菜单处于选择开始状态;当手臂处于向前水平伸展状态,光标位于某个菜单项的边缘并保持,则菜单处于选择完成状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510254390.XA CN104866096B (zh) | 2015-05-18 | 2015-05-18 | 一种利用上臂伸展信息进行命令选择的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510254390.XA CN104866096B (zh) | 2015-05-18 | 2015-05-18 | 一种利用上臂伸展信息进行命令选择的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104866096A CN104866096A (zh) | 2015-08-26 |
CN104866096B true CN104866096B (zh) | 2018-01-05 |
Family
ID=53911977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510254390.XA Active CN104866096B (zh) | 2015-05-18 | 2015-05-18 | 一种利用上臂伸展信息进行命令选择的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104866096B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536273A (zh) * | 2017-03-01 | 2018-09-14 | 天津锋时互动科技有限公司深圳分公司 | 基于手势的人机菜单交互方法与系统 |
CN106951072A (zh) * | 2017-03-06 | 2017-07-14 | 南京航空航天大学 | 基于Kinect的屏幕菜单体感交互方法 |
CN108536291A (zh) * | 2018-03-29 | 2018-09-14 | 努比亚技术有限公司 | 一种应用操作方法、可穿戴设备及存储介质 |
CN108549487A (zh) * | 2018-04-23 | 2018-09-18 | 网易(杭州)网络有限公司 | 虚拟现实交互方法与装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013094786A1 (en) * | 2011-12-21 | 2013-06-27 | Lg Electronics Inc. | Electronic device having 3-dimensional display and method of operating thereof |
CN103218041A (zh) * | 2007-07-27 | 2013-07-24 | 高通股份有限公司 | 增强的基于相机的输入 |
CN103442177A (zh) * | 2013-08-30 | 2013-12-11 | 程治永 | 一种基于手势识别的ptz摄像机控制系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4701424B2 (ja) * | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
US9063578B2 (en) * | 2013-07-31 | 2015-06-23 | Microsoft Technology Licensing, Llc | Ergonomic physical interaction zone cursor mapping |
-
2015
- 2015-05-18 CN CN201510254390.XA patent/CN104866096B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218041A (zh) * | 2007-07-27 | 2013-07-24 | 高通股份有限公司 | 增强的基于相机的输入 |
WO2013094786A1 (en) * | 2011-12-21 | 2013-06-27 | Lg Electronics Inc. | Electronic device having 3-dimensional display and method of operating thereof |
CN103442177A (zh) * | 2013-08-30 | 2013-12-11 | 程治永 | 一种基于手势识别的ptz摄像机控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104866096A (zh) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Poupyrev et al. | Manipulating objects in virtual worlds: Categorization and empirical evaluation of interaction techniques | |
Ren et al. | 3D selection with freehand gesture | |
KR101522991B1 (ko) | 조작입력장치 및 방법, 그리고 프로그램 | |
Malik et al. | Visual touchpad: a two-handed gestural input device | |
CN104866096B (zh) | 一种利用上臂伸展信息进行命令选择的方法 | |
CN102662577B (zh) | 一种基于三维显示的光标操作方法及移动终端 | |
KR20230054733A (ko) | 가상 제어부들과 상호작용하기 위한 방법들 및/또는 가상 환경들에서 가상 객체들을 이동시키기 위한 어포던스 | |
US8269729B2 (en) | Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques | |
Maggioni | A novel gestural input device for virtual reality | |
US8872762B2 (en) | Three dimensional user interface cursor control | |
US20200310561A1 (en) | Input device for use in 2d and 3d environments | |
US9857868B2 (en) | Method and system for ergonomic touch-free interface | |
JP5515067B2 (ja) | 操作入力装置および操作判定方法並びにプログラム | |
Billinghurst et al. | Advanced interaction techniques for augmented reality applications | |
Kratz et al. | PalmSpace: continuous around-device gestures vs. multitouch for 3D rotation tasks on mobile devices | |
US20110298708A1 (en) | Virtual Touch Interface | |
EP2395413A1 (en) | Gesture-based human machine interface | |
US20150067603A1 (en) | Display control device | |
JP2007334870A (ja) | 直接入力装置の位置をマッピングする方法およびシステム | |
US10180714B1 (en) | Two-handed multi-stroke marking menus for multi-touch devices | |
JP2006209563A (ja) | インターフェース装置 | |
CN101866243A (zh) | 三维空间触控操作的方法及其手势 | |
CN105103112A (zh) | 用于操纵显示装置上的对象的取向的设备和方法 | |
US9310851B2 (en) | Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof | |
CN103389793A (zh) | 人机交互方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |