CN103365567A - 基于加速度感应器的3d-ui操作方法和设备 - Google Patents
基于加速度感应器的3d-ui操作方法和设备 Download PDFInfo
- Publication number
- CN103365567A CN103365567A CN201210101999XA CN201210101999A CN103365567A CN 103365567 A CN103365567 A CN 103365567A CN 201210101999X A CN201210101999X A CN 201210101999XA CN 201210101999 A CN201210101999 A CN 201210101999A CN 103365567 A CN103365567 A CN 103365567A
- Authority
- CN
- China
- Prior art keywords
- action
- predefine
- operational order
- result
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001133 acceleration Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000009471 action Effects 0.000 claims abstract description 265
- 238000012544 monitoring process Methods 0.000 claims abstract description 6
- 230000033001 locomotion Effects 0.000 claims description 66
- 230000006698 induction Effects 0.000 claims description 44
- 230000008878 coupling Effects 0.000 claims description 24
- 238000010168 coupling process Methods 0.000 claims description 24
- 238000005859 coupling reaction Methods 0.000 claims description 24
- 238000010586 diagram Methods 0.000 description 18
- 238000009987 spinning Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 108010022579 ATP dependent 26S protease Proteins 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
提供了一种基于加速度感应器的3D-UI操作方法和设备,所述方法包括:监听加速度感应事件;针对监听到的加速度感应事件进行动作识别;根据动作识别的结果产生3D-UI操作指令;根据产生的3D-UI操作指令完成相应的3D-UI操作。通过所述方法和设备,可真正实现3D-UI的3D操作体验并且满足用户个性化操作体验需求。
Description
技术领域
本发明涉及一种3D-UI操作方法和设备,更具体地说,涉及一种基于加速度感应器进行动作识别来进行3D-UI操作的方法和设备。
背景技术
随着用户界面(UI)技术的发展,用户界面越来越简易化,二维(2D)的操作难以提供更好的交互体验,因此,二维的操作界面转向三维(3D)的操作界面发展。
然而,目前,对于新颖的3D-UI人机交互体验(例如,移动终端的3D-UI人机交互体验),操作方式并没有太大的变化,只是简单的模仿3D化的效果。换句话说,真正的操作和使用还停留在2D平面上,例如,通过触屏点触、拖拽以及键盘点击来实现3D-UI中旋转、缩放、返回、确认以及退出等操作。虽然也出现了一些支持加速度感应的应用和游戏,但是应用的场景和实现的功能有限。
此外,由于现有的3D-UI操作方式主要是通过触屏点触、拖拽以及键盘点击,这点与传统UI操作方式并无太大区别,这样3D-UI只能达到3D显示效果,而无法带来3D操控的体验,于是大大削弱了用户对3D-UI的热情。
因此,需要一种真正实现3D-UI的3D操作体验并且满足用户个性化操作体验需求的操作3D-UI的方法和设备。
发明内容
本发明提供一种基于加速度感应器的3D-UI操作方法和设备。所述方法和设备通过使用加速度感应器来实现对3D-UI的操作,使得用手指点触按键或屏幕不再必要,从而操作更加方便,并真正实现3D操作的用户体验。
所述方法和设备还可根据用户习惯对操作动作和操作指令进行设置,满足了用户个性化操作体验的需求。
根据本发明的一方面,提供了一种基于加速度感应器的3D-UI操作方法,包括:监听加速度感应事件;针对监听到的加速度感应事件进行动作识别;根据动作识别的结果产生3D-UI操作指令;根据产生的3D-UI操作指令完成相应的3D-UI操作。
动作识别的结果可由动作参数表示。
动作参数可包括动作类型、轴信息、运动方向和动作幅度中的至少一个。
产生3D-UI操作指令的步骤可包括:搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令,其中,预定义动作由包含预定范围的动作参数表示,其中,表示动作识别的结果的动作参数落入表示与动作识别的结果匹配的预定义动作的动作参数的预定范围内。
所述方法还可包括:在监听加速度感应事件之前,设置预定义动作和与预定义动作相应的3D-UI操作指令,并将设置的预定义动作和与预定义动作相应的3D-UI操作指令存储在存储单元中。
搜索与动作识别的结果匹配的预定义动作的步骤可包括:在存储有设置的预定义动作和与预定义动作相应的3D-UI操作指令的存储单元中搜索与动作识别的结果匹配的预定义动作。
产生3D-UI操作指令的步骤可包括:产生与动作识别的结果相应的3D-UI操作指令。
3D-UI操作可包括3D-UI的旋转、缩放、返回中的至少一个。
根据本发明的另一方面,提供了一种基于加速度感应器的3D-UI操作设备,包括:包括加速度感应器的动作识别单元,用于监听加速度感应事件,对监听到的加速度感应事件进行动作识别;操作指令产生单元,根据动作识别的结果产生3D-UI操作指令;操作执行单元,根据产生的3D-UI操作指令,完成相应的3D-UI操作。
动作识别的结果可由动作参数表示。
动作参数可包括动作类型、轴信息、运动方向和动作幅度中的至少一个。
操作指令产生单元搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令,其中,预定义动作由包含预定范围的动作参数表示,其中,表示动作识别的结果的动作参数落入表示与动作识别的结果匹配的预定义动作的动作参数的预定范围内。
所述设备还可包括:存储单元,存储预定义动作和与预定义动作相应的3D-UI操作指令。
所述设备还可包括:设置单元,设置预定义动作和与预定义动作相应的3D-UI操作指令,将设置的预定义动作和与预定义动作相应的3D-UI操作指令存储到存储单元中。
操作指令产生单元可在存储有设置的预定义动作和与预定义动作相应的3D-UI操作指令的存储单元中搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令。
操作指令产生单元可产生与动作识别的结果相应的3D-UI操作指令。
3D-UI操作可包括3D-UI的旋转、缩放、返回中的至少一个。
本发明提供了一种通过使用加速度感应器进行动作识别来操作3D-UI的方法和设备。所述方法和设备真正实现3D操作的用户体验,符合3D用户体验的发展需求。此外,所述方法和设备可根据用户习惯对操作动作和操作指令进行设置,满足了用户个性化操作体验的需求,大大增强了操作的扩展性。此外,所述方法和设备易于实现和推广,适用于目前所有具备加速度感应器的移动终端以及除了移动终端之外的其它终端(例如,TV等)。
附图说明
结合附图,通过公开本发明的示例性实施例的以下详细的描述,本发明的其它方面、优点和突出的特征将对本领域的技术人员变得清楚,其中:
图1是根据本发明的示例性实施例的基于加速度感应器的3D-UI操作设备的框图;
图2是示出根据本发明的示例性实施例的旋转动作的示图;
图3是示出根据本发明的示例性实施例的水平纵向移动动作的示图;
图5是示出根据本发明的示例性实施例的旋转操作的示图;
图6是示出根据本发明的示例性实施例的放大操作的示图;
图7是示出根据本发明的示例性实施例的返回操作的示图;
图8是示出根据本发明的示例性实施例的基于加速度感应器的3D-UI操作方法的流程图;
图9是示出根据本发明的另一示例性实施例的基于加速度感应器的3D-UI操作方法的流程图。
具体实施方式
以下,参照附图来详细描述示例性实施例以使本领域的普通技术人员更易于理解。目前本发明的示例性实施例实际上可包含各种形式,并不局限于显示和描述于此的示例。当包括已知结构和功能可能使得本领域普通技术人员对本发明不能清楚理解时,为了清晰,对公知的结构和功能的描述可被省略,并且在整个描述中,相同的标号表示相同的元件。
图1是根据本发明的示例性实施例的基于加速度感应器的3D-UI操作设备的框图。
参照图1,基于加速度感应器的3D-UI操作设备100可包括:动作识别单元101、操作指令产生单元103和操作执行单元105。作为附加部件,设备100还可包括设置单元107和存储单元109。
动作识别单元101可包括加速度感应器,用于监听加速度感应事件,对监听到的加速度感应事件进行动作识别,并将动作识别的结果发送到操作指令产生单元103。
例如,根据本发明的示例性实施例的动作识别单元101可通过动作识别算法对监听到的加速度感应事件进行动作识别。这里,动作识别算法可包括:数据采集,分别对加速度感应器的三个轴(即X轴、Y轴和Z轴)进行采样,采样结果通过预定义的加速度数据序列来表示;数据处理,在数据序列中针对每个轴计算当前数据与先前数据的差值,通过参考设定的阀值,来判定是否在各轴移动;动作识别,通过各轴移动的轨迹,得到动作轨迹的类型即动作类型,由数据处理中的差值大小决定幅度参数。
因此,动作识别单元101在进行动作识别时,可产生动作参数,并将产生的动作参数发送到操作指令产生单元103。动作参数可包括但不限于动作类型、轴信息、运动方向或动作幅度等。在本发明的示例性实施例中,动作参数包括动作类型、轴信息、动作方向和动作幅度中的至少一个。
以下,参照图2至图4描述根据本发明的示例性实施例的各动作的示例。在图2至图4中,以移动终端为示例进行说明。
图2是示出根据本发明的示例性实施例的旋转动作的示图。参照图2,用户沿Y轴顺时针将移动终端倾斜30度。假设基准旋转角度为360度,顺时针为正方向,则复位后或经过预定时间之后,动作识别单元101可通过动作识别算法,识别出以下动作参数:动作类型为旋转,轴信息为Y轴,运动方向为正方向,动作幅度为相比基准旋转角度的动作幅度30/360,即,动作参数为(rotate、y-axis、+30/360)。其中,rotate表示旋转,y-axis表示Y轴,+表示正方向,30/360表示相比基准旋转角度的动作幅度。
图3是示出根据本发明的示例性实施例的水平纵向移动动作的示图。参照图3,用户沿Z轴反方向将移动终端快速移动,Z轴反方向产生的加速度为2,假设基准加速度为10,则复位后或经过预定时间之后,识别动作单元101可通过动作识别算法,识别出以下动作参数:动作类型为水平纵向移动,轴信息为Z轴,动作方向为反方向,动作幅度为相比基准加速度的动作幅度2/10,即动作参数为(line、z-axis、-2/10)。其中,line表示直线运动,z-axis表示Z轴,-表示反方向,2/10表示相比基准加速度的动作幅度。
图4是示出根据本发明的示例性实施例的自定义动作的示图。参照图4,用户沿X轴正方向将移动终端快速移动,X轴方向产生的加速度为2,然后再沿Y轴正方向将移动终端快速移动,Y轴方向产生的加速度为2,复位后或经过预定时间之后,动作识别单元101通过动作识别算法,识别出以下动作参数:动作1:动作类型为水平横向移动,轴信息为X轴,运动方向为正方向,动作幅度为相比基准加速度的动作幅度2/10;动作2:动作类型为垂直向上移动,轴信息为Y轴,运动方向为正方向,动作幅度为相比基准加速度的动作幅度2/10,即,动作参数为((line、x-axis、+2/10),(line、y-axis、+2/10)),即动作其中,line表示直线运动,x-axis和y-axis分别表示X轴和Y轴,+表示正方向,2/10表示相比基准加速度的动作幅度。
在以上三个示例性实施例中,在动作复位后的时间点或经过预定时间之后的时间点,确定一个连续动作已结束,但本发明不限于此。
返回参照图1,操作指令产生单元103从动作识别单元101接收动作识别的结果,根据动作识别的结果产生3D-UI操作指令,并将产生的3D-UI操作指令发送到操作执行单元105。
根据本发明的一个示例性实施例,操作指令产生单元103可搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令。这里,动作识别的结果可由动作参数表示,预定义动作可由包含预定范围的动作参数表示,其中,动作参数可包括但不限于动作类型、轴信息、运动方向或动作幅度等。这样,表示动作识别的结果的动作参数落入表示与动作识别的结果匹配的预定义动作的动作参数的预定范围内。例如,在对界面进行一些操作(例如,旋转、放大、缩小、返回、确认、退出等)的情况下,可使用与预定义动作相应的3D-UI操作指令,这样可使得界面操作更加方便。预定义动作和与预定义动作相应的3D-UI操作指令可由例如移动终端制造商提供,或可由用户根据自己的习惯设置,或可通过网络下载等,但本发明不限于此。
例如,在3D-UI为六面柱体模型的情况下,用于将界面按逆时针旋转到下一个界面的旋转动作可被预定义为:动作类型为旋转,轴信息为Y轴;运动方向为正方向,动作幅度范围为相比基准旋转角度的动作幅度30/360至90/360,即,预定义旋转动作为(rotate、y-axis、+30/360~+90/360)。与预定义旋转动作相应的3D-UI操作指令可被预定义为rotate。其中,rotate表示旋转,y-axis表示Y轴,+表示正方向,30/360~90/360表示动作幅度范围。但本发明的预定义旋转动作和与预定义旋转动作相应的3D-UI操作指令不限于此。当操作指令产生单元103从动作识别单元101接收到的表示动作识别的结果的动作参数落入表示预定义动作的动作参数的预定范围内时,确定该动作与该预定义动作匹配。例如,操作指令产生单元103从动作识别单元101接收到动作参数(rotate、y-axis、+30/360),通过搜索找到与其匹配的预定义旋转动作(rotate、y-axis、+30/360~+90/360),产生与预定义旋转动作相应的3D-UI操作指令rotate,并将产生的3D-UI操作指令rotate发送到操作执行单元105。
例如,在3D-UI为六面柱体模型的情况下,用于令界面放大的水平纵向移动动作可被预定义为:动作类型为水平纵向移动,轴信息为Z轴,动作方向为反方向,动作幅度为相比基准加速度的动作幅度2/10~10/10,即预定义水平纵向移动动作为(line、z-axis、-2/10~-10/10)。与预定义水平纵向移动动作相应的3D-UI操作指令可被预定义为zoom-in。其中,line表示直线运动,z-axis表示Z轴,-表示反方向,2/10~10/10表示动作幅度范围,zoom-in表示放大。但本发明的预定义水平纵向移动动作和与预定义水平纵向移动动作相应的3D-UI操作指令不限于此。当操作指令产生单元103从动作识别单元101接收到的表示动作识别的结果的动作参数落入表示预定义动作的动作参数的预定范围内时,确定该动作与该预定义动作匹配。例如,操作指令产生单元103从动作识别单元101接收到动作参数(line、z-axis、-2/10),通过搜索找到与其匹配的预定义水平纵向移动动作(line、z-axis、-2/10~-10/10),产生与预定义水平纵向移动动作相应的3D-UI操作指令zoom-in,并将产生的3D-UI操作指令zoom-in发送到操作执行单元105。
例如,在3D-UI为六面柱体模型的情况下,用于退出当前页面并返回上级页面的动作可被预定义为:动作1:动作类型为水平横向移动,轴信息为X轴,运动方向为正方向,动作幅度为相比基准加速度的动作幅度2/10~10/10;动作2:动作类型为垂直向上移动,轴信息为Y轴,运动方向为正方向,动作幅度为相比基准加速度的动作幅度2/10~10/10,即,预定义动作为((line、x-axis、+2/10~+10/10),(line、y-axis、+2/10~+10/10)),即动作与预定义动作相应的3D-UI操作指令可被预定为back。其中,line表示直线运动,x-axis和y-axis分别表示X轴和Y轴,+表示正方向,2/10~10/10表示动作幅度范围,back表示返回。但本发明的预定义动作和与预定义动作相应的3D-UI操作指令不限于此。当操作指令产生单元103从动作识别单元101接收到的表示动作识别的结果的动作参数落入表示预定义动作的动作参数预定范围内时,确定该动作与该预定义动作匹配。例如,操作指令产生单元103从动作识别单元101接收到动作参数(((line、x-axis、+2/10),(line、y-axis、+2/10)),通过搜索找到与其匹配的预定义动作((line、x-axis、+2/10~+10/10),(line、y-axis、+2/10~+10/10)),产生与预定义动作相应的3D-UI操作指令back,并将产生的3D-UI操作指令back发送到操作执行单元105。
根据本发明,在实际应用中,用户可根据自己的习惯来设置表示预定义动作的动作参数预定范围,这样使得3D-UI操作更加方便以及个性化。
根据本发明的另一示例性实施例,操作指令产生单元103可根据接收到的动作识别的结果,不经过搜索预定义动作而直接产生与动作识别结果相应的3D-UI操作指令。这里,动作识别的结果可以是动作参数,动作参数可包括但不限于动作类型、轴信息、运动方向或动作幅度等中的至少一个。
例如,在进行特定游戏操作的情况下,需要精确的3D-UI操作指令,则操作指令产生单元103可产生与由识别单元101识别的动作参数相应的精确的3D-UI操作指令。例如,当操作指令产生单元103从动作识别单元101接收到动作参数(rotate、y-axis、+30/360)时,不经过搜索预定义动作而直接产生精确的3D-UI操作指令(rotate、y-axis、+0.083)。当操作指令产生单元103从动作识别单元101接收到动作参数(line、z-axis、-2/10)时,不经过搜索预定义动作而直接产生精确的3D-UI操作指令(line、z-axis、-0.2)。
操作执行单元105从操作指令产生单元103接收产生的3D-UI操作指令,并根据产生的3D-UI操作指令,完成相应的3D-UI操作。
根据本发明的一个示例性实施例,操作执行单元105根据产生的与预定义动作相应的3D-UI操作指令,完成相应的3D-UI操作。以下,将参照图5至图7对此进行描述。
图5是示出根据本发明的示例性实施例的旋转操作的示图。参照图5,在3D-UI为六面柱体模型的情况下,操作指令产生单元103根据动作参数(rotate、y-axis、+30/360),通过搜索找到与其匹配的预定义旋转动作(rotate、y-axis、+30/360~+90/360),产生与预定义旋转动作相应的3D-UI操作指令rotate,操作执行单元105根据产生的3D-UI操作指令rotate,完成相应的3D-UI旋转操作,即将界面按逆时针旋转到下一个界面。
图6是示出根据本发明的示例性实施例的放大操作的示图。参照图6,在3D-UI为六面柱体模型的情况下,操作指令产生单元103根据动作参数(line、z-axis、-2/10),通过搜索与其相应的预定义水平纵向移动动作(line、z-axis、-2/10~-10/10),产生与预定义水平纵向移动动作相应的3D-UI操作指令zoom-in,操作执行单元105根据产生的3D-UI操作指令zoom-in,完成相应的3D-UI放大操作,即令界面放大。
图7是示出根据本发明的示例性实施例的返回操作的示图。参照图7,在3D-UI为六面柱体模型的情况下,操作指令产生单元103根据动作参数((line、x-axis、+2/10),(line、y-axis、+2/10)),通过搜索与其相应的预定义动作((line、x-axis、+2/10~+10/10),(line、y-axis、+2/10~+10/10)),产生与预定义动作相应的3D-UI操作指令back,操作执行单元105根据产生的3D-UI操作指令back,完成相应的3D-UI返回操作,即退出当前页面并返回上级页面。
返回参照图1,存储单元107用于存储预定义动作和与预定义动作相应的3D-UI操作指令。这里,预定义动作可包括默认的动作和用户自定义的动作。例如,默认的动作可由例如移动终端制造商提供,但本发明不限于此;用户自定义的动作可由用户根据自己的习惯设置或者可通过网络下载,但本发明不限于此。
根据本发明的示例性实施例,假设旋转动作和水平纵向移动动作是默认的动作,动作是由用户自定义的动作,但本发明不限于此。根据本发明的另一示例,用户也可自定义旋转动作和水平纵向移动动作。用户还可自定义其它各种动作,例如缩小、确定、退出等。
设置单元109用于设置预定义动作和与预定义动作相应的3D-UI操作指令,将设置的预定义动作和与预定义动作相应的3D-UI操作指令存储到存储单元107中。例如,用户可使用设置单元109设置预定义动作((line、x-axis、+2/10~+10/10),(line、y-axis、+2/10~+10/10))以及与预定义动作相应的3D-UI操作指令back,并将预定义动作和与预定义动作相应的3D-UI操作指令back存储到存储单元107中。
图8是示出根据本发明的示例性实施例的基于加速度感应器的3D-UI操作方法的流程图。在图8中,将所述方法应用于移动终端来进行说明。但是本领域技术人员将理解,移动终端仅为一个示例,所述方法还可被应用于其它终端(例如,TV等)。例如,当所述方法应用于TV时,可通过具有加速度感应器的装置(例如,遥控器等)有线或无线地与TV进行通信来对TV进行3D-UI操作。
参照图8,在步骤S801,打开移动终端之后,检测并判断移动终端当前UI模式。如果移动终端当前UI模式是3D-UI操作模式,则进行步骤S803。如果移动终端当前UI模式不是3D-UI操作模式,则进行步骤S802。移动终端被打开之后是否进行3D-UI操作模式可由移动终端开发商或用户设置。
在步骤S802,用户可选择是否将移动终端设置为3D-UI操作模式。如果用户将移动终端设置为3D-UI操作模式,则进行步骤S803。如果用户没有将移动终端设置为3D-UI操作模式,则进行其它相应操作。操作S801和S802是可选的,而非必要的。
在步骤S803,用户可选择是否设置预定义动作和与预定义动作相应的3D-UI操作指令。如果用户选择设置预定义动作和与预定义动作相应的3D-UI操作指令,则进行步骤S804,否则进行步骤S805。
在步骤S804,用户可通过设置单元109对预定义动作和与预定义动作相应的3D-UI操作指令进行设置,并将设置的预定义动作和与预定义动作相应的3D-UI操作指令存储到存储单元107中,并进行步骤S805。
在步骤S805,动作识别单元101不断监听加速度感应事件。如果在步骤805接收到加速度感应事件,则进行步骤S806。
在步骤S806,动作识别单元101针对监听到的加速度感应事件进行动作识别,并将动作识别的结果发送到操作指令产生单元103。
在步骤S807,操作指令产生单元103在接收到动作识别的结果之后,搜索与动作识别的结果匹配的预定义动作。例如,操作指令产生单元103可在存储有设置的预定义动作和与预定义动作相应的3D-UI操作指令的存储单元107中搜索与动作识别的结果匹配的预定义动作。这里,动作识别的结果可由动作参数表示,预定义动作可由包含预定范围的动作参数表示,其中,动作参数可包括但不限于动作类型、轴信息、运动方向或动作幅度等。这样,表示动作识别的结果的动作参数落入表示与动作识别的结果匹配的预定义动作的动作参数的预定范围内。
如果操作指令产生单元103搜索到与动作识别的结果匹配的预定义动作,则在步骤S808,操作指令产生单元103产生与预定义动作相应的3D-UI操作指令,并进行步骤S809。如果操作指令产生单元103没搜索到与动作识别的结果匹配的预定义动作,则返回到步骤S805,动作识别单元101继续监听加速度感应事件。
在步骤S809,操作执行单元105从操作指令产生单元103接收产生的3D-UI操作指令,并根据产生的3D-UI操作指令,完成相应的3D-UI操作。
在步骤S810,用户可选择是否退出3D-UI操作模式,但此操作是可选的,而不是必要的。例如,如果用户选择退出3D-UI操作模式,则3D-UI操作模式结束。如果用户选择不退出3D-UI操作模式,则返回到步骤S803。但本发明不限于此。
图9是示出根据本发明的另一示例性实施例的基于加速度感应器的3D-UI操作方法的流程图。在图9中,将所述方法应用于移动终端来进行说明。但是本领域技术人员将理解,移动终端仅为一个示例,所述方法还可被应用于其它终端(例如,TV等)。例如,当所述方法应用于TV时,可通过具有加速度感应器的装置(例如,遥控器等)有线或无线地与TV进行通信来对TV进行3D-UI操作。
参照图9,图9中的步骤S901至S906进行的操作与图8中的步骤S801至S806进行的操作基本相同,因此,为了简洁而省略对步骤S901至S906的描述。
在步骤S907,操作指令产生单元103在接收到动作识别的结果之后,产生与动作识别的结果相应的3D-UI操作指令,并进行步骤S908。
在步骤S908,操作执行单元105从操作指令产生单元103接收产生的3D-UI操作指令,并根据产生的3D-UI操作指令,完成相应的3D-UI操作。
在步骤S909,用户可选择是否退出3D-UI操作模式,但此操作是可选的,而不是必要的。例如,如果用户选择退出3D-UI操作模式,则3D-UI操作模式结束。如果用户选择不退出3D-UI操作模式,则返回到步骤S903。但本发明不限于此。
本发明提供一种基于加速度感应器的3D-UI操作方法和设备。所述方法和设备通过加速度感应器来实现对3D-UI的操作,使得用手指点触按键或屏幕不再必要,从而操作更加方便,并真正实现3D操作的用户体验,符合3D用户体验的发展需求。所述方法和设备还可根据用户习惯对操作动作和操作指令进行设置,满足了用户个性化操作体验的需求,大大增强了操作的扩展性。此外,所述方法和设备易于实现和推广,适用于目前所有具备加速度感应器的移动终端以及除了移动终端之外的其它终端(例如,TV等)。
虽然本发明是参照其示例性的实施例被显示和描述的,但是本领域的技术人员应该理解,在不脱离由权利要求及其等同物限定的本发明的精神和范围的情况下,可以对其形式和细节进行各种改变。
Claims (17)
1.一种基于加速度感应器的3D-UI操作方法,包括:
监听加速度感应事件;
针对监听到的加速度感应事件进行动作识别;
根据动作识别的结果产生3D-UI操作指令;
根据产生的3D-UI操作指令完成相应的3D-UI操作。
2.如权利要求1所述的方法,其中,动作识别的结果由动作参数表示。
3.如权利要求2所述的方法,其中,动作参数包括动作类型、轴信息、运动方向和动作幅度中的至少一个。
4.如权利要求2或3所述的方法,其中,产生3D-UI操作指令的步骤包括:
搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令,其中,预定义动作由包含预定范围的动作参数表示,
其中,表示动作识别的结果的动作参数落入表示与动作识别的结果匹配的预定义动作的动作参数的预定范围内。
5.如权利要求4所述的方法,还包括:在监听加速度感应事件之前,设置预定义动作和与预定义动作相应的3D-UI操作指令,并将设置的预定义动作和与预定义动作相应的3D-UI操作指令存储在存储单元中。
6.如权利要求5所述的方法,其中,搜索与动作识别的结果匹配的预定义动作的步骤包括:
在存储有设置的预定义动作和与预定义动作相应的3D-UI操作指令的存储单元中搜索与动作识别的结果匹配的预定义动作。
7.如权利要求2或3所述的方法,其中,产生3D-UI操作指令的步骤包括:
产生与动作识别的结果相应的3D-UI操作指令。
8.如权利要求1所述的方法,其中,3D-UI操作包括3D-UI的旋转、缩放、返回中的至少一个。
9.一种基于加速度感应器的3D-UI操作设备,包括:
包括加速度感应器的动作识别单元,用于监听加速度感应事件,对监听到的加速度感应事件进行动作识别;
操作指令产生单元,根据动作识别的结果产生3D-UI操作指令;
操作执行单元,根据产生的3D-UI操作指令,完成相应的3D-UI操作。
10.如权利要求9所述的设备,其中,动作识别的结果由动作参数表示。
11.如权利要求10所述的设备,其中,动作参数包括动作类型、轴信息、运动方向和动作幅度中的至少一个。
12.如权利要求10或11所述的设备,其中,操作指令产生单元搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令,其中,预定义动作由包含预定范围的动作参数表示,
其中,表示动作识别的结果的动作参数落入表示与动作识别的结果匹配的预定义动作的动作参数的预定范围内。
13.如权利要求12所述的设备,还包括:
存储单元,存储预定义动作和与预定义动作相应的3D-UI操作指令。
14.如权利要求13所述的设备,还包括:
设置单元,设置预定义动作和与预定义动作相应的3D-UI操作指令,将设置的预定义动作和与预定义动作相应的3D-UI操作指令存储到存储单元中。
15.如权利要求14所述的设备,其中,操作指令产生单元在存储有设置的预定义动作和与预定义动作相应的3D-UI操作指令的存储单元中搜索与动作识别的结果匹配的预定义动作,产生与预定义动作相应的3D-UI操作指令。
16.如权利要求10或11所述的设备,其中,操作指令产生单元产生与动作识别的结果相应的3D-UI操作指令。
17.如权利要求9所述的设备,其中,3D-UI操作包括3D-UI的旋转、缩放、返回中的至少一个。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210101999XA CN103365567A (zh) | 2012-03-31 | 2012-03-31 | 基于加速度感应器的3d-ui操作方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210101999XA CN103365567A (zh) | 2012-03-31 | 2012-03-31 | 基于加速度感应器的3d-ui操作方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103365567A true CN103365567A (zh) | 2013-10-23 |
Family
ID=49367043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210101999XA Pending CN103365567A (zh) | 2012-03-31 | 2012-03-31 | 基于加速度感应器的3d-ui操作方法和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103365567A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183325A (zh) * | 2015-10-27 | 2015-12-23 | 上海斐讯数据通信技术有限公司 | 一种自定义输入法及系统 |
CN105979391A (zh) * | 2016-06-02 | 2016-09-28 | 苏州乐米信息科技有限公司 | 一种智能电视游戏手势识别的方法 |
WO2021093543A1 (zh) * | 2019-11-13 | 2021-05-20 | 先临三维科技股份有限公司 | 扫描仪、及其操作方法、装置、系统、存储介质和处理器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101452366A (zh) * | 2007-12-07 | 2009-06-10 | 索尼株式会社 | 信息显示终端,信息显示方法和程序 |
CN101694692A (zh) * | 2009-10-22 | 2010-04-14 | 浙江大学 | 一种基于加速度传感器的手势识别的方法 |
US20100241999A1 (en) * | 2009-03-19 | 2010-09-23 | Microsoft Corporation | Canvas Manipulation Using 3D Spatial Gestures |
CN102298493A (zh) * | 2010-06-28 | 2011-12-28 | 株式会社泛泰 | 用于处理交互式三维对象的装置 |
-
2012
- 2012-03-31 CN CN201210101999XA patent/CN103365567A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101452366A (zh) * | 2007-12-07 | 2009-06-10 | 索尼株式会社 | 信息显示终端,信息显示方法和程序 |
US20100241999A1 (en) * | 2009-03-19 | 2010-09-23 | Microsoft Corporation | Canvas Manipulation Using 3D Spatial Gestures |
CN101694692A (zh) * | 2009-10-22 | 2010-04-14 | 浙江大学 | 一种基于加速度传感器的手势识别的方法 |
CN102298493A (zh) * | 2010-06-28 | 2011-12-28 | 株式会社泛泰 | 用于处理交互式三维对象的装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105183325A (zh) * | 2015-10-27 | 2015-12-23 | 上海斐讯数据通信技术有限公司 | 一种自定义输入法及系统 |
CN105979391A (zh) * | 2016-06-02 | 2016-09-28 | 苏州乐米信息科技有限公司 | 一种智能电视游戏手势识别的方法 |
WO2021093543A1 (zh) * | 2019-11-13 | 2021-05-20 | 先临三维科技股份有限公司 | 扫描仪、及其操作方法、装置、系统、存储介质和处理器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240161426A1 (en) | Collaborative augmented reality | |
CN104603719B (zh) | 扩增实境表面显示 | |
KR101554082B1 (ko) | 자연스러운 제스처 기반 사용자 인터페이스 방법 및 시스템 | |
CN102906671B (zh) | 手势输入装置及手势输入方法 | |
US10048748B2 (en) | Audio-visual interaction with user devices | |
CN107015637B (zh) | 虚拟现实场景下的输入方法和装置 | |
CN105117008B (zh) | 操作引导方法及装置、电子设备 | |
CN104081327A (zh) | 信息处理装置、信息处理方法及程序 | |
KR101392936B1 (ko) | 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법 | |
CN105242780B (zh) | 一种交互控制方法和装置 | |
CN103197759A (zh) | 在移动设备上控制外置设备的方法、装置及设备 | |
CN107533465A (zh) | 具有自动化提取的辅助层 | |
CN103365567A (zh) | 基于加速度感应器的3d-ui操作方法和设备 | |
CN103049266A (zh) | Delta3D三维场景漫游的鼠标操作方法 | |
CN106778118A (zh) | 终端的模式切换方法及系统 | |
CN106708255A (zh) | 虚拟界面交互控制方法及系统 | |
CN104077013A (zh) | 指令识别方法和电子设备 | |
CN101833421A (zh) | 电子装置及获取用户操作的方法 | |
CN103903253A (zh) | 一种可移动终端定位方法及系统 | |
CN106774833A (zh) | 虚拟现实交互方法及装置 | |
CN108829329B (zh) | 一种操作对象展示方法、装置和可读介质 | |
CN104808785A (zh) | 动作导向的用户接口操控方法及系统 | |
CN106291630A (zh) | 漂移数据修正方法和装置 | |
CN107168522A (zh) | 控制应用的方法、装置及虚拟现实设备 | |
CN103809846A (zh) | 一种功能调用方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20131023 |