CN105867602A - 一种基于手势的操作组件控制方法及设备 - Google Patents
一种基于手势的操作组件控制方法及设备 Download PDFInfo
- Publication number
- CN105867602A CN105867602A CN201510897578.6A CN201510897578A CN105867602A CN 105867602 A CN105867602 A CN 105867602A CN 201510897578 A CN201510897578 A CN 201510897578A CN 105867602 A CN105867602 A CN 105867602A
- Authority
- CN
- China
- Prior art keywords
- information
- sensing
- icon
- current interface
- operating assembly
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种基于手势的操作组件控制方法及设备,该方法包括:检测体感对应的图标在当前界面中的第一位置坐标;若检测到有用于触发当前界面中操作组件的人体手势的空间手势信息,则对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为overlay状态。本发明实施例有效地解决了现有技术中由于体感图标对发送的点击事件的阻挡,而导致点击事件没办法传递到正确的操作组件上的问题,大大提高了体感用户点击事件的准确率和成功率,提升用户体验。
Description
技术领域
本发明实施例涉及界面设计技术领域,尤其涉及一种基于手势的操作组件控制方法及设备。
背景技术
体感(motion sensing)是指以用户的身体动作来控制操作软件。体感技术,在于人们可以很直接地使用肢体动作,与周边的装置或环境互动,而无需使用任何复杂的控制设备,便可让人们身历其境地与内容做互动。目前,基于空间的体感技术已开始应用于交互网络电视的操控领域。
但是,在实现本发明过程中,发明人发现现有技术至少存在以下问题:
现有网络智能电视技术中,在显示界面中用体感手势实现click,发送相应位置的click事件,但是体感的手形图标View在移动的过程中会阻挡一部分发送的事件,这些事件会在图标上响应,从而被手形给阻隔了,导致click事件没办法传递到正确的组件上,不能产生应有的效果。进而导致体感用户点击事件的准确率很低,即使动作标准也很难点中,影响体感用户的操作体验。
发明内容
本发明实施例提出了一种基于手势的操作组件控制方法及设备,以解决现有技术中由于图标对发送的点击事件的阻挡,而导致点击事件无法传递到正确的操作组件上的问题,提升体感用户的操作体验。
根据本发明实施例的一个方面,提供了一种基于手势的操作组件控制方法,该方法包括:
检测体感对应的图标在当前界面中的第一位置坐标;
若检测到有用于触发当前界面中操作组件的人体手势的空间手势信息,则对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;
当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为透明overlay状态。
其中,所述检测体感对应的图标在当前界面中的第一位置坐标,包括:
实时监测所述体感对应的图标在当前界面中的移动轨迹;
确定每一时刻所述体感对应的图标在所述移动轨迹中对应的位置坐标。
其中,所述对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标,具体包括:
解析所述空间手势信息,得到当前人体手势对应的方位信息、姿态信息和位置信息;
根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件;
根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
其中,所述根据所述姿态信息,确定所述空间手势信息对应的触发事件,包括:
判断所述姿态信息是否由前推和后拉两个姿态组成;
当所述姿态信息由前推和后拉两个姿态组成时,确定所述空间手势信息对应的触发事件为点击事件。
其中,在检测体感对应的图标在当前界面中的第一位置坐标之前,所述方法还包括:
检测所述体感对应的图标的属性信息;
当所述体感对应的图标为非overlay状态时,执行所述检测体感对应的图标在当前界面中的第一位置坐标的步骤。
根据本发明的另一个方面,提供了一种基于手势的操作组件控制设备,该设备包括:
检测单元,用于检测体感对应的图标在当前界面中的第一位置坐标;
分析单元,用于当检测到有用于触发当前界面中操作组件的人体手势的空间手势信息时,对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;
处理单元,用于当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为透明overlay状态。
其中,所述检测单元,包括:
监测模块,用于实时监测所述体感对应的图标在当前界面中的移动轨迹;
第一确定模块,用于确定每一时刻所述体感对应的图标在所述移动轨迹中对应的位置坐标。
其中,所述分析单元,包括:
解析模块,用于解析所述空间手势信息,得到当前人体手势对应的方位信息、姿态信息和位置信息;
第二确定模块,用于根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件;
第三确定模块,用于根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
其中,所述第二确定模块,具体用于判断所述姿态信息是否由前推和后拉两个姿态组成,当所述姿态信息由前推和后拉两个姿态组成时,确定所述空间手势信息对应的触发事件为点击事件。
其中,检测单元,还用于在检测体感对应的图标在当前界面中的第一位置坐标之前,检测所述体感对应的图标的属性信息,当所述体感对应的图标为非overlay状态时,执行所述检测体感对应的图标在当前界面中的第一位置坐标的操作。
本发明实施例的有益效果为:
本发明实施例提供的基于手势的操作组件控制方法及设备,通过对体感图标的属性状态的改变,避免了体感图标在移动的过程中对部分发送的事件的阻挡,解决了现有技术中由于图标对发送的点击事件的阻挡,而导致这些事件没办法传递到正确的组件上的问题,大大提高了体感用户点击事件的准确率和成功率,有效提升体感用户的操作体验。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例提出的一种基于手势的操作组件控制方法的流程图;
图2为本发明另一实施例提出的一种基于手势的操作组件控制方法中步骤S11的细分流程图;
图3为本发明实施例提出的一种基于手势的操作组件控制设备的结构框图;
图4为本发明另一实施例提出的一种基于手势的操作组件控制设备中检测单元的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非被特定定义,否则不会用理想化或过于正式的含义来解释。
图1示出了本发明实施例的一种基于手势的操作组件控制方法的流程图。
参照图1,本发明实施例提出的基于手势的操作组件控制方法,具体包括以下步骤:
S11、检测体感对应的图标在当前界面中的第一位置坐标;
具体的,体感对应的图标,是一个视图View,它在移动的过程中会阻挡一部分发送的事件,这些事件会在图标上响应,从而被图标给阻隔了,导致该部分事件无法传递到正确的操作组件上,不能产生应有的触发效果,为此,本发明技术方案中通过检测体感对应的图标在当前显示界面中的位置坐标,将其作为第一位置坐标,并与触发事件对应的操作组件的位置坐标进行比对,以判定体感对应的图标是否会对操作组件的触发造成阻隔。
本实施例中,体感对应的图标为类似于智能电视的显示界面中的手形的图标。
S12、若检测到有用于触发当前界面中操作组件的人体手势的空间手势信息,则对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;
具体的,本实施例中通过对预先设置的体感装置进行检测,当所述体感装置感应到人体手势的空间手势信息后,检测是否有用于触发当前界面中操作组件的人体手势的空间手势信息,若检测到有用于触发当前界面中操作组件的人体手势的空间手势信息,则对所述空间手势信息进行分析,确定该空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
其中,本实施例中的用于触发当前界面中操作组件的人体手势的空间手势信息,具体包括当前人体手势对应的方位信息、姿态信息和位置信息。
相应的,体感装置包括指南针、陀螺仪、无线信号模块以及至少一个传感器以用于探测人体手势对应的方位信息、姿态信息和位置信息,所述传感器包括加速度传感器、方向传感器、磁力传感器、重力传感器、旋转矢量传感器、线性加速度传感器中的一种或多种。
需要说明的是,人体手势对应的方位信息、姿态信息可包括:手部在空间中三个维度的位移,即包括前后位移,上下位移、左右位移,或者是这些位移的组合等。
S13、当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为透明overlay状态。
具体的,本步骤中将步骤S11中检测到的体感对应的图标在当前界面中的第一位置坐标,与步骤S12中检测到的用于触发当前界面中操作组件的人体手势的空间手势信息所对应的操作组件的第二位置坐标进行比对,以判定体感对应的图标是否会对操作组件的触发造成阻隔,当所述第一位置坐标与所述第二位置坐标存在交集时,即体感对应的图标会对操作组件的触发造成阻隔,则将所述体感对应的图标设置为透明overlay状态。
本发明实施例中,通过当体感对应的图标会对操作组件的触发造成阻隔时,将所述体感对应的图标设置为透明overlay状态,使得体感对应的图标不会对操作组件的触发造成阻隔,而是可以将当前操作组件的触发事件透过去,相当于手形图标不再会对触发事件的接收产生影响,使下层操作组件能直接接受到相关触发事件,形成正确的click事件,大大提高触发的准确率和成功率,有效提升体感用户的操作体验。
需要说明的是,本实施例提出的基于手势的操作组件控制方法可适用于各种具有显示界面的移动设备或智能电视,本发明对此不做具体限定。
进一步地,如图2所示,在本发明另一实施例中,所述步骤S11具体包括如下步骤:
S111、实时监测所述体感对应的图标在当前界面中的移动轨迹;
S112、确定每一时刻所述体感对应的图标在所述移动轨迹中对应的位置坐标。
具体的,体感对应的图标会随着人体手势的变化而进行相应的移动,本实施例中,通过实时监测体感对应的图标在当前显示界面中的移动轨迹,来确定每一时刻该体感对应的图标在其移动轨迹中对应的位置坐标,进而准确的得到不同时刻体感对应的图标在当前显示界面中的第一位置坐标,进而以准确判定体感对应的图标是否会对操作组件的触发事件造成阻隔。
进一步地,本实施例的步骤S12中,所述对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标,具体包括如下步骤:
解析所述空间手势信息,得到当前人体手势对应的方位信息、姿态信息和位置信息;
根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件;
根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
其中,所述根据所述姿态信息,确定所述空间手势信息对应的触发事件,进一步包括如下步骤:
判断所述姿态信息是否由前推和后拉两个姿态组成;
当所述姿态信息由前推和后拉两个姿态组成时,确定所述空间手势信息对应的触发事件为点击事件。
其中,触发事件是指用于执行某操作时,所产生的事件,例如,用户单击鼠标按键时产生的事件。
本实施例中,通过多空间手势信息进行三维解析,以得到当前人体手势对应的方位信息、姿态信息和位置信息,首先,根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件,然后,再根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前显示界面中的第二位置坐标。
其中,所述空间手势信息对应的触发事件具体为点击事件。
需要说明的是,click点击事件是由前推和后拉两个手势组成,前推触发时发送对应点的down事件,后拉触发时发送对应点的up事件,Down和up两个事件合起来构成了click这个事件。
本发明实施例中,通过进一步判断所述姿态信息是否由前推和后拉两个姿态组成,来判定所述空间手势信息对应的触发事件是否为点击事件,当所述姿态信息由前推和后拉两个姿态组成时,则确定所述空间手势信息对应的触发事件为点击事件。
进一步地,在检测体感对应的图标在当前界面中的第一位置坐标之前,所述方法还包括:
检测所述体感对应的图标的属性信息;
当所述体感对应的图标为非overlay状态时,执行所述检测体感对应的图标在当前界面中的第一位置坐标的步骤。
具体的,在本发明实施例中,在执行步骤S11之前,首先需要检测所述体感对应的图标的属性信息,如果所述体感对应的图标的属性信息为透明overlay状态,则无需进行后续操作,如果所述体感对应的图标的属性信息为非透明overlay状态,则继续执行后续的步骤,以实现当体感对应的图标会对操作组件的触发造成阻隔时,将体感对应的图标设置为透明overlay状态,避免体感图标在移动的过程中对部分发送的事件的阻挡,进而提高体感用触发事件的准确率和成功率。
另外,对于上述方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
基于与方法同样的发明构思,本发明实施例还提供一种基于手势的操作组件控制设备,图3示出了本发明实施例的一种基于手势的操作组件控制设备的结构框图。
参照图3,本发明实施例提出的基于手势的操作组件控制设备,具体包括检测单元101、分析单元102以及处理单元103,其中:
所述的检测单元101,用于检测体感对应的图标在当前界面中的第一位置坐标;
所述的分析单元102,用于当检测到有用于触发当前界面中操作组件的人体手势的空间手势信息时,对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;
所述的处理单元103,用于当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为透明overlay状态。
本发明实施例,通过在体感对应的图标会对操作组件的触发造成阻隔时,将所述体感对应的图标设置为透明overlay状态,使得体感对应的图标不会对操作组件的触发造成阻隔,而是可以将当前操作组件的触发事件透过去,相当于手形图标不再会对触发事件的接收产生影响,使下层操作组件能直接接受到相关触发事件,形成正确的click事件,大大提高触发的准确率和成功率,有效提升体感用户的操作体验。
需要说明的是,实施例提出的基于手势的操作组件控制设备可以为各种具有显示界面的移动设备或智能电视,本发明对此不做具体限定。
进一步地,所述检测单元101,如图4所示,具体包括监测模块1011和第一确定模块1012,其中:
所述的监测模块1011,用于实时监测所述体感对应的图标在当前界面中的移动轨迹;
所述的第一确定模块1012,用于确定每一时刻所述体感对应的图标在所述移动轨迹中对应的位置坐标。
进一步地,所述分析单元102,具体包括解析模块、第二确定模块以及第三确定模块,其中:
所述的解析模块,用于解析所述空间手势信息,得到当前人体手势对应的方位信息、姿态信息和位置信息;
所述的第二确定模块,用于根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件;
所述的第三确定模块,用于根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
更进一步地,所述第二确定模块,具体用于判断所述姿态信息是否由前推和后拉两个姿态组成,当所述姿态信息由前推和后拉两个姿态组成时,确定所述空间手势信息对应的触发事件为点击事件。
本发明实施例中,所述的检测单元101,还用于在检测体感对应的图标在当前界面中的第一位置坐标之前,检测所述体感对应的图标的属性信息,当所述体感对应的图标为非overlay状态时,执行所述检测体感对应的图标在当前界面中的第一位置坐标的操作。
具体的,在本发明实施例中,所述的检测单元在检测体感对应的图标在当前界面中的第一位置坐标之前,还需要检测所述体感对应的图标的属性信息,如果所述体感对应的图标的属性信息为透明overlay状态,则无需进行后续操作,如果所述体感对应的图标的属性信息为非透明overlay状态,则继续执行后续的操作,以实现当体感对应的图标会造成对操作组件的触发事件的阻隔时,将体感对应的图标设置为透明overlay状态,避免体感图标在移动的过程中对部分发送的事件的阻挡,进而提高体感用触发事件的准确率和成功率,提升用户体验。
对于设备实施例而言,由于其与对应的方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
综上所述,本发明实施例提供的基于手势的操作组件控制方法及设备,通过对体感图标的属性状态的改变,避免了体感图标在移动的过程中对部分发送的事件的阻挡,解决了现有技术中由于图标对发送的点击事件的阻挡,而导致这些事件没办法传递到正确的组件上的问题,大大提高了体感用户点击事件的准确率和成功率,有效提升体感用户的操作体验。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可以通过硬件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
本领域技术人员可以理解附图只是一个优选实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
本领域技术人员可以理解实施例中的系统中的模块可以按照实施例描述进行分布于实施例的系统中,也可以进行相应变化位于不同于本实施例的一个或多个系统中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种基于手势的操作组件控制方法,其特征在于,所述方法包括:
检测体感对应的图标在当前界面中的第一位置坐标;
若检测到有用于触发当前界面中操作组件的人体手势的空间手势信息,则对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;
当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为透明overlay状态。
2.根据权利要求1所述的方法,其特征在于,所述检测体感对应的图标在当前界面中的第一位置坐标,包括:
实时监测所述体感对应的图标在当前界面中的移动轨迹;
确定每一时刻所述体感对应的图标在所述移动轨迹中对应的位置坐标。
3.根据权利要求1或2所述的方法,其特征在于,所述对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标,具体包括:
解析所述空间手势信息,得到当前人体手势对应的方位信息、姿态信息和位置信息;
根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件;
根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
4.根据权利要求3所述的方法,其特征在于,所述根据所述姿态信息,确定所述空间手势信息对应的触发事件,包括:
判断所述姿态信息是否由前推和后拉两个姿态组成;
当所述姿态信息由前推和后拉两个姿态组成时,确定所述空间手势信息对应的触发事件为点击事件。
5.根据权利要求1或2所述的方法,其特征在于,在检测体感对应的图标在当前界面中的第一位置坐标之前,所述方法还包括:
检测所述体感对应的图标的属性信息;
当所述体感对应的图标为非overlay状态时,执行所述检测体感对应的图标在当前界面中的第一位置坐标的步骤。
6.一种基于手势的操作组件控制设备,其特征在于,包括:
检测单元,用于检测体感对应的图标在当前界面中的第一位置坐标;
分析单元,用于当检测到有用于触发当前界面中操作组件的人体手势的空间手势信息时,对所述空间手势信息进行分析,确定所述空间手势信息对应的操作组件以及该操作组件在当前界面中的第二位置坐标;
处理单元,用于当所述第一位置坐标与所述第二位置坐标存在交集时,将所述体感对应的图标设置为透明overlay状态。
7.根据权利要求6所述的设备,其特征在于,所述检测单元,包括:
监测模块,用于实时监测所述体感对应的图标在当前界面中的移动轨迹;
第一确定模块,用于确定每一时刻所述体感对应的图标在所述移动轨迹中对应的位置坐标。
8.根据权利要求6或7所述的设备,其特征在于,所述分析单元,包括:
解析模块,用于解析所述空间手势信息,得到当前人体手势对应的方位信息、姿态信息和位置信息;
第二确定模块,用于根据所述方位信息和姿态信息,确定所述空间手势信息对应的触发事件;
第三确定模块,用于根据所述位置信息,确定所述触发事件对应的操作组件以及该操作组件在当前界面中的第二位置坐标。
9.根据权利要求8所述的设备,其特征在于,所述第二确定模块,具体用于判断所述姿态信息是否由前推和后拉两个姿态组成,当所述姿态信息由前推和后拉两个姿态组成时,确定所述空间手势信息对应的触发事件为点击事件。
10.根据权利要求6或7所述的设备,其特征在于,检测单元,还用于在检测体感对应的图标在当前界面中的第一位置坐标之前,检测所述体感对应的图标的属性信息,当所述体感对应的图标为非overlay状态时,执行所述检测体感对应的图标在当前界面中的第一位置坐标的操作。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510897578.6A CN105867602A (zh) | 2015-12-08 | 2015-12-08 | 一种基于手势的操作组件控制方法及设备 |
PCT/CN2016/088482 WO2017096802A1 (zh) | 2015-12-08 | 2016-07-04 | 基于手势的操作组件控制方法、设备、计算机程序和存储介质 |
US15/247,711 US20170160810A1 (en) | 2015-12-08 | 2016-08-25 | Method and device for controlling operation component based on gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510897578.6A CN105867602A (zh) | 2015-12-08 | 2015-12-08 | 一种基于手势的操作组件控制方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105867602A true CN105867602A (zh) | 2016-08-17 |
Family
ID=56624462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510897578.6A Pending CN105867602A (zh) | 2015-12-08 | 2015-12-08 | 一种基于手势的操作组件控制方法及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105867602A (zh) |
WO (1) | WO2017096802A1 (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739202A (zh) * | 2009-11-06 | 2010-06-16 | 谢达 | 一种局部会自动透视的用户界面显示方法 |
CN102566744A (zh) * | 2010-12-22 | 2012-07-11 | 康佳集团股份有限公司 | 一种鼠标控制方法、装置及终端 |
CN102693004A (zh) * | 2011-02-16 | 2012-09-26 | 微软公司 | 界面控件的按压启动 |
CN102722243A (zh) * | 2012-05-23 | 2012-10-10 | 苏州佳世达电通有限公司 | 三维空间操作与显示的方法 |
CN103488292A (zh) * | 2013-09-10 | 2014-01-01 | 青岛海信电器股份有限公司 | 一种立体应用图标的控制方法及装置 |
CN103823609A (zh) * | 2012-11-19 | 2014-05-28 | 三星电子株式会社 | 通过接近触摸输入提供用户接口的方法和设备 |
CN104423825A (zh) * | 2013-09-02 | 2015-03-18 | 联想(北京)有限公司 | 电子设备及其信息处理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681774B (zh) * | 2012-04-06 | 2015-02-18 | 优视科技有限公司 | 通过手势控制应用界面的方法、装置和移动终端 |
CN102799360B (zh) * | 2012-06-20 | 2016-05-04 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息显示方法及装置 |
US9465488B2 (en) * | 2013-05-09 | 2016-10-11 | Stephen Howard | System and method for motion detection and interpretation |
CN105094567B (zh) * | 2015-08-20 | 2020-11-17 | Tcl科技集团股份有限公司 | 一种基于重力感应的智能终端操作实现方法及系统 |
CN105046249B (zh) * | 2015-09-07 | 2018-09-11 | 哈尔滨市一舍科技有限公司 | 一种人机交互方法 |
-
2015
- 2015-12-08 CN CN201510897578.6A patent/CN105867602A/zh active Pending
-
2016
- 2016-07-04 WO PCT/CN2016/088482 patent/WO2017096802A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739202A (zh) * | 2009-11-06 | 2010-06-16 | 谢达 | 一种局部会自动透视的用户界面显示方法 |
CN102566744A (zh) * | 2010-12-22 | 2012-07-11 | 康佳集团股份有限公司 | 一种鼠标控制方法、装置及终端 |
CN102693004A (zh) * | 2011-02-16 | 2012-09-26 | 微软公司 | 界面控件的按压启动 |
CN102722243A (zh) * | 2012-05-23 | 2012-10-10 | 苏州佳世达电通有限公司 | 三维空间操作与显示的方法 |
CN103823609A (zh) * | 2012-11-19 | 2014-05-28 | 三星电子株式会社 | 通过接近触摸输入提供用户接口的方法和设备 |
CN104423825A (zh) * | 2013-09-02 | 2015-03-18 | 联想(北京)有限公司 | 电子设备及其信息处理方法 |
CN103488292A (zh) * | 2013-09-10 | 2014-01-01 | 青岛海信电器股份有限公司 | 一种立体应用图标的控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2017096802A1 (zh) | 2017-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3629129A1 (en) | Method and apparatus of interactive display based on gesture recognition | |
DK179093B1 (en) | Devices, Methods, and Graphical User Interfaces for Moving a Current Focus Using a Touch-Sensitive Remote Control | |
US8810509B2 (en) | Interfacing with a computing application using a multi-digit sensor | |
US20220334711A1 (en) | Application display method and terminal | |
JP5846662B2 (ja) | 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム | |
US20090153468A1 (en) | Virtual Interface System | |
US20060288314A1 (en) | Facilitating cursor interaction with display objects | |
US20120069052A1 (en) | Method and terminal for providing different image information in accordance with the angle of a terminal, and computer-readable recording medium | |
US20190227688A1 (en) | Head mounted display device and content input method thereof | |
US20120007826A1 (en) | Touch-controlled electric apparatus and control method thereof | |
US11301128B2 (en) | Intended input to a user interface from detected gesture positions | |
CN105934739A (zh) | 用于触摸屏设备的虚拟鼠标 | |
US10228762B2 (en) | Analysis of user interface interactions within a virtual reality environment | |
US10401947B2 (en) | Method for simulating and controlling virtual sphere in a mobile device | |
CN105242825A (zh) | 终端控制方法及装置 | |
US20220091735A1 (en) | Recognition and processing of gestures in a graphical user interface using machine learning | |
CN102402361A (zh) | 基于鼠标的移动轨迹在计算机上进行控制的方法和装置 | |
US9235338B1 (en) | Pan and zoom gesture detection in a multiple touch display | |
CN105892895A (zh) | 多指滑动手势的识别方法、装置及终端设备 | |
US20120059846A1 (en) | Method for retrieving object information and portable electronic device applying the same | |
CN104346095A (zh) | 一种信息处理方法及电子设备 | |
CN107102725B (zh) | 一种基于体感手柄进行虚拟现实移动的控制方法及系统 | |
CN105867602A (zh) | 一种基于手势的操作组件控制方法及设备 | |
US20120117517A1 (en) | User interface | |
CN106932797B (zh) | 一种目标确定方法、用户设备及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160817 |
|
WD01 | Invention patent application deemed withdrawn after publication |