CN107300975A - 一种信息处理方法及电子设备 - Google Patents
一种信息处理方法及电子设备 Download PDFInfo
- Publication number
- CN107300975A CN107300975A CN201710570323.8A CN201710570323A CN107300975A CN 107300975 A CN107300975 A CN 107300975A CN 201710570323 A CN201710570323 A CN 201710570323A CN 107300975 A CN107300975 A CN 107300975A
- Authority
- CN
- China
- Prior art keywords
- display interface
- virtual display
- gesture operation
- presented
- operating body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种信息处理方法及电子设备,上述方法包括:首先,显示第一虚拟显示界面,其中,第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;接着,接收针对第一虚拟显示界面中的手势操作,其中,手势操作可穿透第一虚拟显示界面;然后,获得手势操作的穿透状态;最后,基于手势操作的穿透状态,在第一虚拟显示界面呈现反馈信息。通过上述内容可以看出,上述信息处理方法使用户在AR/VR空间中进行操作时,能够真实还原虚拟显示界面与手之间的关系,增加在封闭环境呈现中的安定感,同时,准确区分操作与虚拟显示界面之间的关系,减少用户的认知负担。
Description
技术领域
本发明涉及一种信息处理方法及电子设备。
背景技术
用户在AR/VR空间的操作中,手势操作作为最为自然和直接的操作方式,随着技术的深入和成熟,会越来越成为AR/VR主要的操作方式。而对于AR/VR对全空间的应用,信息在空间的排布会有平铺,叠层等多种形式。而在手指与虚拟界面的互动中,真实的反馈手指与界面之间的关系对于空间交互来说至关重要,而在现有技术中,手势无法定位其与界面的相对关系,仅通过界面反馈来指导用户操作是否已执行,交互体验差,一致性难以保证。
发明内容
有鉴于现有技术中存在的上述问题,本发明提供一种能够使用户在AR/VR空间中进行操作更加自然、顺畅,且具有良好交互体验的信息处理方法。
为解决上述问题,本发明提供了一种信息处理方法,应用于一电子设备,所述方法包括:
显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
接收针对所述第一虚拟显示界面中的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
获得所述手势操作的穿透状态;
基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息。
进一步地,基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息,包括:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
进一步地,所述第一虚拟显示界面呈现第二反馈状态,包括:
在以所述操作体与所述第一虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
进一步地,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述方法还包括:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与所述第一虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
进一步地,包括:
检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
本发明还提供了一种电子设备,包括:
显示模组,用于显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对所述第一虚拟显示界面中第一界面的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
处理器,用于获得所述手势操作的穿透状态,并基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现一反馈信息。
进一步地,所述处理器,用于:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
进一步地,在所述第一虚拟显示界面呈现第二反馈状态,所述处理器,还用于:
在以所述操作体与所述虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
进一步地,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述处理器,还用于:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
进一步地,检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
与现有技术相比,本发明的有益效果在于:使用户在AR/VR空间中进行操作时,能够真实还原虚拟显示界面与手之间的关系,增加在封闭环境呈现中的安定感,同时,准确区分操作与虚拟显示界面之间的关系,减少用户的认知负担,提高用户的使用体验。
附图说明
图1是本发明实施例提供的信息处理方法的流程图;
图2是本发明实施例手势操作为点击操作时的示意图;
图3是本发明实施例手势操作为穿透操作作用于第一虚拟显示界面和点击操作作用于第二操作显示界面的示意图。
附图标记:
1、第一反馈状态;2、第二反馈状态;3、第一虚拟显示界面;4、第二虚拟显示界面;5、操作体。
具体实施方式
为使本领域技术人员更好的理解本发明的技术方案,下面结合附图和具体实施方式对本发明作详细说明。
本发明实施例提供了一种信息处理方法,应用于一电子设备,该方法包括:
首先,显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
接着,接收针对第一虚拟显示界面3中的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
然后,获得手势操作的穿透状态;
最后,基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息。
通过上述内容可以看出,上述信息处理方法使用户在AR/VR空间中进行操作时,能够真实还原虚拟显示界面与手之间的关系,增加在封闭环境呈现中的安定感,同时,准确区分操作与虚拟显示界面之间的关系,减少用户的认知负担。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述信息处理方法的技术方案进行阐述。
本发明实施例提供了一种信息处理方法,应用于一电子设备,在实际应用中,该电子设备可以是智能手机、也可以是平板电脑、或者是VR眼镜以及其他可以呈现虚拟显示界面的电子设备,在此不做限制,在接下来的部分中,以电子设备为一AR头盔为例,对该方法详细地举例描述。
请参见图1,图1是本发明实施例提供的信息处理方法的流程图,如图1所示,该方法包括:
S1:显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
S2:接收针对第一虚拟显示界面3中的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
S3:获得手势操作的穿透状态;
S4:基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息。
在步骤S1中,显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示,具体来讲,用户可以在使用AR头盔的时候,依据需要,在用户的眼睛的可视范围内显示出第一虚拟显示界面3,用户可以在第一虚拟显示界面3上进行操作,其具体针对第一虚拟显示界面3的操作可以为点击、滑动、穿透等任意操作,以帮助用户完成其想完成的指定指令。
在步骤S2中,接收针对第一虚拟显示界面3中的手势操作,其中,手势操作可穿透第一虚拟显示界面3,具体来讲,就是由用户佩戴的AR头盔显示出的第一虚拟显示界面3可以接受到用户针对第一虚拟显示界面3进行的操作,由于第一虚拟显示界面3是虚拟由AR头盔显示生成的,故此,用户的操作是可穿透第一虚拟显示界面3的。
在步骤S3中,获得手势操作的穿透状态,也就是,第一虚拟显示界面3在接收到用户的手势操作后,用户佩戴的AR头盔能够获得用户的操作手势针对第一虚拟显示界面3所做的操作,用户的操作手势针对第一虚拟显示界面3所做的操作可以为点击操作、滑动操作、穿透操作等。
在步骤S4中,基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息,具体是,在用户佩戴的AR头盔获得到用户的操作手势针对第一虚拟显示界面3具体为何种操作后,针对不同的操作,第一虚拟显示界面3会给出不同的反馈信息,在实际使用过程中,例如:当手势操作为点击操作时,第一虚拟显示界面3上就会显示相应的点击操作的反馈效果,如,在第一虚拟显示界面3上被点击的位置出现一个圆点,以表示点击操作已经被获得。当然,在基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息时,可以有多种情况,依次在下面进行详细阐述。
第一种情况,当然,当手势操作的操作体5与第一虚拟显示界面3不发生接触时,用户佩戴的AR头盔显示的第一虚拟显示界不会做出反应。
第二种情况,当手势操作的操作体5与第一虚拟显示界面3接触时,第一虚拟显示界面3呈现第一反馈状态1,其中,操作体5在实际应用中,可以是用户的手部、感应手套、操作焦点或者是VR虚拟出的操作体5等等均可,而当手势操作的操作体5与第一虚拟显示界面3接触时,具体以操作体5为用户的手部为例,可参见图2所示,当用户的手部触碰到第一虚拟显示界面3时,第一虚拟显示界面3便在与用户的手部接触的位置给出第一反馈状态1,第一反馈状态1可以是一圆点。
第三种情况,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,第一虚拟显示界面3呈现与第一反馈状态1不同的第二反馈状态2,也就是,当用户的手部直接穿过了用户佩戴的AR头盔显示的第一虚拟显示界,且穿过之后,用户的手部的前端部与第一虚拟显示界面3的距离大于预设距离后,第一虚拟显示界面3便在用户的手部穿过的位置给出第二反馈状态2,且第二反馈状态2与第一反馈状态1不同,此时,第一反馈状态1可以是与用户的手部穿过第一虚拟显示界面3的部位形状相匹配的形状,而第二反馈状态2可以是沿第一反馈状态1所呈现的形状,以向外扩散的样式展现。
在第三种情况中,第一虚拟显示界面3呈现第二反馈状态2中的一种实现方式为,在以操作体5与第一虚拟显示界面3接触的第一区域为中心的第二区域中呈现第二反馈状态2,具体可以举例为,请参见图3所示,当用户的手部穿透第一虚拟显示界面3时,第一区域是用户的手部穿过第一虚拟显示界面3的区域,而第二反馈状态2就是以第一区域为中心,呈现出的向外扩散的纹路。
此外,在第三种情况中,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,检测操作体5穿透第一虚拟显示界面3的距离和/或操作体5与第一虚拟显示界面3的接触面积;基于距离和/或接触面积,在第一虚拟显示界面3中显示第二反馈状态2。具体为,操作体5还以用户的手部为例,用户佩戴的AR头盔会对用户的手部穿过第一虚拟显示界面3的距离进行检测,或者对用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,或者同时对用户的手部穿过第一虚拟显示界面3的距离进行检测,以及用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,并依据检测的结果,在第一虚拟显示界面3上呈现第二反馈状态2。
当然了,在实际应用中,用户佩戴的AR头盔还可以同时显示两个虚拟显示界面,这时,在检测到手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离,并触碰到第二虚拟显示界面4时;就会在第一虚拟显示界面3上呈现第二反馈状态2,在第二虚拟显示界面4上呈现第一反馈状态1。具体来讲,还以操作体5为用户的手部为例,可参见图3所示,当用户的手部穿过第二虚拟显示界面4后。用户的手部又接触到了第一虚拟显示界面3,这时,在第二虚拟显示界面4上呈现出第二反馈状态2,也就是以用户的手部与第二虚拟显示界面4接触的第一区域为中心的第二区域中,呈现出的向外扩散的纹路,而在第一虚拟显示界面3上,呈现出用户的手部与第一虚拟显示界面3在接触位置上呈现的圆点。
上述技术方案在实际使用的过程中,可用于选择空间中的物体,即可以直接穿过挡在前面的物体而直接选取所需的目标物,或者,在摄像。摄影的过程中用于选取时间轴,使选择更加方便、直观。
基于同一发明构思,本发明实施例还提供一种电子设备,在实际应用中,该电子设备可以是智能手机、也可以是平板电脑、或者是VR眼镜以及其他可以呈现虚拟显示界面的电子设备。
该电子设备包括:
显示模组,用于显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对第一虚拟显示界面3中第一界面的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
处理器,用于获得手势操作的穿透状态,并基于手势操作的穿透状态,在第一虚拟显示界面3呈现一反馈信息。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述信息处理方法的技术方案进行阐述。
本发明实施例提供一种电子设备,在实际应用中,该电子设备可以是智能手机、也可以是平板电脑、或者是VR眼镜以及其他可以呈现虚拟显示界面的电子设备,在此不做限制,在接下来的部分中,以电子设备为一AR头盔为例,对该方法详细地举例描述。
该AR头盔包括:
显示模组,用于显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对第一虚拟显示界面3中第一界面的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
处理器,用于获得手势操作的穿透状态,并基于手势操作的穿透状态,在第一虚拟显示界面3呈现一反馈信息。
显示模组,用于显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示,具体来讲,用户可以在使用AR头盔的时候,依据需要,在用户的眼睛的可视范围内显示出第一虚拟显示界面3,用户可以在第一虚拟显示界面3上进行操作,其具体针对第一虚拟显示界面3的操作可以为点击、滑动、穿透等任意操作,以帮助用户完成其想完成的指定指令。
输入传感器,用于接收针对第一虚拟显示界面3中第一界面的手势操作,其中,手势操作可穿透第一虚拟显示界面3,具体来讲,就是由用户佩戴的AR头盔显示出的第一虚拟显示界面3可以接受到用户针对第一虚拟显示界面3进行的操作,由于第一虚拟显示界面3是虚拟由AR头盔显示生成的,故此,用户的操作是可穿透第一虚拟显示界面3的。
处理器,用于获得手势操作的穿透状态,并基于手势操作的穿透状态,在第一虚拟显示界面3呈现一反馈信息,也就是,第一虚拟显示界面3在接收到用户的手势操作后,用户佩戴的AR头盔能够获得用户的操作手势针对第一虚拟显示界面3所做的操作,用户的操作手势针对第一虚拟显示界面3所做的操作可以为点击操作、滑动操作、穿透操作等,在用户佩戴的AR头盔获得到用户的操作手势针对第一虚拟显示界面3具体为何种操作后,针对不同的操作,第一虚拟显示界面3会给出不同的反馈信息,在实际使用过程中,例如:当手势操作为点击操作时,第一虚拟显示界面3上就会显示相应的点击操作的反馈效果,如,在第一虚拟显示界面3上被点击的位置出现一个圆点,以表示点击操作已经被获得。当然,在处理器基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息时,可以有多种情况,依次在下面进行详细阐述。
第一种情况,当手势操作的操作体5与第一虚拟显示界面3不发生接触时,输入传感器未接收到手势操作,处理器不会做出反应,用户佩戴的AR头盔显示的第一虚拟显示界也不会做出反应。
第二种情况,当手势操作的操作体5与第一虚拟显示界面3接触时,第一虚拟显示界面3呈现第一反馈状态1,其中,操作体5在实际应用中,可以是用户的手部、感应手套、操作焦点或者是VR虚拟出的操作体5等等均可,而当手势操作的操作体5与第一虚拟显示界面3接触时,具体以操作体5为用户的手部为例,可参见图2所示,当用户的手部触碰到第一虚拟显示界面3时,输入传感器接收到手势操作,处理器会使第一虚拟显示界面3便在与用户的手部接触的位置给出第一反馈状态1,第一反馈状态1可以是一圆点。
第三种情况,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,第一虚拟显示界面3呈现与第一反馈状态1不同的第二反馈状态2,也就是,当用户的手部直接穿过了用户佩戴的AR头盔显示的第一虚拟显示界,且穿过之后,用户的手部的前端部与第一虚拟显示界面3的距离大于预设距离后,输入传感器接收到手势操作,处理器会使第一虚拟显示界面3便在用户的手部穿过的位置给出第二反馈状态2,且第二反馈状态2与第一反馈状态1不同,此时,第一反馈状态1可以是与用户的手部穿过第一虚拟显示界面3的部位形状相匹配的形状,而第二反馈状态2可以是沿第一反馈状态1所呈现的形状,以向外扩散的样式展现。
在第三种情况中,第一虚拟显示界面3呈现第二反馈状态2中的一种实现方式为,在以操作体5与第一虚拟显示界面3接触的第一区域为中心的第二区域中呈现第二反馈状态2,具体可以举例为,请参见图3所示,当用户的手部穿透第一虚拟显示界面3时,第一区域是用户的手部穿过第一虚拟显示界面3的区域,而第二反馈状态2就是以第一区域为中心,在输入传感器接收到手势操作后,处理器使第二区域呈现出的向外扩散的纹路。
此外,在第三种情况中,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,检测操作体5穿透第一虚拟显示界面3的距离和/或操作体5与第一虚拟显示界面3的接触面积;基于距离和/或接触面积,在第一虚拟显示界面3中显示第二反馈状态2。具体为,操作体5还以用户的手部为例,用户佩戴的AR头盔会对用户的手部穿过第一虚拟显示界面3的距离进行检测,或者对用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,或者同时对用户的手部穿过第一虚拟显示界面3的距离进行检测,以及用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,并依据检测的结果,在第一虚拟显示界面3上呈现第二反馈状态2。
当然了,在实际应用中,用户佩戴的AR头盔的显示模组还可以同时显示两个虚拟显示界面,这时,在检测到手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离,并触碰到第二虚拟显示界面4时;就会在第一虚拟显示界面3上呈现第二反馈状态2,在第二虚拟显示界面4上呈现第一反馈状态1。具体来讲,还以操作体5为用户的手部为例,可参见图3所示,当用户的手部穿过第二虚拟显示界面4后。用户的手部又接触到了第一虚拟显示界面3,这时,在第二虚拟显示界面4上呈现出第二反馈状态2,也就是以用户的手部与第二虚拟显示界面4接触的第一区域为中心的第二区域中,呈现出的向外扩散的纹路,而在第一虚拟显示界面3上,呈现出用户的手部与第一虚拟显示界面3在接触位置上呈现的圆点。
上述电子设备在实际使用的过程中,可用于选择空间中的物体,即可以直接穿过挡在前面的物体而直接选取所需的目标物,或者,在摄像。摄影的过程中用于选取时间轴,使选择更加方便、直观。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (10)
1.一种信息处理方法,应用于一电子设备,所述方法包括:
显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
接收针对所述第一虚拟显示界面中的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
获得所述手势操作的穿透状态;
基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息。
2.根据权利要求1所述的信息处理方法,基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息,包括:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
3.根据权利要求2所述的信息处理方法,所述第一虚拟显示界面呈现第二反馈状态,包括:
在以所述操作体与所述第一虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
4.根据权利要求2所述的信息处理方法,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述方法还包括:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与所述第一虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
5.根据权利要求2所述的信息处理方法,包括:
检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
6.一种电子设备,包括:
显示模组,用于显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对所述第一虚拟显示界面中第一界面的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
处理器,用于获得所述手势操作的穿透状态,并基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现一反馈信息。
7.根据权利要求6所述的电子设备,在基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息时,所述处理器还用于:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
8.根据权利要求7所述的电子设备,在所述第一虚拟显示界面呈现第二反馈状态时,所述处理器还用于:
在以所述操作体与所述虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
9.根据权利要求7所述的电子设备,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述处理器还用于:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
10.根据权利要求7所述的电子设备,所述处理器还用于:
检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710570323.8A CN107300975A (zh) | 2017-07-13 | 2017-07-13 | 一种信息处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710570323.8A CN107300975A (zh) | 2017-07-13 | 2017-07-13 | 一种信息处理方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107300975A true CN107300975A (zh) | 2017-10-27 |
Family
ID=60132671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710570323.8A Pending CN107300975A (zh) | 2017-07-13 | 2017-07-13 | 一种信息处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107300975A (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004111816A2 (en) * | 2003-06-13 | 2004-12-23 | University Of Lancaster | User interface |
CN102221880A (zh) * | 2011-05-19 | 2011-10-19 | 北京新岸线网络技术有限公司 | 3d图形界面的显示方法及系统 |
CN102402379A (zh) * | 2010-09-14 | 2012-04-04 | Lg电子株式会社 | 移动终端及其控制方法 |
CN102508546A (zh) * | 2011-10-31 | 2012-06-20 | 冠捷显示科技(厦门)有限公司 | 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法 |
CN102713821A (zh) * | 2010-01-21 | 2012-10-03 | 索尼公司 | 用于电视菜单和文档导航的三维或更高维图形用户界面 |
WO2013015466A1 (en) * | 2011-07-25 | 2013-01-31 | Lg Electronics Inc. | Electronic device for displaying three-dimensional image and method of using the same |
US20130082928A1 (en) * | 2011-09-30 | 2013-04-04 | Seung Wook Kim | Keyboard-based multi-touch input system using a displayed representation of a users hand |
CN103119628A (zh) * | 2010-08-04 | 2013-05-22 | 苹果公司 | 利用运动特性的显示器上三维用户界面效果 |
CN103282859A (zh) * | 2010-12-27 | 2013-09-04 | 索尼电脑娱乐公司 | 手势操作输入处理装置及手势操作输入处理方法 |
CN103858074A (zh) * | 2011-08-04 | 2014-06-11 | 视力移动技术有限公司 | 经由3d显示器与装置交互的系统和方法 |
CN104123005A (zh) * | 2014-07-24 | 2014-10-29 | 周永业 | 触控显示系统及其显示可触控操作界面的方法 |
CN104969148A (zh) * | 2013-03-14 | 2015-10-07 | 英特尔公司 | 基于深度的用户界面手势控制 |
CN105339870A (zh) * | 2014-03-21 | 2016-02-17 | 三星电子株式会社 | 用于提供虚拟输入界面的方法和可穿戴装置 |
CN105446596A (zh) * | 2015-11-26 | 2016-03-30 | 四川长虹电器股份有限公司 | 基于深度的交互式3d界面显示系统与方法 |
CN106249882A (zh) * | 2016-07-26 | 2016-12-21 | 华为技术有限公司 | 一种应用于vr设备的手势操控方法与装置 |
EP3349104A1 (en) * | 2017-01-12 | 2018-07-18 | Virva VR Oy | Virtual reality arcade |
CN108431736A (zh) * | 2015-10-30 | 2018-08-21 | 奥斯坦多科技公司 | 用于身体上姿势接口以及投影显示的系统和方法 |
-
2017
- 2017-07-13 CN CN201710570323.8A patent/CN107300975A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004111816A2 (en) * | 2003-06-13 | 2004-12-23 | University Of Lancaster | User interface |
CN102713821A (zh) * | 2010-01-21 | 2012-10-03 | 索尼公司 | 用于电视菜单和文档导航的三维或更高维图形用户界面 |
CN103119628A (zh) * | 2010-08-04 | 2013-05-22 | 苹果公司 | 利用运动特性的显示器上三维用户界面效果 |
CN102402379A (zh) * | 2010-09-14 | 2012-04-04 | Lg电子株式会社 | 移动终端及其控制方法 |
CN103282859A (zh) * | 2010-12-27 | 2013-09-04 | 索尼电脑娱乐公司 | 手势操作输入处理装置及手势操作输入处理方法 |
CN102221880A (zh) * | 2011-05-19 | 2011-10-19 | 北京新岸线网络技术有限公司 | 3d图形界面的显示方法及系统 |
WO2013015466A1 (en) * | 2011-07-25 | 2013-01-31 | Lg Electronics Inc. | Electronic device for displaying three-dimensional image and method of using the same |
CN103858074A (zh) * | 2011-08-04 | 2014-06-11 | 视力移动技术有限公司 | 经由3d显示器与装置交互的系统和方法 |
US20130082928A1 (en) * | 2011-09-30 | 2013-04-04 | Seung Wook Kim | Keyboard-based multi-touch input system using a displayed representation of a users hand |
CN102508546A (zh) * | 2011-10-31 | 2012-06-20 | 冠捷显示科技(厦门)有限公司 | 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法 |
CN104969148A (zh) * | 2013-03-14 | 2015-10-07 | 英特尔公司 | 基于深度的用户界面手势控制 |
CN105339870A (zh) * | 2014-03-21 | 2016-02-17 | 三星电子株式会社 | 用于提供虚拟输入界面的方法和可穿戴装置 |
CN104123005A (zh) * | 2014-07-24 | 2014-10-29 | 周永业 | 触控显示系统及其显示可触控操作界面的方法 |
CN108431736A (zh) * | 2015-10-30 | 2018-08-21 | 奥斯坦多科技公司 | 用于身体上姿势接口以及投影显示的系统和方法 |
CN105446596A (zh) * | 2015-11-26 | 2016-03-30 | 四川长虹电器股份有限公司 | 基于深度的交互式3d界面显示系统与方法 |
CN106249882A (zh) * | 2016-07-26 | 2016-12-21 | 华为技术有限公司 | 一种应用于vr设备的手势操控方法与装置 |
EP3349104A1 (en) * | 2017-01-12 | 2018-07-18 | Virva VR Oy | Virtual reality arcade |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102407071B1 (ko) | 펜과 컴퓨팅 디바이스 상호작용을 위한 다중 디바이스 다중 사용자 센서 상관 | |
CN106462341B (zh) | 用于笔和触敏计算设备交互的传感器相关 | |
Argyros et al. | Vision-based interpretation of hand gestures for remote control of a computer mouse | |
US8581856B2 (en) | Touch sensitive display apparatus using sensor input | |
CN104866225B (zh) | 一种具有触摸显示屏的电子设备及其控制方法 | |
US8502787B2 (en) | System and method for differentiating between intended and unintended user input on a touchpad | |
Benko et al. | Enhancing input on and above the interactive surface with muscle sensing | |
CN102662462B (zh) | 电子装置、手势识别方法及手势应用方法 | |
US20150002475A1 (en) | Mobile device and method for controlling graphical user interface thereof | |
Babic et al. | Pocket6: A 6dof controller based on a simple smartphone application | |
TWM341257U (en) | Touch input system and electronic device | |
Mutasim et al. | Pinch, click, or dwell: Comparing different selection techniques for eye-gaze-based pointing in virtual reality | |
US20240077948A1 (en) | Gesture-based display interface control method and apparatus, device and storage medium | |
WO2021073743A1 (en) | Determining user input based on hand gestures and eye tracking | |
CN109558061A (zh) | 一种操作控制方法及终端 | |
US20160320846A1 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
WO2017019390A1 (en) | Universal keyboard | |
CN108829239A (zh) | 终端的控制方法、装置及终端 | |
CN107273009A (zh) | 一种移动终端快速截屏的方法及系统 | |
Akkil et al. | Accuracy of interpreting pointing gestures in egocentric view | |
CN109582126A (zh) | 输入接口装置、控制方法及非暂态电脑可读取媒体 | |
Wolf et al. | Tickle: a surface-independent interaction technique for grasp interfaces | |
CN103809793B (zh) | 一种信息处理方法和电子设备 | |
CN109032334B (zh) | 一种基于指纹和手势识别的交互方法及交互系统 | |
Yamagami et al. | How Do People with Limited Movement Personalize Upper-Body Gestures? Considerations for the Design of Personalized and Accessible Gesture Interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171027 |