CN107300975A - 一种信息处理方法及电子设备 - Google Patents

一种信息处理方法及电子设备 Download PDF

Info

Publication number
CN107300975A
CN107300975A CN201710570323.8A CN201710570323A CN107300975A CN 107300975 A CN107300975 A CN 107300975A CN 201710570323 A CN201710570323 A CN 201710570323A CN 107300975 A CN107300975 A CN 107300975A
Authority
CN
China
Prior art keywords
display interface
virtual display
gesture operation
presented
operating body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710570323.8A
Other languages
English (en)
Inventor
徐琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201710570323.8A priority Critical patent/CN107300975A/zh
Publication of CN107300975A publication Critical patent/CN107300975A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供了一种信息处理方法及电子设备,上述方法包括:首先,显示第一虚拟显示界面,其中,第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;接着,接收针对第一虚拟显示界面中的手势操作,其中,手势操作可穿透第一虚拟显示界面;然后,获得手势操作的穿透状态;最后,基于手势操作的穿透状态,在第一虚拟显示界面呈现反馈信息。通过上述内容可以看出,上述信息处理方法使用户在AR/VR空间中进行操作时,能够真实还原虚拟显示界面与手之间的关系,增加在封闭环境呈现中的安定感,同时,准确区分操作与虚拟显示界面之间的关系,减少用户的认知负担。

Description

一种信息处理方法及电子设备
技术领域
本发明涉及一种信息处理方法及电子设备。
背景技术
用户在AR/VR空间的操作中,手势操作作为最为自然和直接的操作方式,随着技术的深入和成熟,会越来越成为AR/VR主要的操作方式。而对于AR/VR对全空间的应用,信息在空间的排布会有平铺,叠层等多种形式。而在手指与虚拟界面的互动中,真实的反馈手指与界面之间的关系对于空间交互来说至关重要,而在现有技术中,手势无法定位其与界面的相对关系,仅通过界面反馈来指导用户操作是否已执行,交互体验差,一致性难以保证。
发明内容
有鉴于现有技术中存在的上述问题,本发明提供一种能够使用户在AR/VR空间中进行操作更加自然、顺畅,且具有良好交互体验的信息处理方法。
为解决上述问题,本发明提供了一种信息处理方法,应用于一电子设备,所述方法包括:
显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
接收针对所述第一虚拟显示界面中的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
获得所述手势操作的穿透状态;
基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息。
进一步地,基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息,包括:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
进一步地,所述第一虚拟显示界面呈现第二反馈状态,包括:
在以所述操作体与所述第一虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
进一步地,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述方法还包括:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与所述第一虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
进一步地,包括:
检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
本发明还提供了一种电子设备,包括:
显示模组,用于显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对所述第一虚拟显示界面中第一界面的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
处理器,用于获得所述手势操作的穿透状态,并基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现一反馈信息。
进一步地,所述处理器,用于:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
进一步地,在所述第一虚拟显示界面呈现第二反馈状态,所述处理器,还用于:
在以所述操作体与所述虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
进一步地,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述处理器,还用于:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
进一步地,检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
与现有技术相比,本发明的有益效果在于:使用户在AR/VR空间中进行操作时,能够真实还原虚拟显示界面与手之间的关系,增加在封闭环境呈现中的安定感,同时,准确区分操作与虚拟显示界面之间的关系,减少用户的认知负担,提高用户的使用体验。
附图说明
图1是本发明实施例提供的信息处理方法的流程图;
图2是本发明实施例手势操作为点击操作时的示意图;
图3是本发明实施例手势操作为穿透操作作用于第一虚拟显示界面和点击操作作用于第二操作显示界面的示意图。
附图标记:
1、第一反馈状态;2、第二反馈状态;3、第一虚拟显示界面;4、第二虚拟显示界面;5、操作体。
具体实施方式
为使本领域技术人员更好的理解本发明的技术方案,下面结合附图和具体实施方式对本发明作详细说明。
本发明实施例提供了一种信息处理方法,应用于一电子设备,该方法包括:
首先,显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
接着,接收针对第一虚拟显示界面3中的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
然后,获得手势操作的穿透状态;
最后,基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息。
通过上述内容可以看出,上述信息处理方法使用户在AR/VR空间中进行操作时,能够真实还原虚拟显示界面与手之间的关系,增加在封闭环境呈现中的安定感,同时,准确区分操作与虚拟显示界面之间的关系,减少用户的认知负担。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述信息处理方法的技术方案进行阐述。
本发明实施例提供了一种信息处理方法,应用于一电子设备,在实际应用中,该电子设备可以是智能手机、也可以是平板电脑、或者是VR眼镜以及其他可以呈现虚拟显示界面的电子设备,在此不做限制,在接下来的部分中,以电子设备为一AR头盔为例,对该方法详细地举例描述。
请参见图1,图1是本发明实施例提供的信息处理方法的流程图,如图1所示,该方法包括:
S1:显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
S2:接收针对第一虚拟显示界面3中的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
S3:获得手势操作的穿透状态;
S4:基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息。
在步骤S1中,显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示,具体来讲,用户可以在使用AR头盔的时候,依据需要,在用户的眼睛的可视范围内显示出第一虚拟显示界面3,用户可以在第一虚拟显示界面3上进行操作,其具体针对第一虚拟显示界面3的操作可以为点击、滑动、穿透等任意操作,以帮助用户完成其想完成的指定指令。
在步骤S2中,接收针对第一虚拟显示界面3中的手势操作,其中,手势操作可穿透第一虚拟显示界面3,具体来讲,就是由用户佩戴的AR头盔显示出的第一虚拟显示界面3可以接受到用户针对第一虚拟显示界面3进行的操作,由于第一虚拟显示界面3是虚拟由AR头盔显示生成的,故此,用户的操作是可穿透第一虚拟显示界面3的。
在步骤S3中,获得手势操作的穿透状态,也就是,第一虚拟显示界面3在接收到用户的手势操作后,用户佩戴的AR头盔能够获得用户的操作手势针对第一虚拟显示界面3所做的操作,用户的操作手势针对第一虚拟显示界面3所做的操作可以为点击操作、滑动操作、穿透操作等。
在步骤S4中,基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息,具体是,在用户佩戴的AR头盔获得到用户的操作手势针对第一虚拟显示界面3具体为何种操作后,针对不同的操作,第一虚拟显示界面3会给出不同的反馈信息,在实际使用过程中,例如:当手势操作为点击操作时,第一虚拟显示界面3上就会显示相应的点击操作的反馈效果,如,在第一虚拟显示界面3上被点击的位置出现一个圆点,以表示点击操作已经被获得。当然,在基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息时,可以有多种情况,依次在下面进行详细阐述。
第一种情况,当然,当手势操作的操作体5与第一虚拟显示界面3不发生接触时,用户佩戴的AR头盔显示的第一虚拟显示界不会做出反应。
第二种情况,当手势操作的操作体5与第一虚拟显示界面3接触时,第一虚拟显示界面3呈现第一反馈状态1,其中,操作体5在实际应用中,可以是用户的手部、感应手套、操作焦点或者是VR虚拟出的操作体5等等均可,而当手势操作的操作体5与第一虚拟显示界面3接触时,具体以操作体5为用户的手部为例,可参见图2所示,当用户的手部触碰到第一虚拟显示界面3时,第一虚拟显示界面3便在与用户的手部接触的位置给出第一反馈状态1,第一反馈状态1可以是一圆点。
第三种情况,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,第一虚拟显示界面3呈现与第一反馈状态1不同的第二反馈状态2,也就是,当用户的手部直接穿过了用户佩戴的AR头盔显示的第一虚拟显示界,且穿过之后,用户的手部的前端部与第一虚拟显示界面3的距离大于预设距离后,第一虚拟显示界面3便在用户的手部穿过的位置给出第二反馈状态2,且第二反馈状态2与第一反馈状态1不同,此时,第一反馈状态1可以是与用户的手部穿过第一虚拟显示界面3的部位形状相匹配的形状,而第二反馈状态2可以是沿第一反馈状态1所呈现的形状,以向外扩散的样式展现。
在第三种情况中,第一虚拟显示界面3呈现第二反馈状态2中的一种实现方式为,在以操作体5与第一虚拟显示界面3接触的第一区域为中心的第二区域中呈现第二反馈状态2,具体可以举例为,请参见图3所示,当用户的手部穿透第一虚拟显示界面3时,第一区域是用户的手部穿过第一虚拟显示界面3的区域,而第二反馈状态2就是以第一区域为中心,呈现出的向外扩散的纹路。
此外,在第三种情况中,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,检测操作体5穿透第一虚拟显示界面3的距离和/或操作体5与第一虚拟显示界面3的接触面积;基于距离和/或接触面积,在第一虚拟显示界面3中显示第二反馈状态2。具体为,操作体5还以用户的手部为例,用户佩戴的AR头盔会对用户的手部穿过第一虚拟显示界面3的距离进行检测,或者对用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,或者同时对用户的手部穿过第一虚拟显示界面3的距离进行检测,以及用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,并依据检测的结果,在第一虚拟显示界面3上呈现第二反馈状态2。
当然了,在实际应用中,用户佩戴的AR头盔还可以同时显示两个虚拟显示界面,这时,在检测到手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离,并触碰到第二虚拟显示界面4时;就会在第一虚拟显示界面3上呈现第二反馈状态2,在第二虚拟显示界面4上呈现第一反馈状态1。具体来讲,还以操作体5为用户的手部为例,可参见图3所示,当用户的手部穿过第二虚拟显示界面4后。用户的手部又接触到了第一虚拟显示界面3,这时,在第二虚拟显示界面4上呈现出第二反馈状态2,也就是以用户的手部与第二虚拟显示界面4接触的第一区域为中心的第二区域中,呈现出的向外扩散的纹路,而在第一虚拟显示界面3上,呈现出用户的手部与第一虚拟显示界面3在接触位置上呈现的圆点。
上述技术方案在实际使用的过程中,可用于选择空间中的物体,即可以直接穿过挡在前面的物体而直接选取所需的目标物,或者,在摄像。摄影的过程中用于选取时间轴,使选择更加方便、直观。
基于同一发明构思,本发明实施例还提供一种电子设备,在实际应用中,该电子设备可以是智能手机、也可以是平板电脑、或者是VR眼镜以及其他可以呈现虚拟显示界面的电子设备。
该电子设备包括:
显示模组,用于显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对第一虚拟显示界面3中第一界面的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
处理器,用于获得手势操作的穿透状态,并基于手势操作的穿透状态,在第一虚拟显示界面3呈现一反馈信息。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述信息处理方法的技术方案进行阐述。
本发明实施例提供一种电子设备,在实际应用中,该电子设备可以是智能手机、也可以是平板电脑、或者是VR眼镜以及其他可以呈现虚拟显示界面的电子设备,在此不做限制,在接下来的部分中,以电子设备为一AR头盔为例,对该方法详细地举例描述。
该AR头盔包括:
显示模组,用于显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对第一虚拟显示界面3中第一界面的手势操作,其中,手势操作可穿透第一虚拟显示界面3;
处理器,用于获得手势操作的穿透状态,并基于手势操作的穿透状态,在第一虚拟显示界面3呈现一反馈信息。
显示模组,用于显示第一虚拟显示界面3,其中,第一虚拟显示界面3通过直接投射至用户眼睛的方式进行显示,具体来讲,用户可以在使用AR头盔的时候,依据需要,在用户的眼睛的可视范围内显示出第一虚拟显示界面3,用户可以在第一虚拟显示界面3上进行操作,其具体针对第一虚拟显示界面3的操作可以为点击、滑动、穿透等任意操作,以帮助用户完成其想完成的指定指令。
输入传感器,用于接收针对第一虚拟显示界面3中第一界面的手势操作,其中,手势操作可穿透第一虚拟显示界面3,具体来讲,就是由用户佩戴的AR头盔显示出的第一虚拟显示界面3可以接受到用户针对第一虚拟显示界面3进行的操作,由于第一虚拟显示界面3是虚拟由AR头盔显示生成的,故此,用户的操作是可穿透第一虚拟显示界面3的。
处理器,用于获得手势操作的穿透状态,并基于手势操作的穿透状态,在第一虚拟显示界面3呈现一反馈信息,也就是,第一虚拟显示界面3在接收到用户的手势操作后,用户佩戴的AR头盔能够获得用户的操作手势针对第一虚拟显示界面3所做的操作,用户的操作手势针对第一虚拟显示界面3所做的操作可以为点击操作、滑动操作、穿透操作等,在用户佩戴的AR头盔获得到用户的操作手势针对第一虚拟显示界面3具体为何种操作后,针对不同的操作,第一虚拟显示界面3会给出不同的反馈信息,在实际使用过程中,例如:当手势操作为点击操作时,第一虚拟显示界面3上就会显示相应的点击操作的反馈效果,如,在第一虚拟显示界面3上被点击的位置出现一个圆点,以表示点击操作已经被获得。当然,在处理器基于手势操作的穿透状态,在第一虚拟显示界面3呈现反馈信息时,可以有多种情况,依次在下面进行详细阐述。
第一种情况,当手势操作的操作体5与第一虚拟显示界面3不发生接触时,输入传感器未接收到手势操作,处理器不会做出反应,用户佩戴的AR头盔显示的第一虚拟显示界也不会做出反应。
第二种情况,当手势操作的操作体5与第一虚拟显示界面3接触时,第一虚拟显示界面3呈现第一反馈状态1,其中,操作体5在实际应用中,可以是用户的手部、感应手套、操作焦点或者是VR虚拟出的操作体5等等均可,而当手势操作的操作体5与第一虚拟显示界面3接触时,具体以操作体5为用户的手部为例,可参见图2所示,当用户的手部触碰到第一虚拟显示界面3时,输入传感器接收到手势操作,处理器会使第一虚拟显示界面3便在与用户的手部接触的位置给出第一反馈状态1,第一反馈状态1可以是一圆点。
第三种情况,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,第一虚拟显示界面3呈现与第一反馈状态1不同的第二反馈状态2,也就是,当用户的手部直接穿过了用户佩戴的AR头盔显示的第一虚拟显示界,且穿过之后,用户的手部的前端部与第一虚拟显示界面3的距离大于预设距离后,输入传感器接收到手势操作,处理器会使第一虚拟显示界面3便在用户的手部穿过的位置给出第二反馈状态2,且第二反馈状态2与第一反馈状态1不同,此时,第一反馈状态1可以是与用户的手部穿过第一虚拟显示界面3的部位形状相匹配的形状,而第二反馈状态2可以是沿第一反馈状态1所呈现的形状,以向外扩散的样式展现。
在第三种情况中,第一虚拟显示界面3呈现第二反馈状态2中的一种实现方式为,在以操作体5与第一虚拟显示界面3接触的第一区域为中心的第二区域中呈现第二反馈状态2,具体可以举例为,请参见图3所示,当用户的手部穿透第一虚拟显示界面3时,第一区域是用户的手部穿过第一虚拟显示界面3的区域,而第二反馈状态2就是以第一区域为中心,在输入传感器接收到手势操作后,处理器使第二区域呈现出的向外扩散的纹路。
此外,在第三种情况中,当手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离时,检测操作体5穿透第一虚拟显示界面3的距离和/或操作体5与第一虚拟显示界面3的接触面积;基于距离和/或接触面积,在第一虚拟显示界面3中显示第二反馈状态2。具体为,操作体5还以用户的手部为例,用户佩戴的AR头盔会对用户的手部穿过第一虚拟显示界面3的距离进行检测,或者对用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,或者同时对用户的手部穿过第一虚拟显示界面3的距离进行检测,以及用户的手部穿过第一虚拟显示界面3后,用户的手部与第一虚拟显示界面3的接触面积进行检测,并依据检测的结果,在第一虚拟显示界面3上呈现第二反馈状态2。
当然了,在实际应用中,用户佩戴的AR头盔的显示模组还可以同时显示两个虚拟显示界面,这时,在检测到手势操作的操作体5穿透第一虚拟显示界面3且大于预设距离,并触碰到第二虚拟显示界面4时;就会在第一虚拟显示界面3上呈现第二反馈状态2,在第二虚拟显示界面4上呈现第一反馈状态1。具体来讲,还以操作体5为用户的手部为例,可参见图3所示,当用户的手部穿过第二虚拟显示界面4后。用户的手部又接触到了第一虚拟显示界面3,这时,在第二虚拟显示界面4上呈现出第二反馈状态2,也就是以用户的手部与第二虚拟显示界面4接触的第一区域为中心的第二区域中,呈现出的向外扩散的纹路,而在第一虚拟显示界面3上,呈现出用户的手部与第一虚拟显示界面3在接触位置上呈现的圆点。
上述电子设备在实际使用的过程中,可用于选择空间中的物体,即可以直接穿过挡在前面的物体而直接选取所需的目标物,或者,在摄像。摄影的过程中用于选取时间轴,使选择更加方便、直观。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。

Claims (10)

1.一种信息处理方法,应用于一电子设备,所述方法包括:
显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
接收针对所述第一虚拟显示界面中的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
获得所述手势操作的穿透状态;
基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息。
2.根据权利要求1所述的信息处理方法,基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息,包括:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
3.根据权利要求2所述的信息处理方法,所述第一虚拟显示界面呈现第二反馈状态,包括:
在以所述操作体与所述第一虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
4.根据权利要求2所述的信息处理方法,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述方法还包括:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与所述第一虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
5.根据权利要求2所述的信息处理方法,包括:
检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
6.一种电子设备,包括:
显示模组,用于显示第一虚拟显示界面,其中,所述第一虚拟显示界面通过直接投射至用户眼睛的方式进行显示;
输入传感器,用于接收针对所述第一虚拟显示界面中第一界面的手势操作,其中,所述手势操作可穿透所述第一虚拟显示界面;
处理器,用于获得所述手势操作的穿透状态,并基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现一反馈信息。
7.根据权利要求6所述的电子设备,在基于所述手势操作的穿透状态,在所述第一虚拟显示界面呈现反馈信息时,所述处理器还用于:
当所述手势操作的操作体与所述第一虚拟显示界面接触时,所述第一虚拟显示界面呈现第一反馈状态;
当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述第一虚拟显示界面呈现与所述第一反馈状态不同的第二反馈状态。
8.根据权利要求7所述的电子设备,在所述第一虚拟显示界面呈现第二反馈状态时,所述处理器还用于:
在以所述操作体与所述虚拟显示界面接触的第一区域为中心的第二区域中呈现所述第二反馈状态。
9.根据权利要求7所述的电子设备,当所述手势操作的操作体穿透所述第一虚拟显示界面且大于一预设距离时,所述处理器还用于:
检测所述操作体穿透所述第一虚拟显示界面的距离和/或操作体与虚拟显示界面的接触面积;
基于所述距离和/或所述接触面积,在所述第一虚拟显示界面中显示所述第二反馈状态。
10.根据权利要求7所述的电子设备,所述处理器还用于:
检测到所述手势操作的操作体穿透所述第一虚拟显示界面且大于预设距离,并触碰到第二虚拟显示界面时;
在所述第一虚拟显示界面上呈现所述第二反馈状态,在所述第二虚拟显示界面上呈现所述第一反馈状态。
CN201710570323.8A 2017-07-13 2017-07-13 一种信息处理方法及电子设备 Pending CN107300975A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710570323.8A CN107300975A (zh) 2017-07-13 2017-07-13 一种信息处理方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710570323.8A CN107300975A (zh) 2017-07-13 2017-07-13 一种信息处理方法及电子设备

Publications (1)

Publication Number Publication Date
CN107300975A true CN107300975A (zh) 2017-10-27

Family

ID=60132671

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710570323.8A Pending CN107300975A (zh) 2017-07-13 2017-07-13 一种信息处理方法及电子设备

Country Status (1)

Country Link
CN (1) CN107300975A (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111816A2 (en) * 2003-06-13 2004-12-23 University Of Lancaster User interface
CN102221880A (zh) * 2011-05-19 2011-10-19 北京新岸线网络技术有限公司 3d图形界面的显示方法及系统
CN102402379A (zh) * 2010-09-14 2012-04-04 Lg电子株式会社 移动终端及其控制方法
CN102508546A (zh) * 2011-10-31 2012-06-20 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
CN102713821A (zh) * 2010-01-21 2012-10-03 索尼公司 用于电视菜单和文档导航的三维或更高维图形用户界面
WO2013015466A1 (en) * 2011-07-25 2013-01-31 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
US20130082928A1 (en) * 2011-09-30 2013-04-04 Seung Wook Kim Keyboard-based multi-touch input system using a displayed representation of a users hand
CN103119628A (zh) * 2010-08-04 2013-05-22 苹果公司 利用运动特性的显示器上三维用户界面效果
CN103282859A (zh) * 2010-12-27 2013-09-04 索尼电脑娱乐公司 手势操作输入处理装置及手势操作输入处理方法
CN103858074A (zh) * 2011-08-04 2014-06-11 视力移动技术有限公司 经由3d显示器与装置交互的系统和方法
CN104123005A (zh) * 2014-07-24 2014-10-29 周永业 触控显示系统及其显示可触控操作界面的方法
CN104969148A (zh) * 2013-03-14 2015-10-07 英特尔公司 基于深度的用户界面手势控制
CN105339870A (zh) * 2014-03-21 2016-02-17 三星电子株式会社 用于提供虚拟输入界面的方法和可穿戴装置
CN105446596A (zh) * 2015-11-26 2016-03-30 四川长虹电器股份有限公司 基于深度的交互式3d界面显示系统与方法
CN106249882A (zh) * 2016-07-26 2016-12-21 华为技术有限公司 一种应用于vr设备的手势操控方法与装置
EP3349104A1 (en) * 2017-01-12 2018-07-18 Virva VR Oy Virtual reality arcade
CN108431736A (zh) * 2015-10-30 2018-08-21 奥斯坦多科技公司 用于身体上姿势接口以及投影显示的系统和方法

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111816A2 (en) * 2003-06-13 2004-12-23 University Of Lancaster User interface
CN102713821A (zh) * 2010-01-21 2012-10-03 索尼公司 用于电视菜单和文档导航的三维或更高维图形用户界面
CN103119628A (zh) * 2010-08-04 2013-05-22 苹果公司 利用运动特性的显示器上三维用户界面效果
CN102402379A (zh) * 2010-09-14 2012-04-04 Lg电子株式会社 移动终端及其控制方法
CN103282859A (zh) * 2010-12-27 2013-09-04 索尼电脑娱乐公司 手势操作输入处理装置及手势操作输入处理方法
CN102221880A (zh) * 2011-05-19 2011-10-19 北京新岸线网络技术有限公司 3d图形界面的显示方法及系统
WO2013015466A1 (en) * 2011-07-25 2013-01-31 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
CN103858074A (zh) * 2011-08-04 2014-06-11 视力移动技术有限公司 经由3d显示器与装置交互的系统和方法
US20130082928A1 (en) * 2011-09-30 2013-04-04 Seung Wook Kim Keyboard-based multi-touch input system using a displayed representation of a users hand
CN102508546A (zh) * 2011-10-31 2012-06-20 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
CN104969148A (zh) * 2013-03-14 2015-10-07 英特尔公司 基于深度的用户界面手势控制
CN105339870A (zh) * 2014-03-21 2016-02-17 三星电子株式会社 用于提供虚拟输入界面的方法和可穿戴装置
CN104123005A (zh) * 2014-07-24 2014-10-29 周永业 触控显示系统及其显示可触控操作界面的方法
CN108431736A (zh) * 2015-10-30 2018-08-21 奥斯坦多科技公司 用于身体上姿势接口以及投影显示的系统和方法
CN105446596A (zh) * 2015-11-26 2016-03-30 四川长虹电器股份有限公司 基于深度的交互式3d界面显示系统与方法
CN106249882A (zh) * 2016-07-26 2016-12-21 华为技术有限公司 一种应用于vr设备的手势操控方法与装置
EP3349104A1 (en) * 2017-01-12 2018-07-18 Virva VR Oy Virtual reality arcade

Similar Documents

Publication Publication Date Title
KR102407071B1 (ko) 펜과 컴퓨팅 디바이스 상호작용을 위한 다중 디바이스 다중 사용자 센서 상관
CN106462341B (zh) 用于笔和触敏计算设备交互的传感器相关
Argyros et al. Vision-based interpretation of hand gestures for remote control of a computer mouse
US8581856B2 (en) Touch sensitive display apparatus using sensor input
CN104866225B (zh) 一种具有触摸显示屏的电子设备及其控制方法
US8502787B2 (en) System and method for differentiating between intended and unintended user input on a touchpad
Benko et al. Enhancing input on and above the interactive surface with muscle sensing
CN102662462B (zh) 电子装置、手势识别方法及手势应用方法
US20150002475A1 (en) Mobile device and method for controlling graphical user interface thereof
Babic et al. Pocket6: A 6dof controller based on a simple smartphone application
TWM341257U (en) Touch input system and electronic device
Mutasim et al. Pinch, click, or dwell: Comparing different selection techniques for eye-gaze-based pointing in virtual reality
US20240077948A1 (en) Gesture-based display interface control method and apparatus, device and storage medium
WO2021073743A1 (en) Determining user input based on hand gestures and eye tracking
CN109558061A (zh) 一种操作控制方法及终端
US20160320846A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit
WO2017019390A1 (en) Universal keyboard
CN108829239A (zh) 终端的控制方法、装置及终端
CN107273009A (zh) 一种移动终端快速截屏的方法及系统
Akkil et al. Accuracy of interpreting pointing gestures in egocentric view
CN109582126A (zh) 输入接口装置、控制方法及非暂态电脑可读取媒体
Wolf et al. Tickle: a surface-independent interaction technique for grasp interfaces
CN103809793B (zh) 一种信息处理方法和电子设备
CN109032334B (zh) 一种基于指纹和手势识别的交互方法及交互系统
Yamagami et al. How Do People with Limited Movement Personalize Upper-Body Gestures? Considerations for the Design of Personalized and Accessible Gesture Interfaces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171027