CN111580661A - 交互方法和增强现实设备 - Google Patents

交互方法和增强现实设备 Download PDF

Info

Publication number
CN111580661A
CN111580661A CN202010389104.1A CN202010389104A CN111580661A CN 111580661 A CN111580661 A CN 111580661A CN 202010389104 A CN202010389104 A CN 202010389104A CN 111580661 A CN111580661 A CN 111580661A
Authority
CN
China
Prior art keywords
augmented reality
action
reality device
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010389104.1A
Other languages
English (en)
Inventor
张志灵
刘梦婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN202010389104.1A priority Critical patent/CN111580661A/zh
Publication of CN111580661A publication Critical patent/CN111580661A/zh
Priority to PCT/CN2021/091864 priority patent/WO2021227918A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种交互方法和增强现实设备,属于通信技术领域,能够解决AR设备的交互性较差的问题。其中,第一增强现实设备侧的交互方法包括:检测第一用户的视线方向和所述第一用户的第一动作;在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。第一增强现实设备能够检测用户的动作,从而增强现实设备与用户之间的互动,以及能够参与用户与用户之间的互动,能够提高交互效果。

Description

交互方法和增强现实设备
技术领域
本申请属于通信技术领域,具体涉及一种交互方法和增强现实设备。
背景技术
随着增强现实(AR,Augmented Reality)技术的发展,通过AR设备进行远程视频已经逐渐应用于各个领域。AR设备能够采集视频参与者所在的环境,从而能够实现多个用户之间面对面的交流。例如,用户通过AR设备进行多人视频会议,每个参会者都可以通过AR设备查看其它参会者所在的环境。
然而,在实现上述技术的过程中,发明人发现现有技术中至少存在以下问题:AR设备仅能够将采集的用户的视频画面进行展示,而不能与用户进行互动,AR设备的交互性较差。
发明内容
本申请实施例的目的是提供一种交互方法和增强现实设备,能够解决AR设备的交互性较差的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种交互方法,应用于第一增强现实设备,该方法包括:
检测第一用户的视线方向和所述第一用户的第一动作;
在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
第二方面,本申请实施例提供了一种交互方法,应用于第二增强现实设备,该方法包括:
接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应;
在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息;
或,在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
第三方面,本申请实施例提供了一种交互装置,应用于第一增强现实设备,该交互装置包括:
检测模块,用于检测第一用户的视线方向和所述第一用户的第一动作;
第一发送模块,用于在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
第四方面,本申请实施例提供了一种交互装置,应用于第二增强现实设备,该交互装置包括:
第一接收模块,用于接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应;
第三输出模块,用于在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息;
或,第四输出模块,用于在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
第五方面,本申请实施例提供了一种增强现实设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面或第二方面所述的方法中的步骤。
第六方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面或第二方面所述的方法中的步骤。
第七方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面或第二方面所述的方法。
在本申请实施例中,检测第一用户的视线方向和所述第一用户的第一动作;在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。第一增强现实设备能够检测用户的动作,从而实现增强现实设备与用户之间的互动,以及能够参与用户与用户之间的互动,能够提高交互效果。
附图说明
图1是本发明实施例提供的交互方法的流程图之一;
图2至图6是本发明实施例提供的增强现实设备显示的图像;
图7是本发明实施例提供的交互方法的流程图之二;
图8是本发明实施例提供的第一增强现实设备的结构图;
图9是本发明实施例提供的第二增强现实设备的结构图;
图10是本发明实施例提供的第一增强现实设备或第二增强现实设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的交互方法进行详细地说明。
本发明实施例的交互方法可以应用于增强现实(AR,Augmented Reality)设备,具体可以是具备增强现实功能的电子设备或头戴式增强现实设备等等,此处不作限定。
在多人进行视频通话等场景中,例如,多人会议、多人视频等等,视频通话的每个用户可以通过增强现实设备查看其它用户所处的场景,每个用户也可以通过增强现实设备与其他用户进行交互。
本发明实施例中,当第一用户在使用第一增强现实设备时作出第一动作,如,握手或者挥手时,第一增强现实设备可以采集第一动作,并判断是否满足第一预设条件,如,是否与预设的动作匹配或者第一动作的产生的力度是否大于预设值。当第一动作满足第一预设条件的情况下,第一增强现实设备可以获取第一动作的动作参数,包括动作的朝向、产生的力度、动作的速度等等,并向第二增强现实设备发生包括动作参数的目标信息。
第二增强现实设备可以根据接收到的目标信息对第二用户进行提示,以使第二用户作出交互动作,从而实现第一用户和第二用户之间的交互。例如,在第二增强现实设备接收到来自第一增强现实设备的发送的包括动作参数的提示信息时,可以根据提示信息输出提示音,模拟真实的立体声效果,提示音的音量大小与动作参数大小相关,提示音的类型与动作类型对应。第二增强现实设备在收到提示后的预设时间内,如果检测到第二用户作出动作回应,如视线投射于第一增强现实设备对应的账户标识,挥手等,双方的AR设备上的账户标识可以显示绿色光晕,代表第二用户知悉这个交互动作,互动成功。若预设时间内未接收到回应,回应视为错过提示/没听到,双方的AR设备上的账户标识可以显示红色光晕或进一步输出提示,以提示第二用户作出回应。若第二用户仍然未作出回应,则可以显示红色光晕,表示接收方的用户状态忙碌。
这样,第一用户和第二用户可以通过增强现实设备进行交互,增强现实设备能够对用户之间的交互作出提示,能够参与用户之间的交互,能够提高交互效果。
当第一用户的视线投射于文件标识时,第一增强现实设备还可以根据用户的第一动作,将文件发送给其他的增强现实设备,从而模拟现实的文件发送效果。
为了便于理解本发明实施例的具体实现方式,以下分别从第一增强现实设备侧和第二增强现实设备侧的角度分别进行说明。
如图1所示,第一增强现实设备侧的交互方法可以包括以下步骤:
步骤101、检测第一用户的视线方向和所述第一用户的第一动作。
在本发明实施例中,在第一用户使用第一增强现实设备的过程中,第一增强现实设备可以通过眼球定位器或者摄像头等方式识别用户的视线方向,另外,还可以通过深度摄像头、红外摄像头以及RGB(红绿蓝)摄像头等感应器识别第一用户的第一动作。
上述第一动作具体可以包括手势动作、头部动作或者身体动作等等,如握手、摇头、拥抱的动作。
步骤102、在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息。
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
第一增强现实设备可以将需要显示的内容投影至特定的区域,便于用户观看。上述投影区域可以是第一增强现实设备显示的内容,通过将该内容投影从而能够将显示的内容呈现给用户,使用第一增强现实设备的用户可以观看到投影区域的内容。在第一增强现实设备的投影区域中可以包括目标标识,目标标识可以是与其他电子设备关联的账户标识,还可以是文件标识、应用程序标识或者是其他用于实现特定功能的标识。
上述第一动作满足第一预设条件可以理解为第一动作与预设动作匹配,或者第一动作的移动速度处于预设速度范围内,或者第一动作产生的力度处于预设力度范围内,等等。
在第一用户的视线投射于目标标识所在区域,且第一动作满足预设条件的时候,则可以根据第一动作的动作类型、动作参数等,发送与第一动作对应的目标信息,该目标信息可以用于指示第二增强现实设备输出信息的类型,包括触感信息(如震动)、显示信息(如黄色光晕)、声音信息(如提示声音)等。例如,当第一动作为拍手时,可以获取拍手动作的力度,从而发送包括该力度信息的目标信息;当第一动作为握手时,目标信息包括用于指示握手的提示信息。当第一动作为对文件标识的拿取操作,则目标信息包括该文件标识对应的文件。
这样,增强现实设备能够参与用户之间的交互,将第一用户的交互信息发送给第二用户,第一用户和第二用户可以通过增强现实设备进行交互,能够提高交互效果。本发明通过获取用户的视线方向和行为动作,并传送到对方的增强现实设备,能够带来接近真实场景的互动交流方式。
可选的,所述目标标识为第二账户标识,所述方法还包括:
在所述第一用户的视线投射于所述第二账户标识所在区域的情况下,在所述第二账户标识所在区域显示提示标识。
在该实施方式中,第一增强现实设备的投影区域中可以包括一个或者多个账户标识,每个账户标识可以对应一个电子设备。其中,第二账户标识可以是与第二增强现实设备对应的账户标识。
当第一用户的视线投射于第二账户标识的情况下,可以在第二账户标识所在区域显示提示标识,以使用户确认需要向该账户标识对应的用户互动。提示标识可以是闪烁显示、颜色增强显示、或者显示为如图2中右图中所示的焦点标识。
第一增强现实设备可以在检测到第一用户的视线投射于第二账户标识所在区域,且持续时间大于预设时长的情况下,在第二账户标识所在区域显示提示标识,从而能够减少账户识别的误差。
可选的,所述向第二增强现实设备发送与所述第一动作对应的目标信息之后,所述方法还包括:
在第一预设时间内接收到所述第二增强现实设备发送的响应信息的情况下,输出第一提示信息;
或,在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息。
在该实施方式中,第一增强现实设备向第二增强现实设备发送目标信息后,若在第一预设时间内接收到第二增强现实设备发送的对目标信息的响应信息,则第一增强现实设备输出第一提示信息,以提示交互成功,如在目标标识上显示绿色光晕;若在第一预设时间内未接收到第二增强现实设备发送的响应信息,则输出第二提示信息,如在目标标识上显示红色光晕,以提示交互失败。
例如,第一用户通过第一AR设备对目标标识轻拍,第一AR设备向第二AR设备发送轻拍动作对应的的提示信息。第二AR设备根据接收到的提示输出提示信息。若在输出提示信息后5秒内,眼球定位器识别出第二用户望向第一用户的账户标识,双方设备上的第一用户的账户标识和第二用户的账户标识分别显示绿色光晕,代表第二用户知悉这个模拟轻拍的动作,互动成功。如果5秒内第二用户没有望向第一用户的账户标识,视为错过提示,双方设备上的第一用户的账户标识和第二用户的账户标识分别显示红色光晕,表示接收方的用户状态忙碌。
这样,第一增强现实设备通过输出不同的提示信息,以提示用户交互成功或失败,便于用户根据交互结果进行其他处理或互动。
可选的,所述在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息之前,所述方法还包括:
在第二预设时间内未接收到所述第二增强现实设备发送的响应信息,且所述第二增强现实设备与第二穿戴手套连接的情况下,向所述第二增强现实设备发送第一信息;
其中,所述第一信息用于控制所述第二穿戴手套输出触感。
在该实施方式中,在第一增强现实设备未收到响应信息而输出第二提示信息之前,第一增强设备可以进一步向第二增强现实设备信息进行提示,即发送第一信息。第二增强现实设备接收到第一信息后,可以根据第一信息控制第二穿戴手套输出触感,以提示第二用户作出响应动作。
同样地,第二增强现实设备也可以通过上述方式向第一增强现实设备作出提示,从而控制第一增强现实设备向与第一增强现实设备连接的第一穿戴手套输出触感。
这样,通过向第二增强设备发送信息,以使第二增强现实设备控制穿戴手套输出触感的方式作出提示,能够更加直观有效地作出提示,从而能够提高互动的效果。
可选的,所述向第二增强现实设备发送与所述第一动作对应的目标信息,包括:
获取所述第一动作的动作参数;
在所述动作参数满足第一参数条件的情况下,向所述第二增强现实设备发送第一目标信息,所述第一目标信息用于指示所述第二增强现实设备以第一方式输出提示信息;
或,在所述动作参数满足第二参数条件的情况下,向所述第二增强现实设备发送第二目标信息,所述第二目标信息用于指示所述第二增强现实设备以第二方式输出提示信息。
在该实施方式中,第一动作可以包括拍手、握手、挥手、拥抱等动作,所述动作参数可以包括以下至少一项:动作的移动方向、移动速度、动作产生的力度等。第一增强现实设备可以通过深度摄像头、RGB摄像头等获取动作的移动方向和移动速度,动作的力度可以通过与第一增强现实设备连接的智能手套或者其他感应设备获取,还可以利用移动参数进行计算得到。
第一增强现实设备根据动作参数的类型、大小等,可以向第二增强现实设备发送不同的信息,以指示第二增强现实设备以不同的方式输出提示信息。
例如,当第一动作的动作参数满足第一参数条件,如力度较小,则可以指示第二增强现实设备以较小的提示音进行提示,该提示音的类型和大小均可以模拟第一动作产生的声音;当第一动作的动作参数满足第二参数条件,如力度较大,则可以指示第二增强现实设备以较大的提示音进行提示,该提示音的类型和大小可以模拟第一动作产生的声音。
又如,当第一动作为眼部动作,则可以指示第二增强现实设备显示第一动作的图像;当第一动作为手势动作,则可以指示第二增强现实设备控制穿戴手套输出触感等。
通过不同的方式输出提示,以便于第二用户快速获取第一用户作出的交互动作,从而快速作出响应,提高交互效率和效果。另外,第一增强现实设备还通过将上述动作参数发送给第二增强现实设备,从而使第二增强现实设备输出对应的提示,例如,当重拍时提示音大,当轻拍时提示音小,便于第二用户根据提示了解动作的类型或动作所传达的其他信息。
可选的,所述在检测所述第一用户的第一动作之后,所述方法还包括:
在所述投影区域显示用于表示所述第一动作的第一图像;
所述向第二增强现实设备发送与所述第一动作对应的目标信息之后,所述方法还包括:
在接收到所述第二增强现实设备发送的对所述目标信息的响应信息,且所述响应信息用于表示第二动作的情况下,根据所述响应信息在所述投影区域显示第三图像,所述第三图像表示的动作包括所述第一动作和所述第二动作;
或,在未接收到所述第二增强现实设备发送的对所述目标信息的响应信息,的情况下,将所述投影区域中的所述第一图像切换至第四图像,所述第四图像表示的动作与所述第一动作相反。
在该实施方式中,第一动作可以包括拥抱动作、握手动作、眨眼动作、飞吻动作、拿取文件等交互动作。第一增强现实设备可以在投影区域显示用于表示第一动作的第一图像,该图像可以是图片或者是视频图像,以便于第一用户获取自己正在做出的交互动作。
第二增强现实设备在接收到目标信息后可以向第一增强现实设备发送响应信息,如,第二用户已做出第二动作作为响应。该响应信息中可以包括用于表示第二动作的图像,也可以是为一个指令信息,该指令信息用于指示第一设备将其储存的与第一动作的交互图像显示在投影区域。
第一增强现实设备在预设时间内接收到响应信息的情况下,可以根据响应信息显示第三图像,第三图像可以包括互相匹配的第一动作和第二动作的图像。例如,第一增强现实设备在检测到第一用户作出如图3所示的握手动作后,向第二增强现实设备发送目标信息。第二增强现实设备根据目标信息显示如图4所示的图像。在第二增强现实设备检测到第二用户回应的第二动作后,则第一增强现实设备和第二增强现实设备可以同时显示如图5所示的握手图像,表示交互成功。
又如,第一用户通过第一增强现实设备向第二增强现实设备发送包括接收文件请求的目标信息,第一增强现实设备和第二增强现实设备均显示文件发送请求的图像。若第二增强现实设备接收到第二用户的点头动作(即点头动作为对于目标信息的响应信息),则第一增强现实设备和第二增强现实设备可以同时显示文件接收的图像,表示同意接收文件。
在第一增强现实设备在预设时间内未接收到第二增强现实设备发送的响应信息,或者第一用户撤回第一动作的情况下,可以将第一图像所表示的动作撤回,即切换为表示撤回动作的第四图像。例如,当第一图像所表示的动作为握手时,则第四图像所表示的动作为缩回手部的动作。
这样,第一增强现实设备可以将第一用户和第二用户的互动动作显示出来,且能够根据第二用户是否响应作出相应的回应,能够进一步还原真实场景下的互动效果。
可选的,所述第一动作为手势动作,所述第一增强现实设备与穿戴于所述第一用户的第一穿戴手套连接,所述方法还包括:
在所述第二增强现实设备发送的对所述目标信息的响应信息中包括触感信息的情况下,控制所述第一穿戴手套输出与所述触感信息对应的触感;
或,在所述第一动作为拿取目标物品的动作的情况下,检测所述第一穿戴手套的第一指套和第二指套之间的距离,在所述距离小于预设距离情况下,控制所述第一指套输出第一触力,控制所述第二指套输出第二触力,其中,所述预设距离是根据所述目标物品的尺寸大小确定的。
在该实施方式中,第一增强现实设备与第一穿戴手套连接,从而可以实现信息交互。当第二增强现实设备发送的响应信息中包括触感信息,如触摸力度,触摸位置等,第一增强现实设备可以控制第一穿戴手套输出触感,该触感的力度大小和位置等可以与第二增强现实设备发送的触感信息中携带的信息相对应。例如,响应信息中包括握手动作信息和握手的力度大小,第一穿戴设备根据力度大小向第一用户输出触感。这样,能够还原第一用户与第二用户作出手势动作的真实场景,提高交互效果。且第一增强现实设备能够根据响应信息确定是否控制第一穿戴手套输出触感,提高交互提醒的灵活性。
第一增强现实设备还可以检测用户的第一动作和用户的视线,如当视线投射于文件标识,且第一动作满足预设条件,则确定为拿取目标物品的动作。还可以根据动作的方式、姿态等参数确定是否为拿取目标物品。例如,如图6所示,眼球定位器1可以识别用户的眼球的视线方向,穿戴式感应器和图形识别系统2可以识别用户的手势动作。结合对视线方向和手势动作的识别可以提高对用户拿取动作识别的准确性。
当第一指套和第二指套之间的距离小于预设距离,可以视为第一指套和第二指套已接触目标物品,则可以控制第一指套和第二指套输出触力,以模拟用户拿取物品时的真实感受。
例如,在对目标物品进行拿取动作时,穿戴手套可以检测拿取动作对每个指套的压力,也就是拿取动作产生的压力,此时目标物品位于第一手指和第二手指之间。当第一指套和第二指套之间的距离小于预设距离时,第一增强现实设备可以根据每个指套受到的压力,向手指输出与压力的方向相反且力度相等的作用力,以模拟用户的手指在拿取到目标物品时受到的反作用力。上述目标物品可以是投影区域中显示的虚拟物品。
本发明实施例,利用视线投射结合手势动作的参数辨别用户拿取虚拟物件的行为动作,能够提高辨别准确度,且通过穿戴手套输出触感,能够将线上交互动作展现得更加直观,实现更加真实的效果。
需要说明的是,本申请实施例提供的交互方法,执行主体可以为第一增强现实设备对应的交互装置,或者该交互装置中的用于执行加载交互的方法的控制模块。本申请实施例中以交互装置执行加载交互的方法为例,说明本申请实施例提供的交互的方法。
如图7所示,第二增强现实设备侧的交互方法可以包括以下步骤:
步骤701、接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应。
此步骤的具体实现过程可以参见第一增强现实设备侧的描述。
步骤702、在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息。
第二动作满足第二预设条件可以理解为第二动作与第一动作匹配,或者第二动作的参数符合特定的条件等等。第二增强现实设备可以通过眼球定位器、深度摄像头、红外线摄像头、RGB摄像头等装置进行识别。
当接收到目标信息时,第二增强现实设备可以输出第三提示信息,以提示第二用户交互成功。例如,第二增强现实设备接收到用于提示握手请求的提示信息,第二用户在预定时间内作出握手动作时,第二增强现实设备输出握手成功的提示消息。另外,第二增强现实设备还可以向第一增强现实设备发送目标信息的响应信息,以使第一增强现实设备获取交互结果。该响应信息可以包括图像信息,或者仅仅是用于表示第二动作的提示信息,还可以包括其他信息。
优选的,第一增强现实设备上的第一提示信息和第二增强现实设备上的第三提示信息相同,第二提示信息和第四提示信息相同。
上述步骤702也可以替换为步骤703。
步骤703、在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
当第二用户未作出满足第二预设条件的第二动作作为响应,则第二增强现实设备可以输出第四提示信息,以提示交互失败。另外,第二增强现实设备还可以向第一增强现实设备发送目标信息的响应信息,以使第一增强现实设备获取该交互结果。
这样,第二增强现实设备可以获取第二用户的动作以确定是否交互成功,并可以向第一增强现实设备发送交互结果,能够提高互动效果。
可选的,所述第二增强现实设备与穿戴于所述第二用户的第二穿戴手套连接,所述向所述第一增强现实设备发送与所述目标信息对应的响应信息之前,所述方法还包括:
接收所述第一增强现实设备发送的第一信息;
根据所述第一信息,控制所述第二穿戴手套输出触感。
在该实施方式中,在接收到目标信息后,可以根据手势参数输出第三提示信息,第三提示信息具体可以根据第一动作的类型输出模拟第一动作的声音,以使第二用户获得更加真实的效果。例如,第一动作为拍手,则第二增强现实设备可以输出拍手的立体声,账户标识的颜色可以根据声音变化发生变化;第一动作为握手,则第二增强现实设备可以通过智能手套向第二用户输出对应大小的握力。
这样,第二增强现实设备可以将第一动作的效果更加真实地还原,从而提高第一用户和第二用户之间的互动效果。
可选的,在所述目标信息包括第一目标信息的情况下,通过第一方式输出所述第三提示信息;
或,在所述目标信息包括第二目标信息的情况下,通过第二方式输出所述第三提示信息。
在该实施方式中,第二增强现实设备可以根据目标信息包括的信息类型,以不同的方式输出提示信息。第一目标信息和第二目标信息可以是用于指示提示信息输出方式的信息,第一方式和第二方式可以分别可以是语音输出、显示屏输出或震动输出等等。此处可以结合第一增强现实设备侧的描述进行理解,此处不再赘述。
通过不同的方式输出提示信息,便于用户根据提示信息获取第一动作的信息。
可选的,所述接收第一增强现实设备发送的目标信息之后,所述方法还包括:
在所述第二增强现实设备的投影区域显示用于表示所述第一动作的第一目标图像;
所述在第三预设时间内检测到第二用户的第二动作满足第二预设条件之后,所述方法还包括:
在所述第二增强现实设备的投影区域显示第三目标图像,所述第三目标图像表示的动作包括所述第一动作和所述第二动作。
在该实施方式中,第一目标图像与上述实施例中的第一图像可以相同或者不同,第三目标图像与上述实施例中的第三图像可以相同或者不同。例如,第一图像为向对方的伸手动作(图3),第一目标图像为对方向自己的伸手动作(图4)。
在第二用户作出对第一动作的回应动作,即第二动作后,第二增强现实设备可以在投影区域显示第三目标图像,以表示交互成功。
这样,通过图像呈现的方式参与用户的互动,能够提高交互效果,且能够对用户进行提示,提高交互效率。
本发明实施例,第二增强显示设备能够根据第二用户作出的响应动作,作出相应的提示内容,以提示用户交互成功。能够更加直观地模拟真实的交互场景,提高交互效果。
需要说明的是,本申请实施例提供的交互方法,执行主体可以为第二增强现实设备对应的交互装置,或者该交互装置中的用于执行加载交互的方法的控制模块。本申请实施例中以交互装置执行加载交互的方法为例,说明本申请实施例提供的交互的方法。
如图8所示,图8是本发明实施例提供的交互装置的结构图,可以应用于第一增强现实设备,如图8所示,交互装置800包括:
检测模块801,用于检测第一用户的视线方向和所述第一用户的第一动作;
第一发送模块802,用于在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
可选的,所述交互装置还包括:
第一输出模块,用于在第一预设时间内接收到所述第二增强现实设备发送的响应信息的情况下,输出第一提示信息;
或,第二输出模块,用于在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息。
可选的,所述交互装置还包括:
第二发送模块,用于在第二预设时间内未接收到所述第二增强现实设备发送的响应信息,且所述第二增强现实设备与第二穿戴手套连接的情况下,向所述第二增强现实设备发送第一信息;
其中,所述第一信息用于控制所述第二穿戴手套输出触感。
可选的,所述第一发送模块包括:
获取子模块,用于获取所述第一动作的动作参数;
发送子模块,用于在所述动作参数满足第一参数条件的情况下,向所述第二增强现实设备发送第一目标信息,所述第一目标信息用于指示所述第二增强现实设备以第一方式输出提示信息;
或,用于在所述动作参数满足第二参数条件的情况下,向所述第二增强现实设备发送第二目标信息,所述第二目标信息用于指示所述第二增强现实设备以第二方式输出提示信息。
可选的,所述交互装置还包括:
第一显示模块,用于在所述投影区域显示用于表示所述第一动作的第一图像;
第二显示模块,用于在接收到所述第二增强现实设备发送的对所述目标信息的响应信息,且所述响应信息用于表示第二动作的情况下,根据所述响应信息在所述投影区域显示第三图像,所述第三图像表示的动作包括所述第一动作和所述第二动作。
可选的,所述第一动作为手势动作,所述第一增强现实设备与穿戴于所述第一用户的第一穿戴手套连接,所述交互装置还包括:
第一控制模块,用于在所述第二增强现实设备发送的对所述目标信息的响应信息中包括触感信息的情况下,控制所述第一穿戴手套输出与所述触感信息对应的触感;
或,第二控制模块,用于在所述第一动作为拿取目标物品的动作的情况下,检测所述第一穿戴手套的第一指套和第二指套之间的距离,在所述距离小于预设距离情况下,控制所述第一指套输出第一触力,控制所述第二指套输出第二触力,其中,所述预设距离是根据所述目标物品的尺寸大小确定的。
交互装置800能够实现上述方法实施例中第一增强现实设备侧的交互方法以及达到相同的有益效果,为避免重复,这里不再赘述。
如图9所示,图9是本发明实施例提供的交互装置的结构图,该交互装置900可以应用于第二增强现实设备,如图9所示,交互装置900包括:
第一接收模块901,用于接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应;
第三输出模块902,用于在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息;
或,第四输出模块903,用于在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
可选的,所述第二增强现实设备与穿戴于所述第二用户的第二穿戴手套连接,所述交互装置还包括:
第二接收模块,用于接收所述第一增强现实设备发送的第一信息;
第三控制模块,用于根据所述第一信息,控制所述第二穿戴手套输出触感。
可选的,所述交互装置还包括:
第五输出模块,用于在所述目标信息包括第一目标信息的情况下,通过第一方式输出所述第三提示信息;
或,第六输出模块,用于在所述目标信息包括第二目标信息的情况下,通过第二方式输出所述第三提示信息。
可选的,所述交互装置还包括:
第三显示模块,用于在所述第二增强现实设备的投影区域显示用于表示所述第一动作的第一目标图像;
所述交互装置还包括:
第四显示模块,用于在所述第二增强现实设备的投影区域显示第三目标图像,所述第三目标图像表示的动作包括所述第一动作和所述第二动作。
交互装置900能够实现上述方法实施例中第二增强现实设备侧的交互方法以及达到相同的有益效果,为避免重复,这里不再赘述。
本申请实施例中的交互装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是电子设备。示例性的,该电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personalcomputer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,本申请实施例不作具体限定。
本申请实施例中的交互装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的交互装置能够实现图1至图7的方法实施例中交互装置实现的各个过程,为避免重复,这里不再赘述。
第一增强现实设备能够检测用户的动作,从而增强现实设备与用户之间的互动,以及能够参与用户与用户之间的互动,能够提高交互效果。
可选的,本申请实施例还提供一种增强现实设备,包括处理器,存储器,存储在存储器上并可在所述处理器上运行的程序或指令,该程序或指令被处理器执行时实现上述第一增强现实设备侧和第二增强现实设备侧的交互方法实施例中的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
图10为实现本申请实施例的一种增强现实设备的硬件结构示意图。该增强现实设备1000包括但不限于:射频单元1001、网络模块1002、音频输出单元1003、输入单元1004、传感器1005、显示单元1006、用户输入单元1007、接口单元1008、存储器1009、以及处理器1010等部件。
本领域技术人员可以理解,增强现实设备1000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1010逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图10中示出的增强现实设备结构并不构成对增强现实设备的限定,增强现实设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
当增强现实设备为第一增强现实设备时,其中,处理器1010,用于检测第一用户的视线方向和所述第一用户的第一动作;在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
这样,第一增强现实设备能够检测用户的动作,从而增强现实设备与用户之间的互动,以及能够参与用户与用户之间的互动,能够提高交互效果。
可选的,所述目标标识为第二账户标识,所述处理器1010还用于:
在第一预设时间内接收到所述第二增强现实设备发送的响应信息的情况下,输出第一提示信息;
或,在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息。
可选的,所述第一动作为第一手势动作,所述目标标识为第二账户标识;所述处理器1010还用于:
在第二预设时间内未接收到所述第二增强现实设备发送的响应信息,且所述第二增强现实设备与第二穿戴手套连接的情况下,向所述第二增强现实设备发送第一信息;
其中,所述第一信息用于控制所述第二穿戴手套输出触感。
可选的,所述处理器1010执行所述向第二增强现实设备发送与所述第一动作对应的目标信息,包括:
获取所述第一动作的动作参数;
在所述动作参数满足第一参数条件的情况下,向所述第二增强现实设备发送第一目标信息,所述第一目标信息用于指示所述第二增强现实设备以第一方式输出提示信息;
在所述动作参数满足第二参数条件的情况下,向所述第二增强现实设备发送第二目标信息,所述第二目标信息用于指示所述第二增强现实设备以第二方式输出提示信息。
可选的,所述处理器1010还用于:
控制显示单元1006在所述投影区域显示用于表示所述第一动作的第一图像;在接收到所述第二增强现实设备发送的对所述目标信息的响应信息,且所述响应信息用于表示第二动作的情况下,根据所述响应信息在所述投影区域显示第三图像,所述第三图像表示的动作包括所述第一动作和所述第二动作。
可选的,所述第一动作为手势动作,所述第一增强现实设备与穿戴于所述第一用户的第一穿戴手套连接,所述处理器1010还用于:
在所述第二增强现实设备发送的对所述目标信息的响应信息中包括触感信息的情况下,控制所述第一穿戴手套输出与所述触感信息对应的触感;
或,在所述第一动作为拿取目标物品的动作的情况下,检测所述第一穿戴手套的第一指套和第二指套之间的距离,在所述距离小于预设距离情况下,控制所述第一指套输出第一触力,控制所述第二指套输出第二触力,其中,所述预设距离是根据所述目标物品的尺寸大小确定的。
当增强现实设备为第二增强现实设备时,其中,处理器1010,用于接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应;
在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息;
或,在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
可选的,所述第二增强现实设备与穿戴于所述第二用户的第二穿戴手套连接,所述处理器1010还用于:
接收所述第一增强现实设备发送的第一信息;
根据所述第一信息,控制所述第二穿戴手套输出触感。
可选的,所述处理器1010还用于:
在所述目标信息包括第一目标信息的情况下,通过第一方式输出所述第三提示信息;
或,在所述目标信息包括第二目标信息的情况下,通过第二方式输出所述第三提示信息。
可选的,所述处理器1010还用于:
在所述第二增强现实设备的投影区域显示用于表示所述第一动作的第一目标图像;
在所述第二增强现实设备的投影区域显示第三目标图像,所述第三目标图像表示的动作包括所述第一动作和所述第二动作。
这样,第二用户可以通过第二增强现实设备与第一用户进行互动,能够提高互动效果。且第二增强现实设备能够根据接收到的目标信息作出相应的提示,便于用户快速获取第一动作的内容。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述第一增强现实设备侧和第二增强现实设备侧的交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的增强现实设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述第一增强现实设备侧和第二增强现实设备侧的交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

Claims (22)

1.一种交互方法,应用于第一增强现实设备,其特征在于,包括:
检测第一用户的视线方向和所述第一用户的第一动作;
在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
2.根据权利要求1所述的方法,其特征在于,所述向第二增强现实设备发送与所述第一动作对应的目标信息之后,所述方法还包括:
在第一预设时间内接收到所述第二增强现实设备发送的响应信息的情况下,输出第一提示信息;
或,在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息。
3.根据权利要求2所述的方法,其特征在于,所述在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息之前,所述方法还包括:
在第二预设时间内未接收到所述第二增强现实设备发送的响应信息,且所述第二增强现实设备与第二穿戴手套连接的情况下,向所述第二增强现实设备发送第一信息;
其中,所述第一信息用于控制所述第二穿戴手套输出触感。
4.根据权利要求1所述的方法,其特征在于,所述向第二增强现实设备发送与所述第一动作对应的目标信息,包括:
获取所述第一动作的动作参数;
在所述动作参数满足第一参数条件的情况下,向所述第二增强现实设备发送第一目标信息,所述第一目标信息用于指示所述第二增强现实设备以第一方式输出提示信息;
或,在所述动作参数满足第二参数条件的情况下,向所述第二增强现实设备发送第二目标信息,所述第二目标信息用于指示所述第二增强现实设备以第二方式输出提示信息。
5.根据权利要求1所述的方法,其特征在于,所述在检测所述第一用户的第一动作之后,所述方法还包括:
在所述投影区域显示用于表示所述第一动作的第一图像;
所述向第二增强现实设备发送与所述第一动作对应的目标信息之后,所述方法还包括:
在接收到所述第二增强现实设备发送的对所述目标信息的响应信息,且所述响应信息用于表示第二动作的情况下,根据所述响应信息在所述投影区域显示第三图像,所述第三图像表示的动作包括所述第一动作和所述第二动作。
6.根据权利要求5所述的方法,其特征在于,所述第一动作为手势动作,所述第一增强现实设备与穿戴于所述第一用户的第一穿戴手套连接,所述方法还包括:
在所述第二增强现实设备发送的对所述目标信息的响应信息中包括触感信息的情况下,控制所述第一穿戴手套输出与所述触感信息对应的触感;
或,在所述第一动作为拿取目标物品的动作的情况下,检测所述第一穿戴手套的第一指套和第二指套之间的距离,在所述距离小于预设距离情况下,控制所述第一指套输出第一触力,控制所述第二指套输出第二触力,其中,所述预设距离是根据所述目标物品的尺寸大小确定的。
7.一种交互方法,应用于第二增强现实设备,其特征在于,包括:
接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应;
在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息;
或,在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
8.根据权利要求7所述的方法,其特征在于,所述第二增强现实设备与穿戴于所述第二用户的第二穿戴手套连接,所述向所述第一增强现实设备发送与所述目标信息对应的响应信息之前,所述方法还包括:
接收所述第一增强现实设备发送的第一信息;
根据所述第一信息,控制所述第二穿戴手套输出触感。
9.根据权利要求7所述的方法,其特征在于,
在所述目标信息包括第一目标信息的情况下,通过第一方式输出所述第三提示信息;
或,在所述目标信息包括第二目标信息的情况下,通过第二方式输出所述第三提示信息。
10.根据权利要求7所述的方法,其特征在于,所述接收第一增强现实设备发送的目标信息之后,所述方法还包括:
在所述第二增强现实设备的投影区域显示用于表示所述第一动作的第一目标图像;
所述在第三预设时间内检测到第二用户的第二动作满足第二预设条件之后,所述方法还包括:
在所述第二增强现实设备的投影区域显示第三目标图像,所述第三目标图像表示的动作包括所述第一动作和所述第二动作。
11.一种交互装置,应用于第一增强现实设备,其特征在于,包括:
检测模块,用于检测第一用户的视线方向和所述第一用户的第一动作;
第一发送模块,用于在所述第一用户的视线投射于目标标识所在区域,且所述第一用户的第一动作满足第一预设条件的情况下,向第二增强现实设备发送与所述第一动作对应的目标信息;
其中,所述目标标识为所述第一增强现实设备的投影区域中的标识,所述第二增强现实设备为与所述目标标识关联的电子设备。
12.根据权利要求11所述的交互装置,其特征在于,所述交互装置还包括:
第一输出模块,用于在第一预设时间内接收到所述第二增强现实设备发送的响应信息的情况下,输出第一提示信息;
或,第二输出模块,用于在所述第一预设时间内未接收到所述第二增强现实设备发送的响应信息的情况下,输出第二提示信息。
13.根据权利要求12所述的交互装置,其特征在于,所述交互装置还包括:
第二发送模块,用于在第二预设时间内未接收到所述第二增强现实设备发送的响应信息,且所述第二增强现实设备与第二穿戴手套连接的情况下,向所述第二增强现实设备发送第一信息;
其中,所述第一信息用于控制所述第二穿戴手套输出触感。
14.根据权利要求11所述的交互装置,其特征在于,所述第一发送模块包括:
获取子模块,用于获取所述第一动作的动作参数;
发送子模块,用于在所述动作参数满足第一参数条件的情况下,向所述第二增强现实设备发送第一目标信息,所述第一目标信息用于指示所述第二增强现实设备以第一方式输出提示信息;
或,用于在所述动作参数满足第二参数条件的情况下,向所述第二增强现实设备发送第二目标信息,所述第二目标信息用于指示所述第二增强现实设备以第二方式输出提示信息。
15.根据权利要求11所述的交互装置,其特征在于,所述交互装置还包括:
第一显示模块,用于在所述投影区域显示用于表示所述第一动作的第一图像;
第二显示模块,用于在接收到所述第二增强现实设备发送的对所述目标信息的响应信息,且所述响应信息用于表示第二动作的情况下,根据所述响应信息在所述投影区域显示第三图像,所述第三图像表示的动作包括所述第一动作和所述第二动作。
16.根据权利要求15所述的交互装置,其特征在于,所述第一动作为手势动作,所述第一增强现实设备与穿戴于所述第一用户的第一穿戴手套连接,所述交互装置还包括:
第一控制模块,用于在所述第二增强现实设备发送的对所述目标信息的响应信息中包括触感信息的情况下,控制所述第一穿戴手套输出与所述触感信息对应的触感;
或,第二控制模块,用于在所述第一动作为拿取目标物品的动作的情况下,检测所述第一穿戴手套的第一指套和第二指套之间的距离,在所述距离小于预设距离情况下,控制所述第一指套输出第一触力,控制所述第二指套输出第二触力,其中,所述预设距离是根据所述目标物品的尺寸大小确定的。
17.一种交互装置,应用于第二增强现实设备,其特征在于,包括:
第一接收模块,用于接收第一增强现实设备发送的目标信息,所述目标信息与所述第一增强现实设备检测的第一动作对应;
第三输出模块,用于在第三预设时间内检测到第二用户的第二动作满足第二预设条件的情况下,输出第三提示信息,并向所述第一增强现实设备发送与所述目标信息对应的响应信息;
或,第四输出模块,用于在所述第三预设时间内未检测到第二用户的满足所述第二预设条件的第二动作的情况下,输出第四提示信息。
18.根据权利要求17所述的交互装置,其特征在于,所述第二增强现实设备与穿戴于所述第二用户的第二穿戴手套连接,所述交互装置还包括:
第二接收模块,用于接收所述第一增强现实设备发送的第一信息;
第三控制模块,用于根据所述第一信息,控制所述第二穿戴手套输出触感。
19.根据权利要求17所述的交互装置,其特征在于,所述交互装置还包括:
第五输出模块,用于在所述目标信息包括第一目标信息的情况下,通过第一方式输出所述第三提示信息;
或,第六输出模块,用于在所述目标信息包括第二目标信息的情况下,通过第二方式输出所述第三提示信息。
20.根据权利要求17所述的交互装置,其特征在于,所述交互装置还包括:
第三显示模块,用于在所述第二增强现实设备的投影区域显示用于表示所述第一动作的第一目标图像;
所述交互装置还包括:
第四显示模块,用于在所述第二增强现实设备的投影区域显示第三目标图像,所述第三目标图像表示的动作包括所述第一动作和所述第二动作。
21.一种增强现实设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至7任一项所述的交互方法中的步骤,或实现如权利要求8至10任一项所述的交互方法中的步骤。
22.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1至7任一项所述的交互方法中的步骤,或实现如权利要求8至10任一项所述的交互方法中的步骤。
CN202010389104.1A 2020-05-09 2020-05-09 交互方法和增强现实设备 Pending CN111580661A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010389104.1A CN111580661A (zh) 2020-05-09 2020-05-09 交互方法和增强现实设备
PCT/CN2021/091864 WO2021227918A1 (zh) 2020-05-09 2021-05-06 交互方法和增强现实设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010389104.1A CN111580661A (zh) 2020-05-09 2020-05-09 交互方法和增强现实设备

Publications (1)

Publication Number Publication Date
CN111580661A true CN111580661A (zh) 2020-08-25

Family

ID=72122887

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010389104.1A Pending CN111580661A (zh) 2020-05-09 2020-05-09 交互方法和增强现实设备

Country Status (2)

Country Link
CN (1) CN111580661A (zh)
WO (1) WO2021227918A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021227918A1 (zh) * 2020-05-09 2021-11-18 维沃移动通信有限公司 交互方法和增强现实设备
WO2022075920A1 (en) * 2020-10-09 2022-04-14 Lemon Inc. Social networking using augmented reality
CN114385004A (zh) * 2021-12-15 2022-04-22 北京五八信息技术有限公司 基于增强现实的交互方法、装置、电子设备及可读介质
CN114489331A (zh) * 2021-12-31 2022-05-13 上海米学人工智能信息科技有限公司 区别于按钮点击的隔空手势交互方法、装置、设备和介质
CN115191788A (zh) * 2022-07-14 2022-10-18 慕思健康睡眠股份有限公司 一种基于智能床垫的体感互动方法及相关产品
CN116540872A (zh) * 2023-04-28 2023-08-04 中广电广播电影电视设计研究院有限公司 Vr数据处理方法、装置、设备、介质及产品

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114338897B (zh) * 2021-12-16 2024-01-16 杭州逗酷软件科技有限公司 对象的分享方法、装置、电子设备以及存储介质
CN114578966B (zh) * 2022-03-07 2024-02-06 北京百度网讯科技有限公司 交互方法、装置、头戴显示设备、电子设备及介质
CN115550886B (zh) * 2022-11-29 2023-03-28 蔚来汽车科技(安徽)有限公司 一种车载扩展现实设备控制方法、系统及车载交互系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180342103A1 (en) * 2017-05-26 2018-11-29 Microsoft Technology Licensing, Llc Using tracking to simulate direct tablet interaction in mixed reality
CN108933723A (zh) * 2017-05-19 2018-12-04 腾讯科技(深圳)有限公司 消息展示方法、装置及终端
CN109937394A (zh) * 2016-10-04 2019-06-25 脸谱公司 用于虚拟空间中的用户交互的控件和界面
CN110298925A (zh) * 2019-07-04 2019-10-01 珠海金山网络游戏科技有限公司 一种增强现实图像处理方法、装置、计算设备及存储介质
CN110413109A (zh) * 2019-06-28 2019-11-05 广东虚拟现实科技有限公司 虚拟内容的生成方法、装置、系统、电子设备及存储介质
CN110716647A (zh) * 2019-10-17 2020-01-21 广州大西洲科技有限公司 一种增强现实交互方法、装置及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829247B (zh) * 2018-06-01 2022-11-15 北京市商汤科技开发有限公司 基于视线跟踪的交互方法及装置、计算机设备
CN111580661A (zh) * 2020-05-09 2020-08-25 维沃移动通信有限公司 交互方法和增强现实设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109937394A (zh) * 2016-10-04 2019-06-25 脸谱公司 用于虚拟空间中的用户交互的控件和界面
CN108933723A (zh) * 2017-05-19 2018-12-04 腾讯科技(深圳)有限公司 消息展示方法、装置及终端
US20180342103A1 (en) * 2017-05-26 2018-11-29 Microsoft Technology Licensing, Llc Using tracking to simulate direct tablet interaction in mixed reality
CN110413109A (zh) * 2019-06-28 2019-11-05 广东虚拟现实科技有限公司 虚拟内容的生成方法、装置、系统、电子设备及存储介质
CN110298925A (zh) * 2019-07-04 2019-10-01 珠海金山网络游戏科技有限公司 一种增强现实图像处理方法、装置、计算设备及存储介质
CN110716647A (zh) * 2019-10-17 2020-01-21 广州大西洲科技有限公司 一种增强现实交互方法、装置及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021227918A1 (zh) * 2020-05-09 2021-11-18 维沃移动通信有限公司 交互方法和增强现实设备
WO2022075920A1 (en) * 2020-10-09 2022-04-14 Lemon Inc. Social networking using augmented reality
US11516618B2 (en) 2020-10-09 2022-11-29 Lemon Inc. Social networking using augmented reality
CN114385004A (zh) * 2021-12-15 2022-04-22 北京五八信息技术有限公司 基于增强现实的交互方法、装置、电子设备及可读介质
CN114489331A (zh) * 2021-12-31 2022-05-13 上海米学人工智能信息科技有限公司 区别于按钮点击的隔空手势交互方法、装置、设备和介质
CN115191788A (zh) * 2022-07-14 2022-10-18 慕思健康睡眠股份有限公司 一种基于智能床垫的体感互动方法及相关产品
CN116540872A (zh) * 2023-04-28 2023-08-04 中广电广播电影电视设计研究院有限公司 Vr数据处理方法、装置、设备、介质及产品
CN116540872B (zh) * 2023-04-28 2024-06-04 中广电广播电影电视设计研究院有限公司 Vr数据处理方法、装置、设备、介质及产品

Also Published As

Publication number Publication date
WO2021227918A1 (zh) 2021-11-18

Similar Documents

Publication Publication Date Title
CN111580661A (zh) 交互方法和增强现实设备
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN113965807B (zh) 消息推送方法、装置、终端、服务器及存储介质
CN111045511B (zh) 基于手势的操控方法及终端设备
US10701316B1 (en) Gesture-triggered overlay elements for video conferencing
CN104813642A (zh) 用于触发手势辨识模式以及经由非触摸手势的装置配对和共享的方法、设备和计算机可读媒体
CN108805766B (zh) 一种ar体感沉浸式教学系统和方法
CN111601064B (zh) 信息交互方法和信息交互装置
JP2023524119A (ja) 顔イメージ生成方法、装置、電子機器及び可読記憶媒体
CN109426343B (zh) 基于虚拟现实的协作训练方法及系统
US11042215B2 (en) Image processing method and apparatus, storage medium, and electronic device
CN112702533B (zh) 视线修正方法及视线修正装置
CN111541928A (zh) 直播显示方法、装置、设备及存储介质
CN110782532A (zh) 图像生成方法、生成装置、电子设备及存储介质
US20220291752A1 (en) Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control
CN112287767A (zh) 交互控制方法、装置、存储介质以及电子设备
CN113986111A (zh) 一种交互方法、装置、电子设备及存储介质
CN106330672B (zh) 一种即时通信方法及系统
CN111901518B (zh) 显示方法、装置和电子设备
CN111093033B (zh) 一种信息处理方法及设备
CN104618499B (zh) 一种信息处理方法及电子设备
CN111031555A (zh) 在线教学控制方法、装置、电子设备及介质
CN114327197B (zh) 消息发送方法、装置、设备及介质
CN113126756A (zh) 应用交互方法及装置
CN113096193A (zh) 三维体感操作的识别方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination