CN106155284A - 电子设备及信息处理方法 - Google Patents

电子设备及信息处理方法 Download PDF

Info

Publication number
CN106155284A
CN106155284A CN201510153492.2A CN201510153492A CN106155284A CN 106155284 A CN106155284 A CN 106155284A CN 201510153492 A CN201510153492 A CN 201510153492A CN 106155284 A CN106155284 A CN 106155284A
Authority
CN
China
Prior art keywords
operation body
unit
electronic device
behavior data
electronic equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510153492.2A
Other languages
English (en)
Other versions
CN106155284B (zh
Inventor
李铮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201510153492.2A priority Critical patent/CN106155284B/zh
Publication of CN106155284A publication Critical patent/CN106155284A/zh
Application granted granted Critical
Publication of CN106155284B publication Critical patent/CN106155284B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种第一电子设备及信息处理方法,第一电子设备可以与具有显示单元的第二电子设备进行交互,第一电子设备包括:第一固定单元、第二固定单元,目镜,第一检测单元和数据处理单元;其中,第一电子设备可以通过第一固定单元固定在第一操作体上;第二固定单元,将第二电子设备固定于第一电子设备;当第二电子设备固定于第一电子设备,且第一电子设备固定在第一操作体上时,目镜位于第一操作体和显示单元之间;第一检测单元用于采集第二操作体的操作行为数据;数据处理单元接收到第一检测单元发送的第二操作体的操作行为数据时,对第二操作体的操作行为数据进行处理,生成第一类交互指令。提高了用户操作的便捷性。

Description

电子设备及信息处理方法
技术领域
本发明涉及电子技术领域,更具体地说,涉及一种电子设备及信息处理方法。
背景技术
目前,用户在通过电子设备(如头戴式虚拟现实设备)进行体验时,需要将电子设备戴在头上,使得用户处于一种全封闭式的环境中。在进行体验的时候,经常需要跟电子设备中的内容进行实时交互。而由于用户处于一种全封闭的沉浸式环境中,手指无法直接接触电子设备中的显示屏幕,无法通过触屏来达到交互的目的。
目前普遍使用的交互方式是通过蓝牙手柄来实现交互。然而,由于用户处于全封闭的沉浸式环境中,因此,用户并不能看到手柄上的按钮,这给用户操作带来极大的不便,例如,用户不能及时触摸到正确的按钮等,用户体验较差。
因此,如何提高用户操作的便捷性成为亟待解决的问题。
发明内容
本发明的目的是提供一种第一电子设备及信息处理方法,以提高用户操作的便捷性。
为实现上述目的,本发明提供了如下技术方案:
一种第一电子设备,所述第一电子设备与一具有显示单元的第二电子设备进行交互,所述第一电子设备包括:第一固定单元,第二固定单元,目镜,第一检测单元和数据处理单元;其中,
所述第一电子设备可以通过所述第一固定单元固定在第一操作体上;
所述第二固定单元,将所述第二电子设备固定于所述第一电子设备;
当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述目镜位于所述第一操作体和所述显示单元之间;
所述第一检测单元用于采集第二操作体的操作行为数据;
所述数据处理单元与所述第一检测单元相连接,用于当接收到所述第一检测单元发送的所述第二操作体的操作行为数据时,对所述第二操作体的操作行为数据进行处理,生成第一类交互指令。
上述第一电子设备,优选的,所述第一检测单元为触控板,所述第一检测单元用于采集所述第二操作体在所述第一检测单元上进行触控操作时的触控参数。
上述第一电子设备,优选的,所述数据处理单元用于,在接收到所述第一检测单元发送的触控参数后,对所述触控参数进行处理,得到第一处理结果,所述第一处理结果用于表征所述第二操作体的触控行为;依据所述第一处理结果生成第一交互指令。
上述第一电子设备,优选的,所述检测单元为图像采集单元,所述检测单元用于采集所述第二操作体的图像。
上述第一电子设备,优选的,所述数据处理单元用于,在接收到所述检测单元发送的第二操作体的图像后,对所述第二操作体的图像进行处理,得到第二处理结果,所述第二处理结果用于表征所述第二操作体的操作行为;依据所述第二处理结果生成第二交互指令。
上述第一电子设备,优选的,所述数据处理单元还用于,
当接收到所述第一检测单元发送的第二操作体的操作行为数据时,生成预定图像,所述预定图像用于表征所述第二操作体在进行操作;通过所述显示单元显示所述预定图像。
上述第一电子设备,优选的,还包括:
第二检测单元,用于采集所述第一操作体的操作行为数据;
所述数据处理单元还用于,当接收到所述第二检测单元发送的所述第一操作体的操作行为数据时,对所述第一操作体的操作行为数据进行处理,生成第二类交互指令。
一种信息处理方法,应用于第一电子设备,所述方法包括:
通过第一检测单元采集第二操作体的操作行为数据;
将所述第二操作体的操作行为数据发送给数据处理单元;
所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令;
将所述交互指令发送给第二电子设备,以使所述第二电子设备依据所述第一类交互指令改变所述第二电子设备的显示单元显示的内容;
通过至少一个目镜将所述显示单元显示的内容显现;
其中,所述第一电子设备可以通过所述第一电子设备的第一固定单元固定在第一操作体上;所述第二电子设备可以通过所述第一电子设备的第二固定单元固定于所述第一电子设备;当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述至少一个目镜位于所述第一操作体和所述显示单元之间。
上述方法,优选的,所述通过第一检测单元采集第二操作体的操作行为数据包括:
通过触控板采集所述第二操作体在所述触控板上进行触控操作时的触控参数。
上述方法,优选的,所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令包括:
所述数据处理单元对所述触控参数进行处理,得到第一处理结果,所述第一处理结果用于表征所述第二操作体的触控行为;
依据所述第一处理结果生成第一交互指令。
上述方法,优选的,所述通过第一检测单元采集第二操作体的操作行为数据包括;
通过图像处理单元采集所述第二操作体的图像。
上述方法,优选的,所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令包括:
所述数据处理单元对所述第二操作体的图像进行处理,得到第二处理结果,所述第二处理结果用于表征所述第二操作体的操作行为;
依据所述第二处理结果生成第二交互指令。
上述方法,优选的,还包括:
所述数据处理单元接收到所述第二操作体的操作行为数据时,生成预定图像,所述预定图像用于表征所述第二操作体在进行操作;
通过所述显示单元显示所述预定图像。
上述方法,优选的,还包括:
通过第二检测单元采集所述第一操作体的操作行为数据;
将所述第一操作体的操作行为数据发送给所述数据处理单元;
所述数据处理单元对所述第一操作体的操作行为数据进行处理,生成第二类交互指令。
通过以上方案可知,本申请提供的一种第一电子设备及信息处理方法,第一电子设备可以与具有显示单元的第二电子设备进行交互,第一电子设备包括:第一固定单元、第二固定单元,目镜,第一检测单元和数据处理单元;其中,所述第一电子设备可以通过所述第一固定单元固定在第一操作体上;所述第二固定单元,将所述第二电子设备固定于所述第一电子设备;当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述目镜位于所述第一操作体和所述显示单元之间;所述第一检测单元用于采集第二操作体的操作行为数据;所述数据处理单元接收到所述第一检测单元发送的所述第二操作体的操作行为数据时,对所述第二操作体的操作行为数据进行处理,生成第一类交互指令。
可见,本发明实施例中,通过第一电子设备的第一检测单元对用户的操作行为进行检测,从而获得用户的操作行为数据,进而通过对用户的操作行为数据进行处理生成交互指令,以与第二电子设备进行交互,因此,本发明实施例中用户只要执行相应操作即可实现与第二电子设备的交互,提高了用户操作的便捷性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的信息处理方法的一种实现流程图;
图2为本申请实施例提供的信息处理方法的另一种实现流程图;
图3为本申请实施例提供的信息处理方法的又一种实现流程图;
图4为本申请实施例提供的用户通过双手指在触控板上滑实现交互的一种示例图;
图5为本申请实施例提供的用户通过双手指在触控板上滑实现交互的另一种示例图;
图6为本申请实施例提供的用户通过单手指在触控板上滑动实现交互的一种示例图。
说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的部分,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示的以外的顺序实施。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种第一电子设备,该第一电子设备可以与具有显示单元的第二电子设备进行交互。该第一电子设备可以包括:第一固定单元、第二固定单元、目镜、第一检测单元和数据处理单元;该第一电子设备可以设置至少一个目镜。
其中,该第一电子设备可以通过第一固定单元固定在第一操作体上,即第一固定单元可以将第一电子设备固定在第一操作体上。也就是说,第一电子设备为一可穿戴设备。
第二固定单元可以将第二电子设备固定于第一电子设备,当第二电子设备固定于该第一电子设备,且该第一电子设备固定在第一操作体上时,目镜位于第一操作体和第二电子设备的显示单元之间,也就是说,第二电子设备的显示内容可以通过目镜显现。例如,当用户将第一电子设备戴在头上,且第二电子设备固定于第一电子设备时,若目镜在用户的眼镜前方,则用户通过目镜可以看到第二电子设备的显示内容。
第一检测单元用于采集第二操作体的操作行为数据。
第一检测单元可以在预定的区域范围内对第二操作体的操作行为进行检测,从而获取第二操作体的操作行为数据。
可选的,第一检测单元可以是具有预定面积的可操作区域的第一检测单元,这样,第二操作体可以直接在第一检测单元上进行相应操作;或者,第一检测单元也可以是可以在距离第一检测单元的一定距离范围内采集第二操作体的操作行为数据的第一检测单元,这样,第二操作体可以在距离第一检测单元的一定距离范围内进行相应操作。
第一检测单元将采集到的操作行为数据发送给数据处理单元。
数据处理单元与第一检测单元相连接,用于当接收到第一检测单元发送的第二操作体的操作行为数据时,对所述第二操作体的操作行为数据进行处理,生成第一类交互指令。该第一类交互指令用于使第二电子设备依据该第一类交互指令改变第二电子设备的显示单元显示的内容。
数据处理单元将第一类交互指令发送给第二电子设备,第二电子设备接收到第一类交互指令后,根据第一类交互指令改变第二电子设备的显示单元显示的内容,实现交互。
本发明实施例提供的一种第一电子设备,可以与具有显示单元的第二电子设备进行交互,第一电子设备包括:第一固定单元、第二固定单元,目镜,第一检测单元和数据处理单元;其中,第一电子设备可以通过第一固定单元固定在第一操作体上;第二固定单元,将第二电子设备固定于第一电子设备;当第二电子设备固定于第一电子设备,且第一电子设备固定在第一操作体上时,目镜位于第一操作体和显示单元之间;第一检测单元用于采集第二操作体的操作行为数据;数据处理单元接收到第一检测单元发送的第二操作体的操作行为数据时,对第二操作体的操作行为数据进行处理,生成第一类交互指令。
可见,本发明实施例中,通过第一电子设备的第一检测单元对用户的操作行为进行检测,从而获得用户的操作行为数据,进而通过对用户的操作行为数据进行处理生成交互指令,以与第二电子设备进行交互,因此,通过本发明实施例提供的第一电子设备,用户只要执行相应操作即可实现与第二电子设备的交互,提高了用户操作的便捷性。
可选的,第一检测单元可以为触控板,该第一检测单元用于采集第二操作体在第一检测单元上进行触控操作时的触控参数。
触控参数可以包括:触控点的个数、触控时长、触控点的坐标等。
触控板采集到触控参数后,将触控参数发送给数据处理单元。
数据处理单元在接收到触控板发送的触控参数后,对所述触控参数进行处理,得到第一处理结果,所述第一处理结果用于表征所述第二操作体的触控行为;依据所述第一处理结果生成第一交互指令。不同的第一处理结果对应不同的第一交互指令。
例如,假设用户通过手指在触控板进行操作,触控行为可以为:单手指长按所述触控板,或者,单手指在触控板上水平向右移动,或者,双手指在触控板上垂直向下移动等等。当然,本发明实施例中,在触控板上的操作行为并不仅限于上述几种,在触控板上,用户还可以进行其他操作,如,单手指单击所述触控板,或者,单手指在触控板上垂直向上移动,或者,双手指在触控板上水平向左移动等等。
可选的,第一检测单元也可以为图像采集单元,如摄像头等。该第一检测单元用于采集第二操作体的图像。
第二操作体位于图像采集单元的可见范围内时,图像采集单元可以采集到第二操作体的图像。
图像采集单元将采集到的图像发送给数据处理单元。
数据处理单元在接收到图像采集单元发送的第二操作体的图像后,对第二操作体的图像进行处理,得到第二处理结果,所述第二处理结果用于表征所述第二操作体的操作行为;依据所述第二处理结果生成第二交互指令。不同的第二处理结果对应不同的第二交互指令。
可以通过对连续采集的若干帧第二操作体的图像分析(如,特征提取,特征识别等)可以确定第二操作体的状态或形态发生了哪些变化,从而确定第二操作体执行了哪些操作。
如,如果第二操作体为用户的手,则第二操作体可以在摄像头的可见范围内进行手势变换,数据处理单元通过图像处理可以识别用户的手势,从而根据不同的手势生成不同的第二交互指令。
可选的,为了提高操作的准确性,本发明实施例中,数据处理单元还可以用于,
当接收到所述第一检测单元发送的第二操作体的操作行为数据时,生成预定图像,所述预定图像用于表征所述第二操作体在进行操作;通过所述显示单元显示所述预定图像。
本发明实施例中,当数据处理单元接收到第一检测单元发送的第二操作体的操作行为数据时,说明第二操作体在有效的空间范围内,此时生成预定图像,并将该预定图像在第二电子设备的显示单元显示,以提示用户可以继续执行相应操作。
本发明实施例中,当用户想要通过第二操作体进行操作时,若第二电子设备的显示单元未显示所述预定图像,说明第二操作体未在有效的空间范围内,此时,用户可以改变第二操作体的位置以移动到有效的空间范围内进行操作,避免用户在无效的空间范围内进行操作无法实现交互的问题。
可选的,本发明实施例提供的第一电子设备还可以包括:
第二检测单元,用于采集所述第一操作体的操作行为数据;
该第二检测单元可以为:重力传感器、位移传感器、角度传感器等,或者它们的任意组合。
第二检测单元将采集到的第一操作体的操作行为数据发送给数据处理单元。
数据处理单元在接收到第二检测单元发送的所述第一操作体的操作行为数据时,对第一操作体的操作行为数据进行处理,生成第二类交互指令。所述第二类交互指令用于使所述第二电子设备依据所述第二类交互指令改变第二电子设备的显示单元显示的内容,实现交互。
本发明实施例中,除了可以检测第二操作体的操作行为实现交互外,还可以通过检测第一操作体的操作行为实现交互。
与第一电子设备的实施例相对应,本申请还提供一种信息处理方法,本发明实施例提供的信息处理方法应用于第一电子设备,本发明实施例提供的信息处理方法的一种实现流程图如图1所示,可以包括:
步骤S11:通过第一检测单元采集第二操作体的操作行为数据;
本发明实施例中第一电子设备具有第一检测单元,第一检测单元可以是具有预定面积的可操作区域的第一检测单元,这样,第二操作体可以直接在第一检测单元上进行相应操作;或者,第一检测单元也可以是可以在距离第一检测单元的一定距离范围内采集第二操作体的操作行为数据的第一检测单元,这样,第二操作体可以在距离第一检测单元的一定距离范围内进行相应操作。
步骤S12:将所述第二操作体的操作行为数据发送给数据处理单元;
第一检测单元将采集到的操作行为数据发送给第一电子设备的数据处理单元。
步骤S13:所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令;
步骤S14:将所述交互指令发送给第二电子设备,以使所述第二电子设备依据所述第一类交互指令改变所述第二电子设备的显示单元显示的内容;
通过至少一个目镜将所述显示单元显示的内容显现;
其中,所述第一电子设备可以通过所述第一电子设备的第一固定单元固定在第一操作体上;所述第二电子设备可以通过所述第一电子设备的第二固定单元固定于所述第一电子设备;当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述至少一个目镜位于所述第一操作体和所述显示单元之间。
当用户将第一电子设备戴在头上,且第二电子设备固定于第一电子设备时,若目镜在用户的眼镜前方,则用户通过目镜可以看到第二电子设备的显示内容。
本发明实施例提供的一种信息处理方法,通过第一检测单元采集第二操作体的操作行为数据;将所述第二操作体的操作行为数据发送给数据处理单元;所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令;将所述交互指令发送给第二电子设备,以使所述第二电子设备依据所述第一类交互指令改变所述第二电子设备的显示单元显示的内容;通过至少一个目镜将所述显示单元显示的内容显现;其中,所述第一电子设备可以通过所述第一电子设备的第一固定单元固定在第一操作体上;所述第二电子设备可以通过所述第一电子设备的第二固定单元固定于所述第一电子设备;当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述至少一个目镜位于所述第一操作体和所述显示单元之间。
可见,本发明实施例中,通过第一电子设备的第一检测单元对用户的操作行为进行检测,从而获得用户的操作行为数据,进而通过对用户的操作行为数据进行处理生成交互指令,以与第二电子设备进行交互,因此,通过本发明实施例提供的信息处理方法,用户只要执行相应操作即可实现与第二电子设备的交互,提高了用户操作的便捷性。
可选的,所述通过第一检测单元采集第二操作体的操作行为数据可以包括:
通过触控板采集所述第二操作体在所述触控板上进行触控操作时的触控参数。
触控参数可以包括:触控点的个数、触控时长、触控点的坐标等。
触控板采集到触控参数后,将触控参数发送给数据处理单元。
数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令可以包括:
所述数据处理单元对所述触控参数进行处理,得到第一处理结果,所述第一处理结果用于表征所述第二操作体的触控行为;依据所述第一处理结果生成第一交互指令。不同的第一处理结果对应不同的第一交互指令。
例如,假设用户通过手指在触控板进行操作,触控行为可以包括:单手指长按所述触控板,或者,单手指在触控板上水平向右移动,或者,双手指在触控板上垂直向下移动等等。当然,本发明实施例中,在触控板上的操作行为并不仅限于上述几种,在触控板上,用户还可以进行其他操作,如,单手指单击所述触控板,或者,单手指在触控板上垂直向上移动,或者,双手指在触控板上水平向左移动等等。
可选的,通过第一检测单元采集第二操作体的操作行为数据可以包括;
通过图像处理单元采集所述第二操作体的图像。
第二操作体位于图像采集单元的可见范围内时,图像采集单元可以采集到第二操作体的图像。
数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令可以包括:
所述数据处理单元对所述第二操作体的图像进行处理,得到第二处理结果,所述第二处理结果用于表征所述第二操作体的操作行为;依据所述第二处理结果生成第二交互指令。不同的第二处理结果对应不同的第二交互指令。
可以通过对连续采集的若干帧第二操作体的图像分析(如,特征提取,特征识别等)可以确定第二操作体的状态或形态发生了哪些变化,从而确定第二操作体执行了哪些操作。
如,如果第二操作体为用户的手,则第二操作体可以在摄像头的可见范围内进行手势变换,数据处理单元通过图像处理可以识别用户的手势,从而根据不同的手势生成不同的第二交互指令。
可选的,为了提高操作的准确性,本发名实施例提供的信息处理方法的另一种实现流程图如图2所示,还可以包括:
步骤S21:所述数据处理单元接收到所述第二操作体的操作行为数据时,生成预定图像,所述预定图像用于表征所述第二操作体在进行操作;
步骤S22:通过所述显示单元显示所述预定图像。
本发明实施例中,当数据处理单元接收到第一检测单元发送的第二操作体的操作行为数据时,说明第二操作体在有效的空间范围内,此时生成预定图像,并将该预定图像在第二电子设备的显示单元显示,以提示用户可以继续执行相应操作。
本发明实施例中,当用户想要通过第二操作体进行操作时,若第二电子设备的显示单元未显示所述预定图像,说明第二操作体未在有效的空间范围内,此时,用户可以改变第二操作体的位置以移动到有效的空间范围内进行操作,避免用户在无效的空间范围内进行操作无法实现交互的问题。
可选的,本发明实施例提供的信息处理方法的又一种实现流程图如图3所示,还可以包括:
步骤S31:通过第二检测单元采集所述第一操作体的操作行为数据;
第一电子设备还具有第二检测单元,该第二检测单元可以为:重力传感器、位移传感器、角度传感器等,或者他们的任意组合。
步骤S32:将所述第一操作体的操作行为数据发送给所述数据处理单元;
步骤S33:所述数据处理单元对所述第一操作体的操作行为数据进行处理,生成第二类交互指令。所述第二类交互指令用于使所述第二电子设备依据所述第二类交互指令改变第二电子设备的显示单元显示的内容,实现交互。
本发明实施例中,除了可以检测第二操作体的操作行为实现交互外,还可以通过检测第一操作体的操作行为实现交互。
下面对本申请提供的第一电子设备的一种具体应用场景进行说明,本应用场景中,第一电子设备为头戴式虚拟现实设备,第一检测单元为触控板,位于第一电子设备的第二固定单元上。如图4-图6所示,图4为本发明实施例提供的用户通过双手指在触控板上滑实现交互的一种示例图;图5为本发明实施例提供的用户通过双手指在触控板上滑实现交互的另一种示例图;图6为本发明实施例提供的用户通过单手指在触控板上滑动实现交互的一种示例图,图6中四个箭头说明用户可以在触控板上向箭头所指的四个方向中的任意一个方向移动。需要说明的是,当用户用双手指在触控板上滑动时,也是可以向上述四个箭头所指的方向滑动的。
其中,第一固定单元41将第一电子设备固定在用户头上,第二固定单元42将第二电子设备43固定于第一电子设备,第二电子设备43的显示屏朝向用户的眼睛,触控板44设置在第二固定单元42上以供用户触控。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (14)

1.一种第一电子设备,所述第一电子设备与一具有显示单元的第二电子设备进行交互,其特征在于,所述第一电子设备包括:第一固定单元,第二固定单元,目镜,第一检测单元和数据处理单元;其中,
所述第一电子设备可以通过所述第一固定单元固定在第一操作体上;
所述第二固定单元,将所述第二电子设备固定于所述第一电子设备;
当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述目镜位于所述第一操作体和所述显示单元之间;
所述第一检测单元用于采集第二操作体的操作行为数据;
所述数据处理单元与所述第一检测单元相连接,用于当接收到所述第一检测单元发送的所述第二操作体的操作行为数据时,对所述第二操作体的操作行为数据进行处理,生成第一类交互指令。
2.根据权利要求1所述的第一电子设备,其特征在于,所述第一检测单元为触控板,所述第一检测单元用于采集所述第二操作体在所述第一检测单元上进行触控操作时的触控参数。
3.根据权利要求2所述的第一电子设备,其特征在于,所述数据处理单元用于,在接收到所述第一检测单元发送的触控参数后,对所述触控参数进行处理,得到第一处理结果,所述第一处理结果用于表征所述第二操作体的触控行为;依据所述第一处理结果生成第一交互指令。
4.根据权利要求1所述的第一电子设备,其特征在于,所述检测单元为图像采集单元,所述检测单元用于采集所述第二操作体的图像。
5.根据权利要求4所述的第一电子设备,其特征在于,所述数据处理单元用于,在接收到所述检测单元发送的第二操作体的图像后,对所述第二操作体的图像进行处理,得到第二处理结果,所述第二处理结果用于表征所述第二操作体的操作行为;依据所述第二处理结果生成第二交互指令。
6.根据权利要求1所述的第一电子设备,其特征在于,所述数据处理单元还用于,
当接收到所述第一检测单元发送的第二操作体的操作行为数据时,生成预定图像,所述预定图像用于表征所述第二操作体在进行操作;通过所述显示单元显示所述预定图像。
7.根据权利要求1所述的第一电子设备,其特征在于,还包括:
第二检测单元,用于采集所述第一操作体的操作行为数据;
所述数据处理单元还用于,当接收到所述第二检测单元发送的所述第一操作体的操作行为数据时,对所述第一操作体的操作行为数据进行处理,生成第二类交互指令。
8.一种信息处理方法,应用于第一电子设备,其特征在于,所述方法包括:
通过第一检测单元采集第二操作体的操作行为数据;
将所述第二操作体的操作行为数据发送给数据处理单元;
所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令;
将所述交互指令发送给第二电子设备,以使所述第二电子设备依据所述第一类交互指令改变所述第二电子设备的显示单元显示的内容;
通过至少一个目镜将所述显示单元显示的内容显现;
其中,所述第一电子设备可以通过所述第一电子设备的第一固定单元固定在第一操作体上;所述第二电子设备可以通过所述第一电子设备的第二固定单元固定于所述第一电子设备;当所述第二电子设备固定于所述第一电子设备,且所述第一电子设备固定在所述第一操作体上时,所述至少一个目镜位于所述第一操作体和所述显示单元之间。
9.根据权利要求8所述的方法,其特征在于,所述通过第一检测单元采集第二操作体的操作行为数据包括:
通过触控板采集所述第二操作体在所述触控板上进行触控操作时的触控参数。
10.根据权利要求9所述的方法,其特征在于,所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令包括:
所述数据处理单元对所述触控参数进行处理,得到第一处理结果,所述第一处理结果用于表征所述第二操作体的触控行为;
依据所述第一处理结果生成第一交互指令。
11.根据权利要求8所述的方法,其特征在于,所述通过第一检测单元采集第二操作体的操作行为数据包括;
通过图像处理单元采集所述第二操作体的图像。
12.根据权利要求11所述的方法,其特征在于,所述数据处理单元对所述第二操作体的操作行为数据进行处理,生成第一类交互指令包括:
所述数据处理单元对所述第二操作体的图像进行处理,得到第二处理结果,所述第二处理结果用于表征所述第二操作体的操作行为;
依据所述第二处理结果生成第二交互指令。
13.根据权利要求8所述的方法,其特征在于,还包括:
所述数据处理单元接收到所述第二操作体的操作行为数据时,生成预定图像,所述预定图像用于表征所述第二操作体在进行操作;
通过所述显示单元显示所述预定图像。
14.根据权利要求8所述的方法,其特征在于,还包括:
通过第二检测单元采集所述第一操作体的操作行为数据;
将所述第一操作体的操作行为数据发送给所述数据处理单元;
所述数据处理单元对所述第一操作体的操作行为数据进行处理,生成第二类交互指令。
CN201510153492.2A 2015-04-02 2015-04-02 电子设备及信息处理方法 Active CN106155284B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510153492.2A CN106155284B (zh) 2015-04-02 2015-04-02 电子设备及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510153492.2A CN106155284B (zh) 2015-04-02 2015-04-02 电子设备及信息处理方法

Publications (2)

Publication Number Publication Date
CN106155284A true CN106155284A (zh) 2016-11-23
CN106155284B CN106155284B (zh) 2019-03-08

Family

ID=57338396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510153492.2A Active CN106155284B (zh) 2015-04-02 2015-04-02 电子设备及信息处理方法

Country Status (1)

Country Link
CN (1) CN106155284B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107179876A (zh) * 2017-06-30 2017-09-19 吴少乔 基于虚拟现实系统的人机交互装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100245754A1 (en) * 2009-03-30 2010-09-30 Brother Kogyo Kabushiki Kaisha Head mounted display device
CN102779000A (zh) * 2012-05-03 2012-11-14 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN203405631U (zh) * 2013-07-10 2014-01-22 北京小米科技有限责任公司 一种头戴式显示支架
CN103914128A (zh) * 2012-12-31 2014-07-09 联想(北京)有限公司 头戴式电子设备和输入方法
CN204154982U (zh) * 2014-03-19 2015-02-11 赵山山 一种在大屏幕手机上使用的头戴式3d眼镜架子
CN204188882U (zh) * 2014-07-24 2015-03-04 张寿兰 可携式虚拟现实眼镜

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100245754A1 (en) * 2009-03-30 2010-09-30 Brother Kogyo Kabushiki Kaisha Head mounted display device
CN102779000A (zh) * 2012-05-03 2012-11-14 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103914128A (zh) * 2012-12-31 2014-07-09 联想(北京)有限公司 头戴式电子设备和输入方法
CN203405631U (zh) * 2013-07-10 2014-01-22 北京小米科技有限责任公司 一种头戴式显示支架
CN204154982U (zh) * 2014-03-19 2015-02-11 赵山山 一种在大屏幕手机上使用的头戴式3d眼镜架子
CN204188882U (zh) * 2014-07-24 2015-03-04 张寿兰 可携式虚拟现实眼镜

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107179876A (zh) * 2017-06-30 2017-09-19 吴少乔 基于虚拟现实系统的人机交互装置
CN107179876B (zh) * 2017-06-30 2023-08-25 吴少乔 基于虚拟现实系统的人机交互装置

Also Published As

Publication number Publication date
CN106155284B (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
US11023038B2 (en) Line of sight detection adjustment unit and control method
US9075462B2 (en) Finger-specific input on touchscreen devices
CN102662462B (zh) 电子装置、手势识别方法及手势应用方法
EP2863297A1 (en) Terminal and interface operation management method
KR20120096849A (ko) 제스쳐를 이용한 입력 장치 및 방법
CN109155821A (zh) 相机的可移动用户界面快门按钮
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
US9779552B2 (en) Information processing method and apparatus thereof
KR20150032019A (ko) 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치
US10620748B2 (en) Method and device for providing a touch-based user interface
US20130229368A1 (en) Method for displaying scale for enlargement and reduction operation, and device therefor
CN107179876B (zh) 基于虚拟现实系统的人机交互装置
JP2012003690A (ja) ユーザインタフェース装置
CN104866103B (zh) 一种相对位置确定方法、穿戴式电子设备及终端设备
US20190156118A1 (en) Information processing apparatus, control method, and program
EP3435207B1 (en) Information processing device and display method
KR20140069660A (ko) 이미지 중첩 기반의 사용자 인터페이스 장치 및 방법
KR101370027B1 (ko) 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법
CN106155284B (zh) 电子设备及信息处理方法
WO2015040608A1 (en) A peripheral electronic device and method for using same
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
KR102325684B1 (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법
WO2019039065A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2012114791A1 (ja) ジェスチャー操作システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant