CN111443796A - 一种信息处理方法及装置 - Google Patents
一种信息处理方法及装置 Download PDFInfo
- Publication number
- CN111443796A CN111443796A CN202010163754.4A CN202010163754A CN111443796A CN 111443796 A CN111443796 A CN 111443796A CN 202010163754 A CN202010163754 A CN 202010163754A CN 111443796 A CN111443796 A CN 111443796A
- Authority
- CN
- China
- Prior art keywords
- glasses
- target interface
- keyboard
- user
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种信息处理方法及装置。在本申请中,建立AR眼镜与电子设备的数据连接;在用户视线位于电子设备的键盘的预设区域的情况下,获取键盘显示在AR眼镜空间中的第一位置;在电子设备显示目标界面的情况下,显示目标界面在AR眼镜空间中的第二位置。通过本申请,用户在一个视野中既可以看到键盘又可以看到目标界面,以避免用户的视线在键盘与目标界面之间频繁切换,从而可以提高用户基于键盘以及目标界面输入内容的效率。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及一种信息处理方法及装置。
背景技术
用户在使用台式电脑的过程中,往往需要基于输入法在台式电脑输入文字,在基于输入法在台式电脑输入文字时,往往需要使用到物理键盘以及需要在台式电脑的屏幕上显示输入法界面。
然而,通常情况下,台式电脑的屏幕与物理键盘之间距离较远,导致用户的视野中无法同时包括物理键盘与在台式电脑的屏幕上显示的输入法界面,这样就会导致用户在能看到物理键盘的时候无法看到在台式电脑的屏幕上显示的输入法界面,用户在能看到在台式电脑的屏幕上显示的输入法界面时却无法看到物理键盘。
这样,在用户打字不熟练时,用户往往需要将视线在物理键盘与在台式电脑的屏幕上显示的输入法界面之间来回切换,从而会降低输入文字的效率。
发明内容
为了提高输入内容的效率,本申请示出了一种信息处理方法及装置。
第一方面,本申请示出了一种信息处理方法,应用于增强现实AR眼镜,所述方法包括:
建立AR眼镜与电子设备的数据连接;
其中,所述电子设备包括键盘;
在用户视线位于所述键盘的预设区域的情况下,获取所述键盘显示在所述AR眼镜空间中的第一位置;
在所述电子设备显示目标界面的情况下,显示所述目标界面在所述AR眼镜空间中的第二位置。
在一个可选的实现方式中,在所述显示所述目标界面在所述AR眼镜空间中的第二位置之后,所述方法还包括:
获取用户的视线信息;
根据所述视线信息确定所述AR眼镜空间中的第三位置,在所述第三位置显示所述目标界面。
在一个可选的实现方式中,在所述显示所述目标界面在所述AR眼镜空间中的第二位置之后,所述方法还包括:
在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,调整所述目标界面在重叠部分的透明度或在所述AR眼镜空间中缩小显示所述目标界面。
在一个可选的实现方式中,在所述显示所述目标界面在所述AR眼镜空间中的第二位置之后,所述方法还包括:
所述电子设备在后台运行所述目标界面对应的应用程序。
在一个可选的实现方式中,在所述电子设备在后台运行所述目标界面对应的应用程序之后,所述方法还包括:
在所述AR眼镜取消显示所述目标界面的情况下,所述电子设备显示所述目标界面。
第二方面,本申请示出了一种信息处理装置,应用于增强现实AR眼镜,所述装置包括:
建立模块,用于建立AR眼镜与电子设备的数据连接;
其中,所述电子设备包括键盘;
第一获取模块,用于在用户视线位于所述键盘的预设区域的情况下,获取所述键盘显示在所述AR眼镜空间中的第一位置;
第一显示模块,用于在所述电子设备显示目标界面的情况下,显示所述目标界面在所述AR眼镜空间中的第二位置。
在一个可选的实现方式中,在所述装置还包括:
第二获取模块,用于获取用户的视线信息;
第二显示模块,用于根据所述视线信息确定所述AR眼镜空间中的第三位置,在所述第三位置显示所述目标界面。
在一个可选的实现方式中,所述装置还包括:
调整模块,用于在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,调整所述目标界面在重叠部分的透明度;或,
用于在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,在所述AR眼镜空间中缩小显示所述目标界面。
在一个可选的实现方式中,所述装置还包括:
运行模块,用于在后台运行所述目标界面对应的应用程序。
在一个可选的实现方式中,在所述电子设备在后台运行所述目标界面对应的应用程序之后,所述装置还包括:
第三显示模块,用于在所述AR眼镜取消显示所述目标界面的情况下,显示所述目标界面。
第三方面,本发明示出了一种AR眼镜,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面所述的信息处理方法的步骤。
第四方面,本发明示出了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的信息处理方法的步骤。
在本申请中,建立AR眼镜与电子设备的数据连接;在用户视线位于电子设备的键盘的预设区域的情况下,获取键盘显示在AR眼镜空间中的第一位置;在电子设备显示目标界面的情况下,显示目标界面在AR眼镜空间中的第二位置。通过本申请,用户在一个视野中既可以看到键盘又可以看到目标界面,以避免用户的视线在键盘与目标界面之间频繁切换,从而可以提高用户基于键盘以及目标界面输入内容的效率。
附图说明
图1是本申请示出的一种信息处理系统的结构框图。
图2是本申请示出的一种信息处理方法的步骤流程图。
图3是本申请示出的一种AR眼镜的显示界面的示意图。
图4是本申请示出的一种AR眼镜的显示界面的示意图。
图5是本申请示出的一种AR眼镜的显示界面的示意图。
图6是本申请示出的一种信息处理装置的结构框图。
图7是本申请示出的一种AR眼镜的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,示出了本发明一种信息处理系统的结构框图,该系统过包括:电子设备01以及AR(Augmented Reality,增强现实)眼镜02。
电子设备01与AR眼镜02通信连接。
电子设备01包括台式电脑、笔记本电脑、手机以及平板电脑等。
电子设备01具有显示界面,AR眼镜02具有显示界面,电子设备01可以将在电子设备01的显示界面上显示的内容分享给AR眼镜02,以使AR眼镜02能够在AR眼镜02的显示界面上显示电子设备01分享的内容。
在本申请中,电子设备01和AR眼镜02均可实现触控检测,因此可将AR眼镜02的触控事件传回到电子设备01,在电子设备01根据触控事件产生对应的行为逻辑,达到AR眼镜02控制分享中应用的目的。
在本申请中,电子设备01将在电子设备01的显示界面上显示的内容分享给AR眼镜02的过程中,需要以应用程序为单位分享,也即,分享的是应用程序的界面等。
例如,在分享某一应用程序的界面之前,需要在电子设备01中安装该应用,以及在AR眼镜02上安装该应用程序,电子设备01与AR眼镜02都可以连接到本地局域网,以打通电子设备01与AR眼镜02之间的链路,应用程序作为电子设备01与AR眼镜02的通信接口,如此电子设备01与AR眼镜02基于通信接口可以相互分享内容。以应用程序作为通信接口且一应用程序为分享单位也便于电子设备01对分享内容进行权限控制和隐私保护等。
其中,可以分享应用程序内的音频、视频以及触控操作等功能。在分享时可以是即时分享,也即实时分享,分享的内容双方同时可见,进度同步。
电子设备01与AR眼镜02可以同时享有对应用程序的控制权,达到协作使用。
AR眼镜02也可以为多个,电子设备01可以同时将同一内容分享给不同的AR眼镜02,也可以同时将不同的内容分别分享给不同的AR眼镜02。
在一个可选的方式中,AR眼镜02也可以安装一个分享应用程序即可。
电子设备01可以通过不同的应用程序向AR眼镜02安装的分享应用程序发送分享内容,实现跨应用的分享。
参照图2,示出了本发明一种信息处理方法的步骤流程图,该方法应用于图1所示的AR眼镜02中,该方法包括:
在步骤S101中,建立AR眼镜与电子设备的数据连接;
其中,电子设备包括键盘。
在佩戴AR眼镜的用户在基于电子设备的键盘基于目标界面向电子设备输入内容的情况下,可以建立AR眼镜与电子设备的数据连接。其中,目标界面包括输入法界面。
例如,当用户需要基于电子设备的键盘在电子设备中输入内容时,用户可以佩戴AR眼镜,然后在键盘上触控按键时用户可以看着键盘,例如,AR眼镜可以拍摄用户看到的视野的图像,并将拍摄到的图像显示在AR眼镜空间中,由于用户的视野内包括键盘,因此,AR眼镜空间中显示有键盘。
为了提高用户输入内容的效率,AR眼镜可以检测佩戴AR眼镜的用户是否在基于电子设备的键盘在电子设备中输入内容。
在一个可选的实施例中,当用户需要基于电子设备的键盘在电子设备中输入内容时,用户往往需要触控键盘,例如,按压键盘中的按键等。
因此,电子设备可以检测用户是否正在触控键盘,如果用户正在触控键盘,则往往说明用户在基于键盘向电子设备输入内容,如此,电子设备可以生成提示信息,指示信息用于指示用户在触控键盘,然后向AR眼镜发送该提示信息,AR眼镜接收该提示信息,该指示信息是在电子设备在检测到用户触控键盘之后生成的;然后可以根据该指示信息确定用户在基于键盘向电子设备输入内容。
在另一个可选的实施例中,当用户需要基于电子设备的键盘向电子设备输入内容时,用户往往需要看着键盘,例如一边看着键盘一边触控键盘。这样,在用户佩戴AR眼镜的情况下,用户的视线方向与AR眼镜的视线方向往往一致。
因此,可以检测AR眼镜的视野中是否包括所述键盘;在AR眼镜的视野中包括键盘的情况下,确定用户在基于键盘以及输入法向电子设备输入内容。
在步骤S102中,在用户视线位于电子设备的键盘的预设区域的情况下,获取键盘显示在AR眼镜空间中的第一位置;
由于用户佩戴AR眼镜,则用户的视线方向与AR眼镜所朝向的方向是一致的,因此,在用户视线位于电子设备的键盘的预设区域的情况下则AR眼镜所朝向的方向也位于电子设备的键盘的预设区域,如此,AR眼镜会在AR眼镜空间中显示键盘,为了能够在AR眼镜空间中同时显示键盘与目标界面,以避免用户的视线在键盘与电子设备的屏幕上显示的目标界面之间来回切换,可以获取键盘显示在AR眼镜空间中的第一位置,然后执行步骤S103。
在步骤S103中,在电子设备显示目标界面的情况下,显示目标界面在AR眼镜空间中的第二位置。
在一个实施例中,为了用户在一个视野中既可以看到键盘又可以看到目标界面,以避免用户的视线在键盘与电子设备的屏幕上显示的目标界面之间频繁切换,可以显示目标界面在AR眼镜空间中的第二位置。第一位置与第二位置不同,如此,使得用户可以在AR眼镜空间中可以同时看到键盘以及目标界面。以避免用户的视线在输入键盘与输入法界面之间频繁切换。
在一个例子中,在图3中,键盘为物理键盘,键盘位于目标界面下侧。在图4中,键盘为物理键盘,键盘位于目标界面上侧。在图5中,键盘为虚拟键盘,例如为手机的显示界面中的虚拟键盘等,目标键盘位于目标界面上侧。
在本申请中,建立AR眼镜与电子设备的数据连接;在用户视线位于电子设备的键盘的预设区域的情况下,获取键盘显示在AR眼镜空间中的第一位置;在电子设备显示目标界面的情况下,显示目标界面在AR眼镜空间中的第二位置。通过本申请,用户在一个视野中既可以看到键盘又可以看到目标界面,以避免用户的视线在键盘与目标界面之间频繁切换,从而可以提高用户基于键盘以及目标界面输入内容的效率。
在本申请另一实施例中,在AR眼镜的显示界面上同时显示键盘以及目标界面之后,就可以方便用户基于键盘和目标界面向电子设备输入内容,并在输入完毕之后,用户往往不需要继续看着键盘,例如,用户的视线可能会移动至电子设备的显示界面上,这样,用户则不再具有向电子设备输入内容的需求,因此,没有必要继续在AR眼镜的显示界面上显示了目标界面,否则会影响用户浏览显示界面中的其他内容,进而降低用户体验。
因此,为了避免降低用户体验,在用户的视线离开键盘的情况下,在AR眼镜空间中至少隐藏目标界面。
在本申请中,在AR眼镜空间同时显示键盘以及目标界面之后,就可以方便用户基于键盘和目标界面向电子设备输入内容,然而,在用户输入内容的过程中,在用户已经输入了部分内容的情况下,可能中途会由于其他事情影响而中断输入,之后还需要重新输入已经输入过的内容。
因此,为了满足用户的这种实际需求,在本申请另一实施例中,AR眼镜可以获取获取用户的视线信息;根据该视线信息确定AR眼镜空间中的第三位置,在第三位置显示目标界面。
在一个例子中,获取用户的两个眼睛中的第一眼睛的视线,然后根据第一眼睛的视线保存基于键盘已在目标界面中输入的内容。
其中,可以在AR眼镜本地保存基于键盘已在目标界面中输入的内容,也可以将基于键盘已在目标界面中输入的内容发送给电子设备,以使电子设备保存基于键盘已在目标界面中输入的内容。
之后,在需要恢复输入内容的情况下,AR眼镜可以获取用户的两个眼睛中的第二眼睛的视线;根据第二眼睛的视线在AR眼镜的显示界面上显示目标界面,并在目标界面中显示保存的内容。以使用户可以在保存的内容上继续输入内容,避免用户重新输入这些内容,从而简化用户操作,提高用户体验。
或者,在一个实施例中,在显示目标界面在AR眼镜空间中的第二位置之后,如果用户觉得显示目标界面的第二位置不合适,用户在AR眼镜空间中的第二位置查看目标界面的视觉效果不好,则用户可以控制AR眼镜移动在AR眼镜空间中显示目标界面的位置。
例如,为了使得用户更加便捷地控制AR眼镜移动在AR眼镜空间中显示目标界面的位置,用户可以改变自己的视线,例如,用户将视线移动至AR眼镜空间中的第三位置,AR眼镜可以获取获取用户的视线信息;根据该视线信息确定AR眼镜空间中的第三位置,在第三位置显示目标界面。
在本申请一个实施例中,有时候目标界面在AR眼镜空间中所占面积较大,导致在显示目标界面在AR眼镜空间中的第二位置之后,目标界面在AR眼镜空间中会遮挡键盘,进而导致键盘在AR眼镜空间中无法显示全,用户也无法完整地看到键盘。如此,为了用户能够完整地看到键盘,电子设备可以在AR眼镜空间中缩小显示目标界面。
或者,在另一个实施例中,可以调整目标界面在重叠部分的透明度,例如,提高目标界面在重叠部分的透明度,以使目标界面更加透明,进而用户可以完整地看到键盘。
在本申请另一实施例中,在显示目标界面在AR眼镜空间中的第二位置之后,用户在AR眼镜的显示界面上可以同时看到键盘与目标界面,因此,也就可以不继续在电子设备的显示界面上继续显示目标界面,
例如,电子设备在后台运行目标界面对应的应用程序,从而就不会在电子设备的显示界面上继续显示目标界面。以使地电子设备可以在显示目标界面的区域显示其他内容,以提高电子设备的显示界面的利用率。
在电子设备在后台运行目标界面对应的应用程序之后,用户可能不需要佩戴着AR眼镜基于键盘输入内容,而需要脱离AR眼镜后基于键盘输入内容,如此,然而,用户在基于键盘输入内容时需要借助目标界面,由于之前电子设备已经隐藏目标界面,因此,在本申请中,为了使得用户在基于键盘输入内容时能够借助目标界面,在AR眼镜取消显示目标界面的情况下,电子设备可以显示目标界面。
参照图6,示出了本申请的一种信息处理装置的结构框图,该装置具体可以包括如下模块:
建立模块11,用于建立AR眼镜与电子设备的数据连接;
其中,所述电子设备包括键盘;
第一获取模块12,用于在用户视线位于所述键盘的预设区域的情况下,获取所述键盘显示在所述AR眼镜空间中的第一位置;
第一显示模块13,用于在所述电子设备显示目标界面的情况下,显示所述目标界面在所述AR眼镜空间中的第二位置。
在一个可选的实现方式中,在所述装置还包括:
第二获取模块,用于获取用户的视线信息;
第二显示模块,用于根据所述视线信息确定所述AR眼镜空间中的第三位置,在所述第三位置显示所述目标界面。
在一个可选的实现方式中,所述装置还包括:
调整模块,用于在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,调整所述目标界面在重叠部分的透明度;或,
用于在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,在所述AR眼镜空间中缩小显示所述目标界面。
在一个可选的实现方式中,所述装置还包括:
运行模块,用于在后台运行所述目标界面对应的应用程序。
在一个可选的实现方式中,在所述电子设备在后台运行所述目标界面对应的应用程序之后,所述装置还包括:
第三显示模块,用于在所述AR眼镜取消显示所述目标界面的情况下,显示所述目标界面。
在本申请中,建立AR眼镜与电子设备的数据连接;在用户视线位于电子设备的键盘的预设区域的情况下,获取键盘显示在AR眼镜空间中的第一位置;在电子设备显示目标界面的情况下,显示目标界面在AR眼镜空间中的第二位置。通过本申请,用户在一个视野中既可以看到键盘又可以看到目标界面,以避免用户的视线在键盘与目标界面之间频繁切换,从而可以提高用户基于键盘以及目标界面输入内容的效率。
参照图7,为实现本发明各个实施例的一种AR眼镜的硬件结构示意图。
该AR眼镜500包括但不限于:射频单元501、网络模块502、音频输出单元503、输入单元504、传感器505、显示单元506、用户输入单元507、接口单元508、存储器509、处理器510、以及电源511等部件。本领域技术人员可以理解,图7中示出的AR眼镜结构并不构成对AR眼镜的限定,AR眼镜可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,AR眼镜包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
处理器510,用于在本申请中,建立AR眼镜与电子设备的数据连接;在用户视线位于电子设备的键盘的预设区域的情况下,获取键盘显示在AR眼镜空间中的第一位置;在电子设备显示目标界面的情况下,显示目标界面在AR眼镜空间中的第二位置。
通过本申请,用户在一个视野中既可以看到键盘又可以看到目标界面,以避免用户的视线在键盘与目标界面之间频繁切换,从而可以提高用户基于键盘以及目标界面输入内容的效率。
应理解的是,本发明实施例中,射频单元501可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器510处理;另外,将上行的数据发送给基站。通常,射频单元501包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元501还可以通过无线通信系统与网络和其他设备通信。
AR眼镜通过网络模块502为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元503可以将射频单元501或网络模块502接收的或者在存储器509中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元503还可以提供与AR眼镜500执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元503包括扬声器、蜂鸣器以及受话器等。
输入单元504用于接收音频或视频信号。输入单元504可以包括图形处理器(Graphics Processing Unit,GPU)5041和麦克风5042,图形处理器5041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元506上。经图形处理器5041处理后的图像帧可以存储在存储器509(或其它存储介质)中或者经由射频单元501或网络模块502进行发送。麦克风5042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元501发送到移动通信基站的格式输出。
AR眼镜500还包括至少一种传感器505,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板5061的亮度,接近传感器可在AR眼镜500移动到耳边时,关闭显示面板5061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别AR眼镜姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器505还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元506用于显示由用户输入的信息或提供给用户的信息。显示单元506可包括显示面板5061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板5061。
用户输入单元507可用于接收输入的数字或内容信息,以及产生与AR眼镜的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元507包括触控面板5071以及其他输入设备5072。触控面板5071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板5071上或在触控面板5071附近的操作)。触控面板5071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器510,接收处理器510发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板5071。除了触控面板5071,用户输入单元507还可以包括其他输入设备5072。具体地,其他输入设备5072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板5071可覆盖在显示面板5061上,当触控面板5071检测到在其上或附近的触摸操作后,传送给处理器510以确定触摸事件的类型,随后处理器510根据触摸事件的类型在显示面板5061上提供相应的视觉输出。虽然在图5中,触控面板5071与显示面板5061是作为两个独立的部件来实现AR眼镜的输入和输出功能,但是在某些实施例中,可以将触控面板5071与显示面板5061集成而实现AR眼镜的输入和输出功能,具体此处不做限定。
接口单元508为外部装置与AR眼镜500连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元508可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到AR眼镜500内的一个或多个元件或者可以用于在AR眼镜500和外部装置之间传输数据。
存储器509可用于存储软件程序以及各种数据。存储器509可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器509可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器510是AR眼镜的控制中心,利用各种接口和线路连接整个AR眼镜的各个部分,通过运行或执行存储在存储器509内的软件程序和/或模块,以及调用存储在存储器509内的数据,执行AR眼镜的各种功能和处理数据,从而对AR眼镜进行整体监控。处理器510可包括一个或多个处理单元;优选的,处理器510可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器510中。
AR眼镜500还可以包括给各个部件供电的电源511(比如电池),优选的,电源511可以通过电源管理系统与处理器510逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,AR眼镜500包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种AR眼镜,包括处理器510,存储器509,存储在存储器509上并可在所述处理器510上运行的计算机程序,该计算机程序被处理器510执行时实现上述信息处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述信息处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (12)
1.一种信息处理方法,其特征在于,应用于增强现实AR眼镜,所述方法包括:
建立AR眼镜与电子设备的数据连接;
其中,所述电子设备包括键盘;
在用户视线位于所述键盘的预设区域的情况下,获取所述键盘显示在所述AR眼镜空间中的第一位置;
在所述电子设备显示目标界面的情况下,显示所述目标界面在所述AR眼镜空间中的第二位置。
2.根据权利要求1所述的方法,其特征在于,在所述显示所述目标界面在所述AR眼镜空间中的第二位置之后,所述方法还包括:
获取用户的视线信息;
根据所述视线信息确定所述AR眼镜空间中的第三位置,在所述第三位置显示所述目标界面。
3.根据权利要求1所述的方法,其特征在于,在所述显示所述目标界面在所述AR眼镜空间中的第二位置之后,所述方法还包括:
在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,调整所述目标界面在重叠部分的透明度或在所述AR眼镜空间中缩小显示所述目标界面。
4.根据权利要求1所述的方法,其特征在于,在所述显示所述目标界面在所述AR眼镜空间中的第二位置之后,所述方法还包括:
所述电子设备在后台运行所述目标界面对应的应用程序。
5.根据权利要求4所述的方法,其特征在于,在所述电子设备在后台运行所述目标界面对应的应用程序之后,所述方法还包括:
在所述AR眼镜取消显示所述目标界面的情况下,所述电子设备显示所述目标界面。
6.一种信息处理装置,其特征在于,应用于增强现实AR眼镜,所述装置包括:
建立模块,用于建立AR眼镜与电子设备的数据连接;
其中,所述电子设备包括键盘;
第一获取模块,用于在用户视线位于所述键盘的预设区域的情况下,获取所述键盘显示在所述AR眼镜空间中的第一位置;
第一显示模块,用于在所述电子设备显示目标界面的情况下,显示所述目标界面在所述AR眼镜空间中的第二位置。
7.根据权利要求6所述的装置,其特征在于,在所述装置还包括:
第二获取模块,用于获取用户的视线信息;
第二显示模块,用于根据所述视线信息确定所述AR眼镜空间中的第三位置,在所述第三位置显示所述目标界面。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
调整模块,用于在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,调整所述目标界面在重叠部分的透明度;或,
用于在所述AR眼镜空间中显示的所述键盘与所述目标界面部分重叠的情况下,在所述AR眼镜空间中缩小显示所述目标界面。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
运行模块,用于在后台运行所述目标界面对应的应用程序。
10.根据权利要求9所述的装置,其特征在于,在所述电子设备在后台运行所述目标界面对应的应用程序之后,所述装置还包括:
第三显示模块,用于在所述AR眼镜取消显示所述目标界面的情况下,显示所述目标界面。
11.一种AR眼镜,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的信息处理方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的信息处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010163754.4A CN111443796B (zh) | 2020-03-10 | 2020-03-10 | 一种信息处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010163754.4A CN111443796B (zh) | 2020-03-10 | 2020-03-10 | 一种信息处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111443796A true CN111443796A (zh) | 2020-07-24 |
CN111443796B CN111443796B (zh) | 2023-04-28 |
Family
ID=71627270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010163754.4A Active CN111443796B (zh) | 2020-03-10 | 2020-03-10 | 一种信息处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111443796B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113703704A (zh) * | 2021-08-26 | 2021-11-26 | 杭州灵伴科技有限公司 | 界面显示方法、头戴式显示设备和计算机可读介质 |
CN114168063A (zh) * | 2021-12-13 | 2022-03-11 | 杭州灵伴科技有限公司 | 虚拟按键显示方法、头戴式显示设备和计算机可读介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120019662A1 (en) * | 2010-07-23 | 2012-01-26 | Telepatheye, Inc. | Eye gaze user interface and method |
US20140035819A1 (en) * | 2012-08-03 | 2014-02-06 | Research In Motion Limited | Method and Apparatus Pertaining to an Augmented-Reality Keyboard |
WO2017031089A1 (en) * | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
CN106537261A (zh) * | 2014-07-15 | 2017-03-22 | 微软技术许可有限责任公司 | 全息键盘显示 |
US20170322623A1 (en) * | 2016-05-05 | 2017-11-09 | Google Inc. | Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality |
CN109164908A (zh) * | 2018-07-03 | 2019-01-08 | 维沃移动通信有限公司 | 一种界面控制方法及移动终端 |
CN109613979A (zh) * | 2018-11-29 | 2019-04-12 | 武汉中地地科传媒文化有限责任公司 | 一种字符输入方法、装置、ar设备和计算机存储介质 |
US20190174088A1 (en) * | 2016-08-05 | 2019-06-06 | Apple Inc. | Display System |
US20190265781A1 (en) * | 2018-02-28 | 2019-08-29 | Logitech Europe S.A. | Precision tracking of user interaction with a virtual input device |
CN110832441A (zh) * | 2017-05-19 | 2020-02-21 | 奇跃公司 | 用于虚拟、增强和混合现实显示系统的键盘 |
-
2020
- 2020-03-10 CN CN202010163754.4A patent/CN111443796B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120019662A1 (en) * | 2010-07-23 | 2012-01-26 | Telepatheye, Inc. | Eye gaze user interface and method |
US20140035819A1 (en) * | 2012-08-03 | 2014-02-06 | Research In Motion Limited | Method and Apparatus Pertaining to an Augmented-Reality Keyboard |
CN106537261A (zh) * | 2014-07-15 | 2017-03-22 | 微软技术许可有限责任公司 | 全息键盘显示 |
WO2017031089A1 (en) * | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US20170322623A1 (en) * | 2016-05-05 | 2017-11-09 | Google Inc. | Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality |
US20190174088A1 (en) * | 2016-08-05 | 2019-06-06 | Apple Inc. | Display System |
CN110832441A (zh) * | 2017-05-19 | 2020-02-21 | 奇跃公司 | 用于虚拟、增强和混合现实显示系统的键盘 |
US20190265781A1 (en) * | 2018-02-28 | 2019-08-29 | Logitech Europe S.A. | Precision tracking of user interaction with a virtual input device |
CN109164908A (zh) * | 2018-07-03 | 2019-01-08 | 维沃移动通信有限公司 | 一种界面控制方法及移动终端 |
CN109613979A (zh) * | 2018-11-29 | 2019-04-12 | 武汉中地地科传媒文化有限责任公司 | 一种字符输入方法、装置、ar设备和计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
黄乔: ""基于视线输入法的人机交互系统研究"" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113703704A (zh) * | 2021-08-26 | 2021-11-26 | 杭州灵伴科技有限公司 | 界面显示方法、头戴式显示设备和计算机可读介质 |
CN113703704B (zh) * | 2021-08-26 | 2024-01-02 | 杭州灵伴科技有限公司 | 界面显示方法、头戴式显示设备和计算机可读介质 |
CN114168063A (zh) * | 2021-12-13 | 2022-03-11 | 杭州灵伴科技有限公司 | 虚拟按键显示方法、头戴式显示设备和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111443796B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110995923B (zh) | 一种投屏控制方法及电子设备 | |
CN108182043B (zh) | 一种信息显示方法及移动终端 | |
CN108459797B (zh) | 一种折叠屏的控制方法及移动终端 | |
CN107734175B (zh) | 一种通知消息的提示方法及移动终端 | |
CN108073343B (zh) | 一种显示界面调整方法及移动终端 | |
CN108491123B (zh) | 一种调节应用程序图标的方法及移动终端 | |
CN111562896B (zh) | 投屏方法及电子设备 | |
CN109710349B (zh) | 一种截屏方法及移动终端 | |
CN111026484A (zh) | 一种应用分享方法、第一电子设备及计算机可读存储介质 | |
CN109343788B (zh) | 一种移动终端的操作控制方法及移动终端 | |
CN111258468B (zh) | 一种信息处理方法及电子设备 | |
CN109407949B (zh) | 一种显示控制方法及终端 | |
CN107734172B (zh) | 一种信息显示方法及移动终端 | |
CN109669656B (zh) | 一种信息显示方法及终端设备 | |
CN109445653B (zh) | 一种图标处理方法及移动终端 | |
CN110933494A (zh) | 一种画面共享方法及电子设备 | |
CN111124706A (zh) | 一种应用程序分享方法及电子设备 | |
CN108984145B (zh) | 一种亮度调节方法及电子设备 | |
CN111131607A (zh) | 一种信息共享方法、电子设备及计算机可读存储介质 | |
CN108196781B (zh) | 界面的显示方法和移动终端 | |
CN111597540B (zh) | 应用程序的登录方法、电子设备及可读存储介质 | |
CN110022551B (zh) | 一种信息交互方法及终端设备 | |
CN109597546B (zh) | 一种图标处理方法及终端设备 | |
CN111443796B (zh) | 一种信息处理方法及装置 | |
CN111061446A (zh) | 一种显示方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |