CN115562496B - Xr设备及基于xr设备的字符输入方法和字符修改方法 - Google Patents
Xr设备及基于xr设备的字符输入方法和字符修改方法 Download PDFInfo
- Publication number
- CN115562496B CN115562496B CN202211374266.3A CN202211374266A CN115562496B CN 115562496 B CN115562496 B CN 115562496B CN 202211374266 A CN202211374266 A CN 202211374266A CN 115562496 B CN115562496 B CN 115562496B
- Authority
- CN
- China
- Prior art keywords
- character
- input
- virtual keyboard
- layer
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000002715 modification method Methods 0.000 title claims abstract description 30
- 230000004044 response Effects 0.000 claims abstract description 68
- 238000012544 monitoring process Methods 0.000 claims abstract description 21
- 230000008859 change Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 230000003247 decreasing effect Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000004424 eye movement Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
本申请提供一种XR设备及基于XR设备的字符输入方法和字符修改方法、可读存储介质。字符输入方法包括:响应于检测到用户的视线焦点在XR设备的虚拟键盘层的输入单元处停留预定时长,监测视线焦点的景深是否发生变化;以及响应于确定出视线焦点的景深发生变化,将与输入单元对应的输入元素确定为输入的字符。
Description
技术领域
本申请涉及字符输入技术领域,更具体地,涉及一种XR设备及基于XR设备的字符输入方法和字符修改方法、可读存储介质。
背景技术
在扩展现实设备(XR设备)的使用场景中,常常需要输入字符信息以向前推进XR设备的使用。输入的字符信息例如为问候语、用户名或者密码等。
对于目前的XR设备而言,当需要输入字符信息时,视野中将出现虚拟键盘,通过实体手柄与虚拟键盘交互的方式,选择相应的输入单元进行点击确认,将输入单元对应的输入元素输入到对应的位置。
然而,这种通过实体手柄与虚拟键盘交互的方式输入字符的方式不仅输入效率不高,且需要配合实体手柄使用,用户体验不高。
发明内容
本申请提供了一种可至少部分解决相关技术中存在的上述问题的XR设备及基于XR设备的字符输入方法和字符修改方法、可读存储介质。
本申请第一方面提供一种基于XR设备的字符输入方法,包括:响应于检测到用户的视线焦点在所述XR设备的虚拟键盘层的输入单元处停留预定时长,监测所述视线焦点的景深是否发生变化;以及响应于确定出所述视线焦点的景深发生变化,将与所述输入单元对应的输入元素确定为输入的字符。
在一些实施方式中,响应于确定出所述视线焦点的景深发生变化,将与所述输入单元对应的输入元素确定为输入的字符的步骤包括:响应于确定出所述视线焦点的景深增大,将与所述输入单元对应的输入元素确定为输入的字符。
在一些实施方式中,将与所述输入单元对应的输入元素确定为输入的字符之后,所述字符输入方法还包括:响应于确定出所述视线焦点变化后的景深与另一虚拟键盘层的深度相对应,显示所述另一虚拟键盘层,并虚化显示所述虚拟键盘层。
在一些实施方式中,虚化显示所述虚拟键盘层之后,所述字符输入方法还包括:响应于检测到所述视线焦点在所述另一虚拟键盘层内移动,关闭所述虚拟键盘层;响应于检测到所述视线焦点在所述另一虚拟键盘层的输入单元处停留预定时长,监测所述视线焦点的景深是否发生变化;以及响应于确定出所述视线焦点的景深发生变化,将与所述另一虚拟键盘层的输入单元对应的输入元素确定为输入的另一字符。
在一些实施方式中,虚化显示所述虚拟键盘层之后,所述字符输入方法还包括:响应于监测到所述视线焦点的景深变化至与所述虚拟键盘层的深度相对应,删除所输入的字符。
本申请第二方面提供一种基于XR设备的字符修改方法,所述XR设备包括字符输入层和虚拟键盘层。所述字符修改方法包括:响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上,显示所述虚拟键盘层;响应于检测到所述视线焦点在所述虚拟键盘层的输入单元处停留预定时长,监测所述视线焦点的景深;以及响应于确定出所述视线焦点的景深发生变化,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素。
在一些实施方式中,所述字符输入层中包括多个所述已输入字符,多个所述已输入字符分别对应多个具有不同深度的虚拟键盘层。响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上,显示所述虚拟键盘层的步骤包括:响应于检测到所述视线焦点在多个所述已输入字符中的其中一个已输入字符上停留预定时长,监测所述视线焦点的景深;以及响应于确定出所述视线焦点的景深与所述其中一个已输入字符相对应的虚拟键盘层的深度相匹配,显示与所述其中一个已输入字符相对应的虚拟键盘层。
或者,响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上,显示所述虚拟键盘层的步骤包括:响应于检测到所述视线焦点在多个所述已输入字符中的其中一个已输入字符上停留预定时长,监测所述视线焦点的景深;以及响应于确定出所述视线焦点的景深发生变化,显示与所述其中一个已输入字符相对应的虚拟键盘层。
在一些实施方式中,响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上之后,所述字符修改方法还包括:虚化显示所述字符输入层。
在一些实施方式中,显示所述虚拟键盘层之后,所述字符修改方法还包括:响应于确定出所述视线焦点在所述虚拟键盘层内移动,关闭所述字符输入层。
在一些实施方式中,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素之后,所述字符修改方法还包括:关闭所述虚拟键盘层,并显示所述字符输入层。
在一些实施方式中,响应于确定出所述视线焦点的景深发生变化,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素的步骤包括:响应于确定出所述视线焦点的景深在所述虚拟键盘层的输入单元处增大或减小时,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素。
或者,响应于确定出所述视线焦点的景深发生变化,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素的步骤包括:响应于确定出所述视线焦点的景深与所述字符输入层的深度相对应时,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素。
本申请第三方面提供一种XR设备,包括:处理器;以及存储器,与处理器通讯连接,其中,存储器存储有可被处理器执行的程序,当程序被处理器执行时,处理器能够执行根据上述的字符输入方法或者字符修改方法。
本申请第四方面提供一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现根据如上的字符输入方法或者字符修改方法。
本申请至少一个实施方式提供的基于XR设备的字符输入方法,通过利用用户的自然眼动交互方式实现字符的输入,可提高字符输入的时效性。此外,采用上述方案相较于常规采用手柄输入的方式,可减小误触发和误识别的发生概率,提高字符输入的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例的详细描述,本申请的其它特征、目的和优点将会变得更明显。其中:
图1是根据本申请示例性实施方式提供的XR设备显示的虚拟场景示意图;
图2是根据本申请第一实施方式的基于XR设备的字符输入方法的流程示意图;
图3是根据本申请第二实施方式的基于XR设备的字符输入方法的流程示意图;
图4是根据本申请第三实施方式的基于XR设备的字符输入方法的流程示意图;
图5是根据本申请第四实施方式的基于XR设备的字符修改方法的流程示意图;
图6是根据本申请方式一的步骤S510的流程示意图;
图7是根据本申请方式二的步骤S510的流程示意图;以及
图8是本申请的示例性实施方式的XR设备的结构示意图。
具体实施方式
为了更好地理解本申请,将参考附图对本申请的各个方面做出更详细的说明。应理解,这些详细说明只是对本申请的示例性实施方式的描述,而非以任何方式限制本申请的范围。在说明书全文中,相同的附图标号指代相同的元件。表述“和/或”包括相关联的所列项目中的一个或多个的任何和全部组合。
应注意,在本说明书中,第一、第二、第三等的表述仅用于将一个特征与另一个特征区域分开来,而不表示对特征的任何限制,尤其不表示任何的先后顺序。因此,在不背离本申请的教导的情况下,本申请中讨论的第一字符也可被称作第二字符,第一虚拟键盘层也可被称作第二虚拟键盘层,反之亦然。
在附图中,为了便于说明,已稍微调整了部件的厚度、尺寸和形状。附图仅为示例而并非严格按比例绘制。如在本文中使用的,用语“大致”、“大约”以及类似的用语用作表近似的用语,而不用作表程度的用语,并且旨在说明将由本领域普通技术人员认识到的、测量值或计算值中的固有偏差。
还应理解的是,诸如“包括”、“包括有”、“具有”、“包含”和/或“包含有”等表述在本说明书中是开放性而非封闭性的表述,其表示存在所陈述的特征、元件和/或部件,但不排除一个或多个其它特征、元件、部件和/或它们的组合的存在。此外,当诸如“...中的至少一个”的表述出现在所列特征的列表之后时,其修饰整列特征,而非仅仅修饰列表中的单独元件。此外,当描述本申请的实施方式时,使用“可”表示“本申请的一个或多个实施方式”。并且,用语“示例性的”旨在指代示例或举例说明。
除非另外限定,否则本文中使用的所有措辞(包括工程术语和科技术语)均具有与本申请所属领域普通技术人员的通常理解相同的含义。还应理解的是,除非本申请中有明确的说明,否则在常用词典中定义的词语应被解释为具有与它们在相关技术的上下文中的含义一致的含义,而不应以理想化或过于形式化的意义解释。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
在下文中,将结合附图更详细地描述本方案的具体示例。
图1示出了根据本申请示例性实施方式的XR设备100显示的虚拟场景。XR设备100例如为虚拟现实显示设备(Virtual Reality,VR)、增强现实显示设备(AugmentedReality,AR)或者混合现实显示设备(Mixed Reality),本申请对此不做限制。
如图1所示,XR设备100包括与用户眼睛相对应的镜片组件和用于追踪用户眼睛运动的眼动追踪组件。作为示例,镜片组件例如包括第一镜片110和/或第二镜片120。当镜片组件同时包括第一镜片110和第二镜片120时,第一镜片110和第二镜片120分别与用户的左眼和右眼相对应。与此相对应地,眼动追踪组件包括分别用于追踪用户左眼运动和右眼运动的第一眼动追踪摄像头130和/或第二眼动追踪摄像头140。可选地,第一眼动追踪摄像头130和第二眼动追踪摄像头140是通过测量用户眼睛的注视点的位置的变化而实现对眼球运动的追踪,从而确定出用户视线焦点的位置以及用户视线焦点的景深。
在如图1所示出的虚拟场景中包括字符输入层150和多个虚拟键盘层(第一虚拟键盘层160、第二虚拟键盘层170、第三虚拟键盘层180……第N虚拟键盘层(未示出)),字符输入层150以及多个虚拟键盘层之间具有不同的深度。可以理解的,图1仅示出了字符输入层150和各个虚拟键盘层的相对位置关系,字符输入层150和各个虚拟键盘层在需要输入字符信息时按照本申请提供的方法调用显示。
每个虚拟键盘层均包括一个或多个虚拟的输入单元,每个输入单元均预设了与其相对应的输入元素。多个虚拟键盘层中显示的虚拟的输入单元的布局可以相同,也可以不同,本申请对此不做限制。
当多个虚拟的输入单元中的其中一个输入单元被选中时,该输入单元对应的输入元素即被确定为输入的字符。输入元素例如为字母、数字、符号或者图像中的一种或多种。此外,每个输入单元相对应的输入元素的个数可以为一个,也可以为多个的组合,本申请对此不作限制。
作为示例,字符输入层150的深度DP0、第一虚拟键盘层160的深度DP1、第二虚拟键盘层170的深度DP2、第三虚拟键盘层180的深度DP3……第N虚拟键盘层的深度DPN可以分别表示为字符输入层150、第一虚拟键盘层160、第二虚拟键盘层170、第三虚拟键盘层180……第N虚拟键盘层相对于用户眼睛的距离。需要说明的是,当字符输入层150以及多个虚拟键盘层在XR设备100中呈现为弧形面时,字符输入层150的深度DP0、第一虚拟键盘层160的深度DP1、第二虚拟键盘层170的深度DP2、第三虚拟键盘层180的深度DP3……第N虚拟键盘层的深度DPN可以分别表示为字符输入层150、第一虚拟键盘层160、第二虚拟键盘层170、第三虚拟键盘层180……第N虚拟键盘层的弧面中心相对于用户眼睛的距离。
作为示例,字符输入层150可显示于第一虚拟键盘层160与镜片组件之间。
作为示例,字符输入层150位于多个虚拟键盘层其中一层的上方、一侧或下方,以防止遮挡各深度的虚拟键盘层。
在一些实施方式中,XR设备100对第一虚拟键盘层160、第二虚拟键盘层170、第三虚拟键盘层180……第N虚拟键盘层中的每一层均预设了指定区域。此处的指定区域可以定义为视线进入各层的初始的注视点,其可以触发对各层的后续操作。换言之,当用户的视线位于各层的指定区域,意味着用户将要对该层进行操作,此时应显示该层。当用户的视线离开指定区域并在该层内移动时,即可开始捕捉用户的操作。作为示例,指定区域为各层的左上角或者右上角等位置,可根据用户的使用习惯进行设置。
此外,XR设备100还包括处理器以及存储器。存储器与处理器通讯连接,存储器存储有可被处理器执行的程序,当程序被处理器执行时,处理器能够执行根据本申请示例性实施方式提供的字符输入方法或者字符修改方法。
图2示出了根据本申请第一实施方式的基于XR设备100的字符输入方法200的流程。如图2所示,字符输入方法200中包括如下步骤:
S210、响应于检测到用户的视线焦点在XR设备的虚拟键盘层的输入单元处停留预定时长,监测视线焦点的景深是否发生变化;以及S220、响应于确定出视线焦点的景深发生变化,将与虚拟键盘层的输入单元对应的输入元素确定为输入的字符。
应理解的是,在字符输入方法200中所示的步骤不是排它性的,还可以在所示步骤中的任何步骤之前、之后或之间执行其它步骤。下面结合图1和图2进一步描述字符输入方法200的具体方案。
具体而言,在使用XR设备100且需要输入字符信息时,当用户的视线进入虚拟键盘层的指定区域内,可在XR设备100中显示该虚拟键盘层,意味着用户的后续操作是在该虚拟键盘层内。当用户的视线离开该虚拟键盘层的指定区域并在该虚拟键盘层内移动时,可捕捉用户的视线焦点的变化从而确定出用户的操作。
在步骤S210中,当检测到用户的视线焦点在虚拟键盘层的某个虚拟的输入单元上时,可以实时地或者以一定间隔地监测用户的视线焦点的景深是否发生变化。在步骤S220中,当XR设备100的处理器确定出用户的视线焦点的景深发生了变化,则将与该输入单元对应的输入元素确定为输入的字符。在XR设备100的字符输入层150中则包括所输入的字符。
上述方案中,通过利用用户的自然眼动交互方式实现字符的输入,可提高字符输入的时效性。此外,采用上述方案相较于常规采用手柄输入的方式,可减小误触发和误识别的发生概率,提高字符输入的准确性。
需要说明的是,上述的虚拟键盘层可以为图1中所示出的第一虚拟键盘层160、第二虚拟键盘层170、第三虚拟键盘层180……第N虚拟键盘层中的任意一个。
在步骤S210中,可利用第一眼动追踪摄像头130和第二眼动追踪摄像头140捕捉用户的视线焦点,从而监测用户的视线焦点的景深是否发生变化。
在一些实施方式中,步骤S220中包括:响应于确定出视线焦点的景深增大,将与虚拟键盘层的输入单元对应的输入元素确定为输入的字符。
上述方案中,利用用户视线焦点由近及远地变化作为将输入单元的输入元素确定为要输入的字符的输入条件,符合用户的使用习惯,提高用户的使用体验。
在另外一些实施方式中,步骤S220中也可在确定出视线焦点的景深减小时,将与虚拟键盘层的输入单元对应的输入元素确定为输入的字符。
在一些实施方式中,字符输入方法200还包括以下步骤:
S230、响应于确定出视线焦点变化后的景深与另一虚拟键盘层的深度相对应,显示另一虚拟键盘层,并虚化显示虚拟键盘层。这样可有利于使用户决定利用另一虚拟键盘输入另一字符或者对已输入的字符进行修改。
具体而言,当步骤S220中用户的视线焦点的景深增大或减小后,字符输入方法200还包括判断步骤S220中增大或减小后的景深与另一虚拟键盘层的深度是否相对应。当在步骤S230中,XR设备100的处理器确定出增大或减小后的景深与另一虚拟键盘层的深度相对应,则显示另一虚拟键盘层,并虚化显示虚拟键盘层。
下面参照图1以视线焦点的景深增大作为输入条件为例介绍上述步骤S210至S230。
在步骤S210中,当检测到用户的视线焦点在第一虚拟键盘层160的某个虚拟的输入单元上时,可以实时地或者以一定间隔地监测用户的视线焦点的景深是否发生变化。在步骤S220中,当XR设备100的处理器确定出用户的视线焦点的景深增大,则将与该第一虚拟键盘层160的输入单元对应的输入元素确定为输入的字符。在XR设备100的字符输入层150中则包括所输入的字符。
当步骤S220中用户的视线焦点的景深增大后,字符输入方法200还包括判断步骤S220中增大后的景深与第二虚拟键盘层170的深度DP2是否相对应。当在步骤S230中,XR设备100的处理器确定出增大后的景深与第二虚拟键盘层170的深度DP2相对应,则显示第二虚拟键盘层170,并虚化显示第一虚拟键盘层160。
下面参照图1以视线焦点的景深减小作为输入条件为例介绍上述步骤S210至S230。
在步骤S210中,当检测到用户的视线焦点在第二虚拟键盘层170的某个虚拟的输入单元上时,可以实时地或者以一定间隔地监测用户的视线焦点的景深是否发生变化。在步骤S220中,当XR设备100的处理器确定出用户的视线焦点的景深减小,则将与该第二虚拟键盘层170的输入单元对应的输入元素确定为输入的字符。在XR设备100的字符输入层150中则包括所输入的字符。
当步骤S220中用户的视线焦点的景深减小后,字符输入方法200还包括判断步骤S220中减小后的景深与第一虚拟键盘层160的深度DP1是否相对应。当在步骤S230中,XR设备100的处理器确定出减小后的景深与第一虚拟键盘层160的深度DP1相对应,则显示第一虚拟键盘层160,并虚化显示第二虚拟键盘层170。
图3示出了根据本申请第二实施方式的基于XR设备100的字符输入方法300的流程。如图3所示,字符输入方法300中包括如下步骤:
S310、响应于检测到用户的视线焦点在XR设备的虚拟键盘层的输入单元处停留预定时长,监测视线焦点的景深是否发生变化;
S320、响应于确定出视线焦点的景深发生变化,将与虚拟键盘层的输入单元对应的输入元素确定为输入的字符;
S330、响应于确定出视线焦点变化后的景深与另一虚拟键盘层的深度相对应,显示另一虚拟键盘层,并虚化显示虚拟键盘层;
S340、响应于检测到视线焦点在另一虚拟键盘层内移动,关闭虚拟键盘层;
S350、响应于检测到视线焦点位于另一虚拟键盘层的输入单元处停留预定时长,监测视线焦点的景深是否发生变化;以及
S360、响应于确定出视线焦点的景深发生变化,将与另一虚拟键盘层的输入单元对应的输入元素确定为输入的另一字符。
本实施方式中的步骤S310至步骤S330可参照第一实施方式中所描述的步骤S210至步骤S230,本申请此处不再赘述。
在步骤S330中虚化显示虚拟键盘层之后,在步骤S340中,当检测到用户的视线焦点离开另一虚拟键盘层的指定区域并在另一虚拟键盘层内移动时,意味着用户即将对另一虚拟键盘层进行操作,此时可关闭步骤S310中显示的虚拟键盘层,以免影响用户视线焦点的变化。
在步骤S340中,当检测到用户的视线焦点在另一虚拟键盘层的某个虚拟的输入单元处停留预定时长时,应监测用户的视线焦点的景深是否发生变化。在步骤S350中,当XR设备100的处理器确定出用户的视线焦点的景深发生变化(增大或减小),则将与另一虚拟键盘层的输入单元对应的输入元素确定为输入的另一字符。在XR设备100的字符输入层150中则包括所输入的字符和另一字符。
参照图1,以一个六位数字和字母的组合密码(A0B1C2)输入为具体的应用场景说明字符输入方法300的具体过程。
在该应用场景中,XR设备100可根据需要显示虚拟的字符输入层150和六个虚拟键盘层中的一层或多层,字符输入层150和六个虚拟键盘层具有不同的深度。字符输入层150也可称为输入界面,在密码输入的过程中,字符输入层150可以始终显示在用户的视野中。
当需要输入密码时,在XR设备100中显示字符输入层150,当确定出用户的视线焦点位于第一虚拟键盘层160的指定区域时,显示第一虚拟键盘层160。当在步骤S310中确定出视线焦点位于第一虚拟键盘层160的、与“A”相对应的输入单元之后,确定视线焦点的景深是否增大。当在步骤S320中确定出视线焦点的景深增大,将“A”确定为输入的第一字符。当在步骤S330中确定出视线焦点增大后的景深与第二虚拟键盘层170的深度DP2相对应,显示第二虚拟键盘层170,并虚化显示第一虚拟键盘层160。当在步骤S340中确定出视线焦点在第二虚拟键盘层170内移动时,关闭第一虚拟键盘层160。当在步骤S350中确定出视线焦点位于第二虚拟键盘层170的、与“0”相对应的输入单元之后,确定视线焦点的景深是否增大。当在步骤S360中确定出视线焦点的景深增大时,将“0”确定为输入的第二字符。
同理,在后续的操作中,当XR设备100的处理器确定出步骤S340中增大的视线焦点的景深与第三虚拟键盘层180的深度DP3相对应时,显示第三虚拟键盘层180,并虚化显示第二虚拟键盘层170。当视线在第三虚拟键盘层180上移动时,关闭第二虚拟键盘170,以及,当XR设备100的处理器确定出用户的视线焦点在第三虚拟键盘层180的、与“B”相对应的输入单元上时,XR设备100的处理器应确定出用户的视线焦点的景深是否增大。当XR设备100的处理器确定出用户的视线焦点的景深增大,则将“B”确定为输入的第三字符。在XR设备100的字符输入层150中则包括所输入的第一字符“A”、第二字符“0”和第三字符“B”。
依次类推,可完成第四字符“1”、第五字符“C”和第六字符“2”的输入,由此完成对上述密码的输入。
可以理解的是,以视线焦点的景深减小作为输入条件也可应用于输入上述密码的场景中,本申请此处不再赘述。
图4示出了根据本申请第三实施方式的基于XR设备100的字符输入方法400的流程。如图4所示,字符输入方法400中包括如下步骤:
S410、响应于检测到用户的视线焦点在XR设备的虚拟键盘层的输入单元处停留预定时长,监测视线焦点的景深是否发生变化;
S420、响应于确定出视线焦点的景深发生变化,将与虚拟键盘层的输入单元对应的输入元素确定为输入的字符;
S430、响应于确定出视线焦点变化后的景深与另一虚拟键盘层的深度相对应,显示另一虚拟键盘层,并虚化显示虚拟键盘层;以及
S440、响应于监测到视线焦点的景深变化至与虚拟键盘层的深度相对应,删除所输入的字符。
本实施方式中的步骤S410至步骤S430可参照第一实施方式中所描述的步骤S210至步骤S230,本申请此处不再赘述。
在步骤S430中显示另一虚拟键盘层并虚化显示虚拟键盘层之后,如果在步骤S440中检测到视线焦点的景深再次发生了变化,并且变化至与虚拟键盘层的深度相对应,则说明了用户的视线焦点又回到了刚刚进行操作的虚拟键盘层。此时,可认为上一操作中所输入的字符不是用户的所需要的字符,因此,删除所输入的字符。
需要说明的是,在本实施方式中所提及的删除字符的方法可应用于删除上一个输入的字符,并不限制于第一次输入的字符。
例如在输入密码(A0B1C2)的应用场景中,当确定出用户的视线焦点位于第一虚拟键盘层160的指定区域时,显示第一虚拟键盘层160。当在步骤S410中确定出视线焦点位于第一虚拟键盘层160的、与“A”相对应的输入单元之后,确定视线焦点的景深是否增大。当在步骤S420中确定出视线焦点的景深增大,将“A”确定为输入的第一字符。当在步骤S430中确定出视线焦点增大后的景深与第二虚拟键盘层170的深度DP2相对应,显示第二虚拟键盘层170,并虚化显示第一虚拟键盘层160。当在步骤S440中监测到视线焦点的景深变化至与第一虚拟键盘层160的深度DP1相对应,则将输入的第一字符“A”删除。
同理,当输入第二字符“0”之后即将输入第三字符“B”时,可采用上述的方法400删除“0”。当输入第三字符“B”之后即将输入第四字符“1”时,可采用上述的方法400删除“B”。
图5示出了根据本申请第四实施方式的基于XR设备100的字符修改方法500的流程。如图5所示,字符输入方法500中包括如下步骤:
S510、响应于确定出用户的视线焦点位于字符输入层的已输入字符上,显示虚拟键盘层;
S520、响应于检测到视线焦点在虚拟键盘层的输入单元处停留预定时长,监测视线焦点的景深;以及
S530、响应于确定出视线焦点的景深发生变化,将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素。
应理解的是,在字符修改方法500中所示的步骤不是排它性的,还可以在所示步骤中的任何步骤之前、之后或之间执行其它步骤。下面结合图1、图5和图6进一步描述字符输入方法500的具体方案。
作为示例,字符输入层150中包括多个已输入字符,这些已输入字符可以构成一字符串。若用户需要对这些已输入字符中的某个已输入字符进行修改时,可首先将视线注视到需要修改的已输入字符上,然后利用视线焦点的景深变化实现对已输入字符的修改。
具体而言,在步骤S510中,当检测到用户的视线焦点位于需要修改的已输入字符上时,显示虚拟键盘层。在步骤S520中,当检测到视线焦点在虚拟键盘层的输入单元处停留预定时长时,监测视线焦点的景深是否发生变化。在步骤S530中,当确定出视线焦点的景深发生变化时,这时可将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素。此后,视线焦点可以回到字符输入层,以检查是否需要修改其他字符。
在本申请中,步骤S510可实施为如下两种示例性实施方式。
方式一
在本实施方式中,如图6所示,步骤S510中包括:
S511、响应于检测到视线焦点在多个已输入字符中的其中一个已输入字符上停留预定时长,监测视线焦点的景深;以及
S512、响应于确定出视线焦点的景深与其中一个已输入字符相对应的虚拟键盘层的深度相匹配,显示与其中一个已输入字符相对应的虚拟键盘层。
具体而言,由本申请前文的方法200~400中所记载的,当输入多个字符时,采用第一虚拟键盘层160输入第一字符,采用第二虚拟键盘层170输入第二字符……采用第N虚拟键盘层输入第N字符。因此,在方法500中需要对多个字符中的某一字符进行修改时,用户可将视线注视到需要修改的字符上,并且将视线焦点变化至与该字符相对应的虚拟键盘层。当XR设备100的处理器确定出用户的视线焦点的景深与该字符相对应的虚拟键盘层的深度相匹配时,显示与输入这一字符时相对应的那个虚拟键盘层,通过视线焦点的景深的变化实现对需要修改的字符进行修改。这样可避免出现由于虚拟键盘层的布局不同所导致的无法修改字符的问题。
方式二
在本实施方式中,如图7所示,步骤S510中包括:
S511’、响应于检测到视线焦点在多个已输入字符中的其中一个已输入字符上停留预定时长,监测视线焦点的景深;以及
S512’、响应于确定出视线焦点的景深发生变化,显示与其中一个已输入字符相对应的虚拟键盘层。
与方式一不同的是,在本实施方式中,当检测到视线焦点在多个已输入字符中的其中一个已输入字符上停留预定时长,并且XR设备100的处理器确定出用户的视线焦点的景深发生变化,即显示与输入这一字符时相对应的那一虚拟键盘层。
此处需要说明的是,在本实施方式中,用户的视线焦点的景深仅需增大或减小,无需将视线焦点定位到具体哪一虚拟键盘层。这样可提高操作的便捷性,提高用户的使用体验。
在一些实施方式中,步骤S510中确定出视线焦点位于字符输入层150的已输入字符上之后,字符修改方法还包括:虚化显示字符输入层150以等待用户的下一步操作。可选地,当确定出视线焦点在虚拟键盘层内移动,则关闭字符输入层150,以避免字符输入层150对用户的视线焦点造成影响。当确定出视线焦点又回到字符输入层150,可将虚拟键盘层关闭,并显示字符输入层150,以使用户重新选择需要修改的字符。
在一些实施方式中,步骤S530中将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素之后,字符修改方法还包括:关闭虚拟键盘层,并显示字符输入层150,以使用户再次选择需要修改的字符。当用户再次选择了需要修改的字符时,可重复地执行上述方法500的步骤S510至步骤S530,以完成对字符的修改。
在本申请中,步骤S530可实施为如下两种示例性实施方式。
方式一
在本实施方式中,步骤S530包括:响应于确定出视线焦点的景深在所述虚拟键盘层的输入单元处增大或减小时,将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素。
具体而言,在步骤S520中监测用户的视线焦点的景深时,如果在步骤S530中监测到用户的视线焦点在虚拟键盘层的输入单元处的景深增大或减小时,即可将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素。
例如在输入密码(A0B1C2)的应用场景中,用户想要输入的密码为“A0B1C2”,但是在字符输入层中显示的所输入的密码为“A0A1C2”,显然,第三字符的输入有误,需要对第三字符进行修改。下面结合该场景,并参照图1介绍本实施方式的具体过程:
在步骤S511’中,当检测到视线焦点在第三字符“A”上停留预定时长,监测视线焦点的景深。在步骤S512’中,当确定出视线焦点的景深变化时,显示第三虚拟键盘层180。在步骤S520中,当检测到用户的视线焦点在第三虚拟键盘层180的输入单元“B”处停留预定时长,监测视线焦点的景深。在步骤S530中,当确定出用户的视线焦点的景深在输入单元“B”处变化(增大或减小)时,将第三字符“A”修改为“B”,此时,在字符输入层中显示的所输入的密码为“A0B1C2”。此后,视线焦点可以回到字符输入层。
方式二
在本实施方式中,步骤S530包括:响应于确定出视线焦点的景深与字符输入层的深度相对应时,将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素。
具体而言,在步骤S520中监测用户的视线焦点的景深时,如果在步骤S530中监测到用户的视线焦点又回到了字符输入层时,即可将已输入字符修改为与虚拟键盘层的输入单元对应的输入元素。
此处同样以方式一中的修改密码的第三字符为例,并参照图1介绍本实施方式的具体过程:
在步骤S511’中,当检测到视线焦点在第三字符“A”上停留预定时长,监测视线焦点的景深。在步骤S512’中,当确定出视线焦点的景深变化时,显示第三虚拟键盘层180。在步骤S520中,当检测到用户的视线焦点在第三虚拟键盘层180的输入单元“B”处停留预定时长,监测视线焦点的景深。在步骤S530中,当确定出用户的视线焦点的景深与字符输入层150的深度DP0相对应,将第三字符修改为“B”,此时,在字符输入层中显示的所输入的密码为“A0B1C2”。
图8示出了本申请的示例性实施方式的XR设备100的结构示意图。
如图8所示,XR设备100包括处理器101,其可以根据存储在只读存储器(ROM)102中的计算机程序指令或者从存储器108加载到随机存取存储器(RAM)103中的计算机程序指令,来执行各种适当的步骤和处理。在RAM 103中,还可存储XR设备100操作所需的各种程序和数据。处理器101、ROM 102以及RAM 103通过总线104彼此相连。输入/输出(I/O)接口105也连接至总线104。
本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
XR设备100中的多个部件连接至I/O接口105,包括:输入单元106,例如键盘、手柄等;输出单元107,例如各种类型的显示器、扬声器等;存储器108,例如磁盘、外接硬盘等;以及通信单元109,例如网卡、调制解调器、无线通信模块(蓝牙模块或WiFi模块)等。通信单元109允许XR设备100通过诸如蓝牙或WiFi与其它设备交换信息/数据。
处理器101可以是各种具有处理和计算能力的通用和/或专用处理部件。处理器101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器101可以执行上文所描述的各个方法和处理,例如执行方法200~500。例如,在一些实施方式中,方法200~500可被实现为计算机软件程序,其被存储于机器可读介质,例如存储器108。在一些实施方式中,计算机程序的部分或者全部可以经由ROM 102和/或通信单元109而被载入和/或安装到XR设备100上。当计算机程序加载到RAM 103并由处理器101执行时,可以执行上文描述的方法200~500中的一个或多个步骤。可选地,在其他实施方式中,处理器101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200~500中的一个或多个步骤。
需要进一步说明的是,本申请可以包括方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本申请的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。本文中所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
本文中所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本申请操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,该编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如C语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本申请的各个方面。
本文中参照根据本申请示例性实施方式的方法、设备(系统)、和计算机程序产品的流程图和/或时序图描述了本申请的各个方面。应当理解,流程图和/或时序图的每个步骤以及流程图和/或时序图中各步骤的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给XR设备中的处理器、通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或时序图中的一个或多个步骤中规定的功能/步骤的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或时序图中的一个或多个步骤中规定的功能/步骤的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或时序图中的一个或多个步骤中规定的功能/步骤。
附图中的流程图和时序图显示了根据本申请的多个实施方式的设备、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或时序图中的每个步骤可以代表一个模块、程序段或指令的一部分,该模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实施方式中,步骤中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的步骤实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,时序图和/或流程图中的每个步骤、以及时序图和/或流程图中的步骤的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上描述仅为本申请的实施方式以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的保护范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离技术构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (13)
1.一种基于XR设备的字符输入方法,所述XR设备包括字符输入层和多个具有不同深度的虚拟键盘层,其特征在于,所述字符输入方法包括:
响应于检测到用户的视线焦点在一虚拟键盘层的输入单元处停留预定时长,监测所述视线焦点的景深是否发生变化;
响应于确定出所述视线焦点的景深发生变化,将与所述输入单元对应的输入元素确定为输入的字符;以及
响应于确定出所述视线焦点变化后的景深与另一虚拟键盘层的深度相对应,显示所述另一虚拟键盘层,并虚化显示所述虚拟键盘层;
其中,所述视线焦点的景深基于第一眼动追踪摄像头和第二眼动追踪摄像头所测量的用户眼睛的注视点的位置的变化来确定。
2.根据权利要求1所述的字符输入方法,其特征在于,响应于确定出所述视线焦点的景深发生变化,将与所述输入单元对应的输入元素确定为输入的字符的步骤包括:
响应于确定出所述视线焦点的景深增大,将与所述输入单元对应的输入元素确定为输入的字符。
3.根据权利要求1所述的字符输入方法,其特征在于,虚化显示所述虚拟键盘层之后,所述字符输入方法还包括:
响应于检测到所述视线焦点在所述另一虚拟键盘层内移动,关闭所述虚拟键盘层;
响应于检测到所述视线焦点在所述另一虚拟键盘层的输入单元处停留预定时长,监测所述视线焦点的景深是否发生变化;以及
响应于确定出所述视线焦点的景深发生变化,将与所述另一虚拟键盘层的输入单元对应的输入元素确定为输入的另一字符。
4.根据权利要求1所述的字符输入方法,其特征在于,虚化显示所述虚拟键盘层之后,所述字符输入方法还包括:
响应于监测到所述视线焦点的景深变化至与所述虚拟键盘层的深度相对应,删除所输入的字符。
5.一种基于XR设备的字符修改方法,其特征在于,所述XR设备包括字符输入层和多个具有不同深度的虚拟键盘层,所述字符输入层包括多个已输入字符,多个所述已输入字符分别对应多个所述虚拟键盘层;
其中,所述字符修改方法包括:
响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上,显示所述虚拟键盘层;
响应于检测到所述视线焦点在所述虚拟键盘层的输入单元处停留预定时长,监测所述视线焦点的景深;以及
响应于确定出所述视线焦点的景深发生变化,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素;
其中,响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上,显示所述虚拟键盘层的步骤包括:
响应于检测到所述视线焦点在多个所述已输入字符中的其中一个已输入字符上停留预定时长,监测所述视线焦点的景深;以及
响应于确定出所述视线焦点的景深发生变化,显示与所述其中一个已输入字符相对应的虚拟键盘层;
其中,所述视线焦点的景深基于第一眼动追踪摄像头和第二眼动追踪摄像头所测量的用户眼睛的注视点的位置的变化来确定。
6. 根据权利要求5所述的字符修改方法,其特征在于,响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上,显示所述虚拟键盘层的步骤包括:
响应于检测到所述视线焦点在多个所述已输入字符中的其中一个已输入字符上停留预定时长,监测所述视线焦点的景深;以及
响应于确定出所述视线焦点的景深与所述其中一个已输入字符相对应的虚拟键盘层的深度相匹配,显示与所述其中一个已输入字符相对应的虚拟键盘层。
7.根据权利要求5所述的字符修改方法,其特征在于,响应于确定出用户的视线焦点位于所述字符输入层的已输入字符上之后,所述字符修改方法还包括:
虚化显示所述字符输入层。
8.根据权利要求5所述的字符修改方法,其特征在于,显示所述虚拟键盘层之后,所述字符修改方法还包括:
响应于确定出所述视线焦点在所述虚拟键盘层内移动,关闭所述字符输入层。
9.根据权利要求5所述的字符修改方法,其特征在于,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素之后,所述字符修改方法还包括:
关闭所述虚拟键盘层,并显示所述字符输入层。
10.根据权利要求5至9中任一项所述的字符修改方法,其特征在于,响应于确定出所述视线焦点的景深发生变化,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素的步骤包括:
响应于确定出所述视线焦点的景深在所述虚拟键盘层的输入单元处增大或减小时,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素。
11.根据权利要求5至9中任一项所述的字符修改方法,其特征在于,响应于确定出所述视线焦点的景深发生变化,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素的步骤包括:
响应于确定出所述视线焦点的景深与所述字符输入层的深度相对应时,将所述已输入字符修改为与所述虚拟键盘层的输入单元对应的输入元素。
12. 一种XR设备,其特征在于,包括:
处理器;以及
存储器,与所述处理器通讯连接,其中,所述存储器存储有可被所述处理器执行的程序,当所述程序被所述处理器执行时,所述处理器能够执行根据权利要求1至4中任一项所述的字符输入方法或者根据权利要求5至11中任一项所述的字符修改方法。
13.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现根据权利要求1至4中任一项所述的字符输入方法或者根据权利要求5至11中任一项所述的字符修改方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211374266.3A CN115562496B (zh) | 2022-11-04 | 2022-11-04 | Xr设备及基于xr设备的字符输入方法和字符修改方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211374266.3A CN115562496B (zh) | 2022-11-04 | 2022-11-04 | Xr设备及基于xr设备的字符输入方法和字符修改方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115562496A CN115562496A (zh) | 2023-01-03 |
CN115562496B true CN115562496B (zh) | 2023-12-15 |
Family
ID=84768129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211374266.3A Active CN115562496B (zh) | 2022-11-04 | 2022-11-04 | Xr设备及基于xr设备的字符输入方法和字符修改方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115562496B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101411569B1 (ko) * | 2013-06-05 | 2014-06-27 | 고려대학교 산학협력단 | 가상 키보드를 이용한 정보 처리 장치 및 방법 |
CN105511618A (zh) * | 2015-12-08 | 2016-04-20 | 北京小鸟看看科技有限公司 | 三维输入装置、头戴式装置及三维输入方法 |
WO2018052665A1 (en) * | 2016-08-19 | 2018-03-22 | Fyusion, Inc. | Virtual reality environment based manipulation of multi-layered multi-view interactive digital media representations |
CN107957774A (zh) * | 2016-10-18 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 虚拟现实空间环境中的交互方法及装置 |
CN108170365A (zh) * | 2017-12-26 | 2018-06-15 | 深圳Tcl新技术有限公司 | 智能电视输入方法、装置及计算机可读存储介质 |
CN109643219A (zh) * | 2016-09-01 | 2019-04-16 | 大众汽车有限公司 | 用于与在车辆中的显示设备上呈现的图像内容进行交互的方法 |
US10852820B1 (en) * | 2019-02-22 | 2020-12-01 | Facebook Technologies, Llc | Gaze-based virtual content control |
CN112385241A (zh) * | 2018-07-03 | 2021-02-19 | 索尼公司 | 以基于景深的多层结构的虚拟现实媒体内容生成 |
CN114546102A (zh) * | 2020-11-26 | 2022-05-27 | 幻蝎科技(武汉)有限公司 | 眼动追踪滑行输入方法、系统、智能终端及眼动追踪装置 |
CN114830011A (zh) * | 2019-12-06 | 2022-07-29 | 奇跃公司 | 虚拟、增强和混合现实系统和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10275023B2 (en) * | 2016-05-05 | 2019-04-30 | Google Llc | Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality |
US10621898B2 (en) * | 2016-11-23 | 2020-04-14 | Pure Depth Limited | Multi-layer display system for vehicle dash or the like |
JP2020149269A (ja) * | 2019-03-13 | 2020-09-17 | オムロン株式会社 | 文字入力装置、文字入力方法、及び、文字入力プログラム |
-
2022
- 2022-11-04 CN CN202211374266.3A patent/CN115562496B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101411569B1 (ko) * | 2013-06-05 | 2014-06-27 | 고려대학교 산학협력단 | 가상 키보드를 이용한 정보 처리 장치 및 방법 |
CN105511618A (zh) * | 2015-12-08 | 2016-04-20 | 北京小鸟看看科技有限公司 | 三维输入装置、头戴式装置及三维输入方法 |
WO2018052665A1 (en) * | 2016-08-19 | 2018-03-22 | Fyusion, Inc. | Virtual reality environment based manipulation of multi-layered multi-view interactive digital media representations |
CN109643219A (zh) * | 2016-09-01 | 2019-04-16 | 大众汽车有限公司 | 用于与在车辆中的显示设备上呈现的图像内容进行交互的方法 |
CN107957774A (zh) * | 2016-10-18 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 虚拟现实空间环境中的交互方法及装置 |
CN108170365A (zh) * | 2017-12-26 | 2018-06-15 | 深圳Tcl新技术有限公司 | 智能电视输入方法、装置及计算机可读存储介质 |
CN112385241A (zh) * | 2018-07-03 | 2021-02-19 | 索尼公司 | 以基于景深的多层结构的虚拟现实媒体内容生成 |
US10852820B1 (en) * | 2019-02-22 | 2020-12-01 | Facebook Technologies, Llc | Gaze-based virtual content control |
CN114830011A (zh) * | 2019-12-06 | 2022-07-29 | 奇跃公司 | 虚拟、增强和混合现实系统和方法 |
CN114546102A (zh) * | 2020-11-26 | 2022-05-27 | 幻蝎科技(武汉)有限公司 | 眼动追踪滑行输入方法、系统、智能终端及眼动追踪装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115562496A (zh) | 2023-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113240056B (zh) | 多模态数据联合学习模型训练方法及装置 | |
CN110020411B (zh) | 图文内容生成方法及设备 | |
CN111654746B (zh) | 视频的插帧方法、装置、电子设备和存储介质 | |
CN112102448B (zh) | 虚拟对象图像显示方法、装置、电子设备和存储介质 | |
KR102087807B1 (ko) | 문자 입력 방법 및 장치 | |
US11734899B2 (en) | Headset-based interface and menu system | |
JP7384943B2 (ja) | 文字生成モデルのトレーニング方法、文字生成方法、装置、機器及び媒体 | |
US11709593B2 (en) | Electronic apparatus for providing a virtual keyboard and controlling method thereof | |
US20160085518A1 (en) | Systems and methods for imaging and generation of executable processor instructions based on ordered objects | |
CN111259183B (zh) | 图像识图方法、装置、电子设备和介质 | |
CN114743196B (zh) | 文本识别的方法及装置、神经网络的训练方法 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN115376211B (zh) | 唇形驱动方法、唇形驱动模型的训练方法、装置及设备 | |
CN115879469B (zh) | 文本数据处理方法、模型训练方法、装置及介质 | |
CN115809325B (zh) | 文档处理模型训练方法、文档处理方法、装置及设备 | |
KR20210040883A (ko) | 이미지 처리 방법, 장치, 전자 기기 및 저장 매체 | |
CN113359995B (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN112667118A (zh) | 显示历史聊天消息的方法、设备以及计算机可读介质 | |
CN115438214A (zh) | 处理文本图像的方法、神经网络及其训练方法 | |
CN114550313B (zh) | 图像处理方法、神经网络及其训练方法、设备和介质 | |
CN115511779A (zh) | 图像检测方法、装置、电子设备和存储介质 | |
CN117608738A (zh) | 浏览器交互方法、装置、设备、可读存储介质及产品 | |
CN113360683A (zh) | 训练跨模态检索模型的方法以及跨模态检索方法和装置 | |
CN113139608A (zh) | 基于多任务学习的特征融合方法及装置 | |
CN116402914B (zh) | 用于确定风格化图像生成模型的方法、装置及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |