CN117784919A - 虚拟输入设备的显示方法、装置、电子设备以及存储介质 - Google Patents
虚拟输入设备的显示方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN117784919A CN117784919A CN202211154128.4A CN202211154128A CN117784919A CN 117784919 A CN117784919 A CN 117784919A CN 202211154128 A CN202211154128 A CN 202211154128A CN 117784919 A CN117784919 A CN 117784919A
- Authority
- CN
- China
- Prior art keywords
- virtual input
- input device
- user
- information
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000003190 augmentative effect Effects 0.000 claims abstract description 55
- 238000004590 computer program Methods 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及一种虚拟输入设备的显示方法、装置、电子设备以及存储介质,适用于扩展现实设备,方法包括:获取当前用户所处环境中的至少一个物体;从所述至少一个物体中,确定目标物体;在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。其提供了一个可进行信息输入的虚拟输入设备,满足用户信息输入的需求。并且,由于所显示的虚拟输入设备是附着在目标物体上的,其可以提高虚拟世界的真实性,使得虚拟世界与现实世界尽可能接近,提升用户使用扩展现实设备的“沉浸感”。
Description
技术领域
本公开涉及扩展现实技术领域,尤其涉及一种虚拟输入设备的显示方法、装置、电子设备以及存储介质。
背景技术
扩展现实(Extended Reality,简称XR),是指通过计算机将真实与虚拟相结合,打造一个可人机交互的虚拟环境,这也是AR、VR、MR等多种技术的统称。扩展现实为体验者带来虚拟世界与现实世界之间无缝转换的“沉浸感”。
用户在使用扩展现实设备时,经常有进行信息输入的需求,如将英文单词、汉字、数字、标点符号等输入到扩展现实设备的需求。针对此种情况,如何满足用户的信息输入需求是目前亟待解决的问题。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种虚拟输入设备的显示方法、装置、电子设备以及存储介质。
第一方面,本公开提供了一种虚拟输入设备的显示方法,适用于扩展现实设备,包括:
获取当前用户所处环境中的至少一个物体;
从所述至少一个物体中,确定目标物体;
在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。
第二方面,本公开还提供了一种虚拟输入设备的显示装置,适用于扩展现实设备,包括:
获取模块,用于获取当前用户所处环境中的至少一个物体;
确定模块,用于从所述至少一个物体中,确定目标物体;
显示模块,用于在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。
第三方面,本公开还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的虚拟输入设备的显示方法。
第四方面,本公开还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的虚拟输入设备的显示方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例提供的技术方案设置获取当前用户所处环境中的至少一个物体;从至少一个物体中,确定目标物体;在扩展现实空间中显示虚拟输入设备,虚拟输入设备附着在目标物体上。其提供了一个可进行信息输入的虚拟输入设备,满足用户信息输入的需求。并且,由于所显示的虚拟输入设备是附着在目标物体上的,其可以提高虚拟世界的真实性,使得虚拟世界与现实世界尽可能接近,提升用户使用扩展现实设备的“沉浸感”。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的一种扩展现实终端设备的结构框图;
图2为本公开实施例提供的一种头盔式显示器应用场景的示意图;
图3为本公开实施例提供的一种虚拟输入设备的显示方法的流程图;
图4为本公开实施例提供的一种用于控制显示虚拟输入键盘的手势的示意图;
图5为本公开实施例中的一种虚拟输入设备的显示装置的结构示意图;
图6为本公开实施例中的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
扩展现实(Extended Reality,简称XR),是指通过计算机将真实与虚拟相结合,打造一个可人机交互的虚拟环境,这也是AR、VR、MR等多种技术的统称。通过将三者的视觉交互技术相融合,为体验者带来虚拟世界与现实世界之间无缝转换的“沉浸感”。
扩展现实终端设备,是可以实现扩展现效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据需要可以进一步小型化或大型化。
扩展现实终端设备可以营造虚拟场景。虚拟场景,是应用程序在电子设备上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。
图1为本公开实施例提供的一种扩展现实终端设备的结构框图。参见图1,示例性地,扩展现实终端设备为头盔式显示器(Head Mount Display,HMD)。其主要功能模块可以包括但不限于以下的构成:1)检测(模块):使用各种传感器检测用户的操作命令,并作用于虚拟环境,如跟随用户的视线而不断更新在显示屏上显示的影像,实现用户与虚拟和场景的交互,例如基于检测到的用户头部的转动方向来不断更新现实内容;2)反馈(模块):接收来自传感器的数据,为用户提供实时反馈;3)传感器:一方面接受来自用户的操作命令,并将其作用于虚拟环境;另一方面将操作后产生的结果以各种反馈的形式提供给用户;4)控制模块:对传感器和各种输入/输出装置进行控制,包括获得用户的数据(如动作、语音)和输出感知数据,如图像、振动、温度和声音等,对用户、虚拟环境和现实世界产生作用;5)建模模块:构造虚拟环境的三维模型,还可以包括三维模型中的声音、触感等各种反馈机制。
在虚拟现实场景中,用户对目标对象进行选中可以通过控制器实现,该控制器可以为手柄,用户通过对手柄的按键的操作来选中目标对象。当然在另外的实施例中,也可以不使用控制器而使用手势或者语音对扩展现实终端设备中的目标对象进行控制。其中,目标对象为虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制。
头盔式显示器为相对较轻的、在人体工程学上舒适的,并且提供具有低延迟的高分辨率内容。图2为本公开实施例提供的一种头盔式显示器应用场景的示意图。参见图2,虚拟现实设备中设置有姿态检测的传感器(如九轴传感器),用于实时检测虚拟现实设备的姿态变化,如果用户佩戴了虚拟现实设备,那么当用户头部姿态发生变化时,会将头部的实时姿态传给处理器,以此计算用户的视线在虚拟环境中的注视点,根据注视点计算虚拟环境的三维模型中处于用户注视范围(即虚拟视场)的图像,并在显示屏上显示,使人仿佛在置身于现实环境中观看一样的沉浸式体验。
目前,用户在使用扩展现实设备时,经常有进行信息输入的需求,如将英文单词、汉字、数字、标点符号等输入到扩展现实设备的需求。针对此种情况,如何满足用户的信息输入需求是目前亟待解决的问题。
针对于此,图3为本公开实施例提供的一种虚拟输入设备的显示方法的流程图,该方法应用于扩展现实XR终端设备。如图3所示,该方法具体可以包括:
S110、获取当前用户所处环境中的至少一个物体。
本步骤的实质是对当前用户所处环境中的物体进行识别,以得到当前用户所处环境包括的各物体的相关信息。
物体的相关信息是物体自身构造、组成、位置所具有的特征。示例性地,物体的相关信息包括物体的名称、样式、尺寸、颜色、物体在环境中的位置以及物体相对用户的位置等。
在本申请中,用户是指扩展现实设备的佩戴者。
本步骤的具体实现方法有多种,本申请对此不作限制。示例性地,本步骤的实现方法包括:对用户所处环境各位置的深度信息进行检测,基于检测结果,得到当前用户所处环境中的至少一个物体。深度信息是指该位置距扩展现实设备的距离。
在实际中,深度信息可以是具有深度信息采集功能的设备直接采集的结果,也可以是对具有深度信息采集功能的设备直接采集的结果进行预处理,得到的预处理结果。其中,对用户所处环境中各位置的深度信息进行采集可以依赖于ToF(Time of Fly,飞行时间)测距技术、毫米波测距技术、声波测距技术以及双目摄像头测距技术中的一种或多个实现。
若深度信息是对具有深度信息采集功能的设备直接采集的结果进行预处理,得到的预处理结果。其预处理具体包括但不限于用于降噪的滤波处理。
S120、从至少一个物体中,确定目标物体。
目标物体是指用于模拟现实世界中可以支持输入设备的物体。示例性地,目标物体可以为桌面或者墙壁等。
本步骤的具体实现方法有多种,本申请对此不作限制。示例性地,基于至少一个物体的相关信息和/或用户意图信息,从至少一个物体中,确定目标物体。
用户意图信息是能够反映用户需求的信息。用户意图信息基于用户输入的手势信息、语音信息、对控制器的操作信息以及用户与扩展现实设备的交互记录中的至少一种得到。在确定目标物体的场景下,用户意图信息能够辅助缩小目标物体的确定范围。
在一个实施例中,用户通过控制器发射激光,使得激光光斑停留在某一位置上,此时,用户意图信息为将激光光斑停留位置处的物体确定为目标物体。或者,用户意图信息为以激光光斑停留位置为基准点,将距离该基准点第二预设距离内的物体确定为目标物体。此种情况下,需要结合物体的相关信息,确定哪些物体距离该基准点的距离小于第二预设距离。若距离该基准点的距离小于第二预设距离的物体只有一个,将该物体确定为目标物体。若距离该基准点的距离小于第二预设距离的物体有多个,可以进一步结合这些物体的相关信息(如是否包括平面等)确定将哪个物体确定为目标物体。
在另一个实施例中,用户通过手势选择某个物体,此时,用户意图信息为将用户通过手势所选择的物体确定为目标物体。或者,用户通过手势比划出希望显示的虚拟输入设备的尺寸。此时,用户意图信息为将能够“摆放”用户希望显示的尺寸的虚拟输入设备的物体确定为目标物体。
在另一个实施例中,用户通过语音的方式表达出希望将某个物体作为目标物体,此时,用户意图信息为将用户通过语音的方式选择的物体确定为目标物体。或者,用户通过语音的方式表达出希望作为目标物体的特征信息,此时,用户意图信息为将具有用户所描述的特征的物体确定为目标物体。或者,用户通过语音的方式表达出希望得到的输入设备的特征信息,此时,用户意图信息为将能够“摆放”具有用户所描述的特征的虚拟输入设备的物体确定为目标物体。
S130、在扩展现实空间中显示虚拟输入设备,虚拟输入设备附着在目标物体上。
虚拟输入设备包括但不限于虚拟键盘或虚拟数位板等。
虚拟输入设备附着在目标物体上,是指在视觉上,虚拟输入设备的视觉形象摆放在目标物体上。
上述技术方案设置获取当前用户所处环境中的至少一个物体;从至少一个物体中,确定目标物体;在扩展现实空间中显示虚拟输入设备,虚拟输入设备附着在目标物体上。其提供了一个可进行信息输入的虚拟输入设备,满足用户信息输入的需求。并且,由于所显示的虚拟输入设备是附着在目标物体上的,其可以提高虚拟世界的真实性,使得虚拟世界与现实世界尽可能接近,提升用户使用扩展现实设备的“沉浸感”。
在一个实施例中,可以设置目标物体距用户距离小于第一预设距离,目标物体包括平面,虚拟输入设备附着在目标物体的平面上。由于后续虚拟输入设备将附着在目标物体上,这样设置的目的是,确保用户在尽可能少的移动或不移动的情况下,就能“触碰”到虚拟输入设备,并以较为舒适的姿势进行信息输入,可以提高用户信息输入时的便捷性。
可选地,第一预设距离为用户的一臂距离,这样用户在不移动的情况下,仅通过伸手臂,就能“触碰”到虚拟输入设备,完成信息输入,可以进一步提高用户信息输入时的便捷性。
在上述各技术方案的基础上,可选地,该方法还包括:基于至少一个物体的相关信息和/或用户意图信息,确定虚拟输入设备的目标参数,以使在扩展现实空间中显示的虚拟输入设备的参数与目标参数一致。
目标参数是指决定虚拟输入设备最终显示效果的参数。示例性地,目标参数包括下述中的至少一个:虚拟输入设备的显示位置坐标、虚拟输入设备的尺寸、虚拟输入设备所包括的按键的数量、虚拟输入设备所包括的按键类型以及虚拟输入设备中按键的排布方式。
用户意图信息是能够反映用户需求的信息。用户意图信息基于用户输入的手势信息、语音信息、对控制器的操作信息以及用户与扩展现实设备的交互记录中的至少一种得到。在确定虚拟输入设备的目标参数的场景下,用户意图信息能够辅助扩展现实设备明确用户需求,以显示与用户需求一致的虚拟输入设备。
在一个实施例中,用户通过控制器发射激光,使得激光绘制预设图形(如长方形),基于此,得到的用户意图信息为需要显示的虚拟输入设备的几何中心与通过激光光斑绘制的预设图形的几何中心重合,且虚拟输入设备位于所绘制的预设图形内。
在另一个实施例中,用户通过手势比划出希望显示的虚拟输入设备的大小。基于此,得到的用户意图信息为,需要显示其所比划的大小的虚拟输入设备。
在另一个实施例中,用户通过语音的方式表达出希望显示的虚拟输入设备的参数(如全键盘),基于此,得到的用户意图信息为显示全键盘形式的虚拟键盘。
在另一个实施例中,用户与扩展现实设备的交互记录表明接下来用户将要输入数字(如输入密码、验证码或手机号),基于此,得到的用户意图信息为显示数字形式的虚拟键盘。这里数字形式的虚拟键盘是指包括阿拉伯数字按键,不包括英文字母按键,不包括表情符号按键的虚拟键盘。
需要说明的是,本申请对步骤“基于所述至少一个物体的相关信息和/或用户意图信息,从所述至少一个物体中,确定目标物体”和步骤“基于所述至少一个物体的相关信息和/或用户意图信息,确定所述虚拟输入设备的目标参数”的执行顺序不作限制。换言之两个步骤可以同步执行;也可以分先后顺序执行。即可以先确定虚拟输入设备的目标参数,然后确定用于“摆放”虚拟输入设备的目标物体。还可以先确定用于“摆放”虚拟输入设备的目标物体,然后确定虚拟输入设备的目标参数。
若先确定虚拟输入设备的目标参数,然后确定用于“摆放”虚拟输入设备的目标物体,虚拟输入设备的目标参数可以作为一个影响量,纳入到确定目标物体的考量因素内,一并予以考量。若先确定用于“摆放”虚拟输入设备的目标物体,然后确定虚拟输入设备的目标参数,目标物体的属性(如尺寸等)可以作为一个影响量,纳入到确定虚拟输入设备的目标参数的考量因素内,一并予以考量。
在上述技术方案的基础上,可选地,在扩展现实空间中显示虚拟输入设备之后,该方法还包括:响应于虚拟输入设备中按键被选中的指令,展示用于提示按键被选中的信息。
用户在对虚拟输入设备中按键进行触发操作时,共生成两个指令,一个是按键被选中的指令,一个是按键被触发的指令。按键被选中的指令先于按键被触发的指令生成。
可选地,响应于虚拟输入设备中按键被选中的指令,展示用于提示按键被选中的信息,该信息用于表示在当前情况下,如果继续完成指定触发操作(如完成点击或双击等动作,或说出触发动作名称),将触发该按键。响应于按键被触发的指令,执行与被触发按键对应的逻辑程序。因此,通过展示按键被选中的信息,可以帮用户明了当前用户所选中的按键是否为其希望触发的按键,进而达到降低误触的几率。
可选地,响应于虚拟输入设备中按键被选中的指令,展示用于提示按键被选中的信息,包括:响应于虚拟输入设备中按键被选中的指令,改变按键的背景颜色、轮廓线颜色以及尺寸中至少一个。这样设置可以便于用户直观地确定当前选中的是哪个按键,进一步达到降低误触的目的。
可选地,在实际中,若用户所持控制器距某按键的距离小于设定距离,生成按键被选中的指令。或者,若用户所持控制器形成的射线距离某按键的距离小于设定距离,生成按键被选中的指令。或者,若用户手部(如手指)距某按键的距离小于设定距离,生成按键被选中的指令。或者,若用户注视点距某按键的距离小于设定距离,生成按键被选中的指令。或者,用户通过语音方式说出某按键的标识信息,未说出触发动作名称时,生成按键被选中的指令。
在上述各技术方案的基础上,可选地,可以设置虚拟输入设备的关闭机制。在实际中,可以设置的虚拟输入设备的关闭机制有多种,本申请对此不作限制。
在一个实施例中,还可以设置若在预设时间长度内未检测到对虚拟输入设备的操作,关闭虚拟输入设备。由于在预设时间长度内未检测到对虚拟输入设备的操作,意味着用户目前不需要使用该虚拟输入设备了,此种情况下,关闭虚拟输入设备,可以避免误触。
在另一个实施例中,还可以设置若扩展现实空间中包括的虚拟输入设备的个数大于或等于两个时,保留最后显示的虚拟输入设备,关闭其余虚拟输入设备。
示例性地,用户在A位置处需要进行信息输入时,控制显示虚拟输入设备A1,虚拟输入设备A1在A位置附近,以便于用户能够在A位置进行信息输入。当用户从A位置移动到B位置后,需要进行信息输入时,控制显示虚拟输入设备B1,虚拟输入设备B1在B位置附近,以便于用户能够在B位置进行信息输入。当显示虚拟输入设备B1时,关闭虚拟输入设备A1。
由于最后显示的虚拟输入设备是根据用户最近一次的使用需求生成的,最能满足用户的需求,因此保留最后显示的虚拟输入设备,关闭其余虚拟输入设备,可以避免误触,也避免用户视野中出现过多无用的虚拟输入设备。
在另一个实施例中,还可以在扩展现实空间中显示关闭控件,该关闭控件用于关闭虚拟输入设备;当检测到用户对该关闭控件进行触发操作,关闭与该关闭控件对应的虚拟输入设备。
图4为本公开实施例提供的一种用于控制显示虚拟输入键盘的手势的示意图。参见图4,该手势为双臂伸于胸前,双手四指并拢伸直,伸直,且大拇指与食指夹角大于预设角度(如30°)。当检测到用户做出该手势时,获取当前用户所处环境中的至少一个物体;基于至少一个物体的相关信息和/或用户意图信息,从至少一个物体中,确定目标物体以及虚拟输入设备的目标参数。具体地,根据用户做出该手势时,用户手与扩展现实设备的距离以及用户双手之间的距离确定用户意图信息。示例性地,若用户手与扩展现实设备的距离较远,选择距离用户较远的物体作为目标物体;若用户手与扩展现实设备的距离较近,选择距离用户较近的物体作为目标物体。若用户双手之间的距离较远,目标参数中虚拟输入设备的尺寸较大;若用户双手之间的距离较近,目标参数中虚拟输入设备的尺寸较小。在扩展现实空间中显示虚拟输入设备,虚拟输入设备附着在目标物体上,并且所显示的虚拟输入设备的参数与目标参数一致。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
图5为本公开实施例中的一种虚拟输入设备的显示装置的结构示意图。本公开实施例所提供的虚拟输入设备的显示装置适用于扩展现实设备。参见图5,该虚拟输入设备的显示装置具体包括:
获取模块510,用于获取当前用户所处环境中的至少一个物体;
确定模块520,用于从所述至少一个物体中,确定目标物体;
显示模块530,用于在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。
进一步地,确定模块,用于:
基于所述至少一个物体的相关信息和/或用户意图信息,从所述至少一个物体中,确定目标物体;所述用户意图信息基于用户输入的手势信息、语音信息、对控制器的操作信息以及用户与扩展现实设备的交互记录中的至少一种得到。
进一步地,所述目标物体距用户距离小于第一预设距离,所述目标物体包括平面,所述虚拟输入设备附着在所述目标物体的所述平面上。
进一步地,确定模块,用于:
基于所述至少一个物体的相关信息和/或用户意图信息,确定所述虚拟输入设备的目标参数,以使在所述扩展现实空间中显示的所述虚拟输入设备的参数与所述目标参数一致;所述用户意图信息基于用户输入的手势信息、语音信息、对控制器的操作信息以及用户与扩展现实设备的交互记录中的至少一种得到。
进一步地,所述目标参数包括下述中的至少一个:所述虚拟输入设备的显示位置坐标、所述虚拟输入设备的尺寸、所述虚拟输入设备所包括的按键的数量、所述虚拟输入设备所包括的按键类型以及所述虚拟输入设备中按键的排布方式。
进一步地,展示模块还用于:
响应于所述虚拟输入设备中按键被选中的指令,展示用于提示所述按键被选中的信息。
进一步地,展示模块还用于:
响应于所述虚拟输入设备中按键被选中的指令,改变所述按键的背景颜色、轮廓线颜色以及尺寸中至少一个。
进一步地,该装置还包括关闭模块,用于:
若在预设时间长度内未检测到对所述虚拟输入设备的操作,关闭所述虚拟输入设备。
进一步地,该装置还包括关闭模块,用于:
若扩展现实空间中包括的所述虚拟输入设备的个数大于或等于两个时,保留最后显示的所述虚拟输入设备,关闭其余所述虚拟输入设备。
本公开实施例提供的虚拟输入设备的显示装置,可执行本公开方法实施例所提供的虚拟输入设备的显示方法中的步骤,具备执行步骤和有益效果,此处不再赘述。
图6为本公开实施例中的一种电子设备的结构示意图。下面具体参考图6,其示出了适于用来实现本公开实施例中的电子设备1000的结构示意图。本公开实施例中的电子设备1000可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)、可穿戴电子设备等等的移动终端以及诸如数字TV、台式计算机、智能家居设备等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备1000可以包括处理装置(例如中央处理器、图形处理器等)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储装置1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理以实现如本公开所述的实施例的虚拟输入设备的显示方法。在RAM 1003中,还存储有电子设备1000操作所需的各种程序和信息。处理装置1001、ROM 1002以及RAM1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
通常,以下装置可以连接至I/O接口1005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1006;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1007;包括例如磁带、硬盘等的存储装置1008;以及通信装置1009。通信装置1009可以允许电子设备1000与其他设备进行无线或有线通信以交换信息。虽然图6示出了具有各种装置的电子设备1000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码,从而实现如上所述的虚拟输入设备的显示方法。在这样的实施例中,该计算机程序可以通过通信装置1009从网络上被下载和安装,或者从存储装置1008被安装,或者从ROM 1002被安装。在该计算机程序被处理装置1001执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的信息信号,其中承载了计算机可读的程序代码。这种传播的信息信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字信息通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
获取当前用户所处环境中的至少一个物体;
从所述至少一个物体中,确定目标物体;
在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。
可选的,当上述一个或者多个程序被该电子设备执行时,该电子设备还可以执行上述实施例所述的其他步骤。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,本公开提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开提供的任一所述的虚拟输入设备的显示方法。
根据本公开的一个或多个实施例,本公开提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开提供的任一所述的虚拟输入设备的显示方法。
本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括计算机程序或指令,该计算机程序或指令被处理器执行时实现如上所述的虚拟输入设备的显示方法。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (12)
1.一种虚拟输入设备的显示方法,其特征在于,适用于扩展现实设备,包括:
获取当前用户所处环境中的至少一个物体;
从所述至少一个物体中,确定目标物体;
在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。
2.根据权利要求1所述的方法,其特征在于,所述从所述至少一个物体中,确定目标物体,包括;
基于所述至少一个物体的相关信息和/或用户意图信息,从所述至少一个物体中,确定目标物体;所述用户意图信息基于用户输入的手势信息、语音信息、对控制器的操作信息以及用户与扩展现实设备的交互记录中的至少一种得到。
3.根据权利要求2所述的方法,其特征在于,所述目标物体距用户距离小于第一预设距离,所述目标物体包括平面,所述虚拟输入设备附着在所述目标物体的所述平面上。
4.根据权利要求1所述的方法,其特征在于,还包括:
基于所述至少一个物体的相关信息和/或用户意图信息,确定所述虚拟输入设备的目标参数,以使在所述扩展现实空间中显示的所述虚拟输入设备的参数与所述目标参数一致;所述用户意图信息基于用户输入的手势信息、语音信息、对控制器的操作信息以及用户与扩展现实设备的交互记录中的至少一种得到。
5.根据权利要求4所述的方法,其特征在于,所述目标参数包括下述中的至少一个:所述虚拟输入设备的显示位置坐标、所述虚拟输入设备的尺寸、所述虚拟输入设备所包括的按键的数量、所述虚拟输入设备所包括的按键类型以及所述虚拟输入设备中按键的排布方式。
6.根据权利要求1所述的方法,其特征在于,还包括:
响应于所述虚拟输入设备中按键被选中的指令,展示用于提示所述按键被选中的信息。
7.根据权利要求6所述的方法,其特征在于,所述响应于所述虚拟输入设备中按键被选中的指令,展示用于提示所述按键被选中的信息,包括:
响应于所述虚拟输入设备中按键被选中的指令,改变所述按键的背景颜色、轮廓线颜色以及尺寸中至少一个。
8.根据权利要求1所述的方法,其特征在于,还包括:
若在预设时间长度内未检测到对所述虚拟输入设备的操作,关闭所述虚拟输入设备。
9.根据权利要求1所述的方法,其特征在于,还包括:
若扩展现实空间中包括的所述虚拟输入设备的个数大于或等于两个时,保留最后显示的所述虚拟输入设备,关闭其余所述虚拟输入设备。
10.一种虚拟输入设备的显示装置,其特征在于,适用于扩展现实设备,包括:
获取模块,用于获取当前用户所处环境中的至少一个物体;
确定模块,用于从所述至少一个物体中,确定目标物体;
显示模块,用于在扩展现实空间中显示虚拟输入设备,所述虚拟输入设备附着在所述目标物体上。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211154128.4A CN117784919A (zh) | 2022-09-21 | 2022-09-21 | 虚拟输入设备的显示方法、装置、电子设备以及存储介质 |
US18/468,063 US20240096043A1 (en) | 2022-09-21 | 2023-09-15 | Display method, apparatus, electronic device and storage medium for a virtual input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211154128.4A CN117784919A (zh) | 2022-09-21 | 2022-09-21 | 虚拟输入设备的显示方法、装置、电子设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117784919A true CN117784919A (zh) | 2024-03-29 |
Family
ID=90243977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211154128.4A Pending CN117784919A (zh) | 2022-09-21 | 2022-09-21 | 虚拟输入设备的显示方法、装置、电子设备以及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240096043A1 (zh) |
CN (1) | CN117784919A (zh) |
-
2022
- 2022-09-21 CN CN202211154128.4A patent/CN117784919A/zh active Pending
-
2023
- 2023-09-15 US US18/468,063 patent/US20240096043A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240096043A1 (en) | 2024-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11320957B2 (en) | Near interaction mode for far virtual object | |
JP6013583B2 (ja) | 有効インターフェース要素の強調のための方式 | |
WO2018098861A1 (zh) | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 | |
US9965039B2 (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
CN110633008B (zh) | 用户交互解释器 | |
US20160103655A1 (en) | Co-Verbal Interactions With Speech Reference Point | |
EP2814000A1 (en) | Image processing apparatus, image processing method, and program | |
US11182044B2 (en) | Device, method, and graphical user interface for manipulating 3D objects on a 2D screen | |
US11803233B2 (en) | IMU for touch detection | |
US11886673B2 (en) | Trackpad on back portion of a device | |
KR20180058097A (ko) | 이미지를 표시하는 전자 장치 및 그 제어 방법 | |
US20230081605A1 (en) | Digital assistant for moving and copying graphical elements | |
CN117784919A (zh) | 虚拟输入设备的显示方法、装置、电子设备以及存储介质 | |
US20230315208A1 (en) | Gesture-based application invocation | |
US20230342026A1 (en) | Gesture-based keyboard text entry | |
US20230401798A1 (en) | Accessible mixed reality applications | |
US20240103625A1 (en) | Interaction method and apparatus, electronic device, storage medium, and computer program product | |
US20230384928A1 (en) | Ar-based virtual keyboard | |
CN117270732A (zh) | 一种控件交互方法、装置、电子设备以存储介质 | |
CN117075770A (zh) | 基于扩展现实的交互控制方法、装置、电子设备和存储介质 | |
CN117919686A (zh) | 控件选择方法、装置、电子设备和计算机可读存储介质 | |
CN117631810A (zh) | 基于虚拟现实空间的操作处理方法、装置、设备及介质 | |
CN116974373A (zh) | 人机交互方法及装置、存储介质及电子设备 | |
CN117991889A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
CN116382469A (zh) | 双手手势识别方法、交互界面显示方法和头戴式显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |