CN115309271B - 基于混合现实的信息展示方法、装置、设备及存储介质 - Google Patents
基于混合现实的信息展示方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115309271B CN115309271B CN202211195084.XA CN202211195084A CN115309271B CN 115309271 B CN115309271 B CN 115309271B CN 202211195084 A CN202211195084 A CN 202211195084A CN 115309271 B CN115309271 B CN 115309271B
- Authority
- CN
- China
- Prior art keywords
- user
- control
- display
- target
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000033001 locomotion Effects 0.000 claims description 116
- 239000011521 glass Substances 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 20
- 239000004984 smart glass Substances 0.000 claims description 17
- 230000001133 acceleration Effects 0.000 claims description 13
- 238000012790 confirmation Methods 0.000 claims description 13
- 230000005057 finger movement Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000005562 fading Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 210000003811 finger Anatomy 0.000 description 116
- 230000003993 interaction Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 210000003813 thumb Anatomy 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000004898 kneading Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供一种基于混合现实的信息展示方法、装置、设备及存储介质,涉及混合现实技术领域。本方法通过识别用户的第一选择指令选择目标对象,以提高目标对象选择的精确性,通过识别用户的第二选择指令选择目标对象的显示信息的目标显示位置,从而可将目标对象的显示信息显示在所选择的目标显示位置处,从而以更加符合用户操作需求的位置来显示目标对象的显示信息,提高了用户的操作体验感。
Description
技术领域
本申请涉及混合现实技术领域,具体而言,涉及一种基于混合现实的信息展示方法、装置、设备及存储介质。
背景技术
随着增强现实技术的不断发展,混合现实技术由于强大的交互性能被广泛应用在多个领域,混合现实形成了一个把虚拟世界和真实世界结合在一起的全新环境,使之形象化,在物理和数字对象之中共存,实时交互。混合现实不是单纯地发生在虚拟世界或者真实世界,而是借助沉浸技术包容了增强现实和增强虚拟,并将两者结合在一起。
目前,在混合现实场景中执行交互的过程中,物体的控制界面及相关信息的显示形式和显示位置不便于用户操作,用户体验较差。
发明内容
本申请的目的在于,针对上述现有技术中的不足,提供一种基于混合现实的信息展示方法、装置、设备及存储介质,以便于解决现有技术中存在的混合现实场景中界面展示位置不便操作,用户体验较差的问题。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种基于混合现实的信息展示方法,应用于混合现实场景,所述混合现实场景由真实场景以及智能眼镜的屏幕上显示的虚拟场景叠加而成;所述方法包括:
响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定所述预设手指的目标停留位置;
根据所述预设手指的初始位置与所述目标停留位置、虚拟光标的初始位置、以及预先配置的所述预设手指移动距离与所述虚拟光标的移动距离及移动方向的映射关系,移动所述虚拟光标至目标位置,获取所述虚拟光标的目标位置处的对象;
响应用户输入的对象选中操作,确定所述虚拟光标的目标位置处的对象为目标对象;
响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;
根据所述目标对象的显示信息,在所述目标显示位置上显示所述目标对象的显示信息,所述显示信息包括:目标对象的控制界面及目标对象的关联信息。
可选地,所述响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置,包括:
响应用户输入的显示位置的选择开启指令,按照预设的展示方式展示多种显示位置的图标;
识别用户的手部运动轨迹和手势,根据所述手部运动轨迹,切换并显示各显示位置的图标;
响应用户针对当前显示的显示位置的图标的确认操作,确定当前显示的显示位置的图标所对应的显示位置为所述目标显示位置。
可选地,所述识别用户的手部运动轨迹,根据所述手部运动轨迹,切换并显示各显示位置的图标,包括:
识别用户的手部运动轨迹和手势,判断用户是否保持同一手势朝着预设方向运动;
若是,则根据用户手部的运动方向,切换并显示各显示位置的图标。
可选地,所述在所述目标显示位置上显示所述目标对象的显示信息之后,还包括:
根据所述目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整所述目标显示位置。
可选地,所述根据所述目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整所述目标显示位置,包括:
若所述目标显示位置为第一位置,则按照识别的用户的第一部位的运动轨迹,实时控制所述目标显示位置进行移动;
若所述目标显示位置为第二位置,则按照识别的用户的第二部位的运动轨迹,实时控制所述目标显示位置进行移动;
若所述目标显示位置为第三位置,则按照识别的用户的第三部位的运动轨迹,实时控制所述目标显示位置进行移动。
可选地,所述响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置,包括:
识别用户的手部运动轨迹和手势,若用户保持同一手势沿着预设方向运动,直至运动距离超过预设距离,则展示信息输入界面;
响应用户在信息输入界面的输入操作,获取用户输入的自定义显示位置,确定用户输入的自定义显示位置为所述目标显示位置。
可选地,在所述目标显示位置上显示所述目标对象的显示信息之后,包括:
响应用户的显示位置切换操作,控制所述目标显示位置由距离所述目标对象预设距离处切换至距离所述用户预设距离处,或者控制所述目标显示位置由距离所述用户预设距离处切换至距离所述目标对象预设距离。
可选地,在所述目标显示位置上显示所述目标对象的显示信息,包括:
在所述目标显示位置上以第一形状显示所述目标对象的控制界面中的第一类控件,以第二形状显示除所述第一类控件之外的第二类控件,所述第一类控件用于表征需要用户再次确认的控件,所述第二类控件用于表征不需要用户再次确认的控件。
可选地,在所述目标显示位置上以第一形状显示所述目标对象的控制界面中的第一类控件,包括:
在所述目标显示位置上以第一显示高度显示所述目标对象的控制界面中的一级控件,其中,以第一形状显示所述一级控件中的第一类控件以及以第二形状显示所述一级控件中的第二类控件,所述第一显示高度基于智能眼镜的当前位置以及地面的位置进行确定。
可选地,所述在所述目标显示位置上按照第一显示高度显示所述目标对象的控制界面中的一级控件,包括:
响应用户针对所述一级控件中第一控件的确认操作,在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,所述第二显示高度高于所述第一显示高度,依次执行,在所述目标显示位置上以不同显示高度显示所述目标对象的控制界面中的各级控件,且各级控件在水平方向上依次错开。
可选地,所述在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,包括:
在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,同时隐藏或淡化所述一级控件中除所述第一控件之外的控件。
可选地,所述方法还包括:
识别用户的预设手指的运动轨迹;
若针对所述第一类控件,所述运动轨迹满足第一轨迹,则执行所述第一类控件对应的功能;
若针对所述第一类控件,所述运动轨迹满足第二轨迹,则展示取消控件,所述取消控件用于取消所述第一类控件对应的功能。
第二方面,本申请实施例还提供了一种基于混合现实的信息展示装置,应用于混合现实场景,所述混合现实场景由真实场景以及智能眼镜的屏幕上显示的虚拟场景叠加而成;所述装置包括:确定模块、显示模块;
所述确定模块,用于响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定所述预设手指的目标停留位置;
所述确定模块,用于根据所述预设手指的初始位置与所述目标停留位置、虚拟光标的初始位置、以及预先配置的所述预设手指移动距离与所述虚拟光标的移动距离及移动方向的映射关系,移动所述虚拟光标至目标位置,获取所述虚拟光标的目标位置处的对象;
所述确定模块,用于响应用户输入的对象选中操作,确定所述虚拟光标的目标位置处的对象为目标对象;
所述确定模块,用于响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;
所述显示模块,用于在所述目标显示位置上显示所述目标对象的显示信息,所述显示信息包括:目标对象的控制界面及目标对象的关联信息。
可选地,所述确定模块,具体用于响应用户输入的显示位置的选择开启指令,按照预设的展示方式展示多种显示位置的图标;
识别用户的手部运动轨迹,根据所述手部运动轨迹,切换并显示各显示位置的图标;
响应用户针对当前显示的显示位置的图标的确认操作,确定当前显示的显示位置的图标所对应的显示位置为所述目标显示位置。
可选地,所述确定模块,具体用于识别用户的手部运动轨迹和手势,判断用户是否保持同一手势朝着预设方向运动;
若是,则根据用户手部的运动方向,切换并显示各显示位置的图标。
可选地,所述装置还包括:调整模块;
所述调整模块,用于根据所述目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整所述目标显示位置。
可选地,所述调整模块,具体用于若所述目标显示位置为第一位置,则按照识别的用户的第一部位的运动轨迹,实时控制所述目标显示位置进行移动;
若所述目标显示位置为第二位置,则按照识别的用户的第二部位的运动轨迹,实时控制所述目标显示位置进行移动;
若所述目标显示位置为第三位置,则按照识别的用户的第三部位的运动轨迹,实时控制所述目标显示位置进行移动。
可选地,所述确定模块,具体用于识别用户的手部运动轨迹和手势,若用户保持同一手势沿着预设方向运动,直至运动距离超过预设距离,则展示信息输入界面;
响应用户在信息输入界面的输入操作,获取用户输入的自定义显示位置,确定用户输入的自定义显示位置为所述目标对象的显示信息的目标显示位置。
可选地,所述装置还包括:切换模块;
所述切换模块,用于响应用户的显示位置切换操作,控制所述目标显示位置由距离所述目标对象预设距离处切换至距离所述用户预设距离处,或者控制所述目标显示位置由距离所述用户预设距离处切换至距离所述目标对象预设距离。
可选地,所述显示模块,具体用于在所述目标显示位置上以第一形状显示所述目标对象的控制界面中的第一类控件,以第二形状显示除所述第一类控件之外的第二类控件,所述第一类控件用于表征需要用户再次确认的控件,所述第二类控件用于表征不需要用户再次确认的控件。
可选地,所述显示模块,具体用于在所述目标显示位置上以第一显示高度显示所述目标对象的控制界面中的一级控件,其中,以第一形状显示所述一级控件中的第一类控件以及以第二形状显示所述一级控件中的第二类控件,所述第一显示高度基于智能眼镜的当前位置以及地面的位置进行确定。
可选地,所述显示模块,具体用于响应用户针对所述一级控件中第一控件的确认操作,在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,所述第二显示高度高于所述第一显示高度,依次执行,在所述目标显示位置上以不同显示高度显示所述目标对象的控制界面中的各级控件,且各级控件在水平方向上依次错开。
可选地,所述显示模块,具体用于在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,同时隐藏或淡化所述一级控件中除所述第一控件之外的控件。
可选地,所述装置还包括:识别模块、执行模块、取消模块;
所述识别模块,用于识别用户的预设手指的运动轨迹;
所述执行模块,用于若针对所述第一类控件,所述运动轨迹满足第一轨迹,则执行所述第一类控件对应的功能;
所述取消模块,用于若针对所述第一类控件,所述运动轨迹满足第二轨迹,则展示取消控件,所述取消控件用于取消所述第一类控件对应的功能。
第三方面,本申请实施例提供了一种电子设备,包括:处理器、存储介质和总线,存储介质存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行机器可读指令,以执行时执行如第一方面中提供的方法的步骤。
第四方面,本申请实施例提供了一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面提供的方法的步骤。
本申请的有益效果是:
本申请提供一种基于混合现实的信息展示方法、装置、设备及存储介质,本方法通过识别用户的第一选择指令选择目标对象,以提高目标对象选择的精确性,通过识别用户的第二选择指令选择目标对象的显示信息的目标显示位置,从而可将目标对象的显示信息显示在所选择的目标显示位置处,从而以更加符合用户操作需求的位置来显示目标对象的显示信息,提高了用户的操作体验感。
其次,通过以预设形状向用户展示目标对象的控制界面中各级控件,可解决用户操作核心控件功能时无法反悔的问题。以预设展示层级向用户展示目标对象的控制界面中各级控件,可避免用户误操作,提高操作精度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的第一种基于混合现实的信息展示方法的流程示意图;
图2为本申请实施例提供的第二种基于混合现实的信息展示方法的流程示意图;
图3为本申请实施例提供的第一种用户交互示意图;
图4为本申请实施例提供的第三种基于混合现实的信息展示方法的流程示意图;
图5为本申请实施例提供的第四种基于混合现实的信息展示方法的流程示意图;
图6为本申请实施例提供的第二种用户交互示意图;
图7为本申请实施例提供的第五种基于混合现实的信息展示方法的流程示意图;
图8为本申请实施例提供的第三种用户交互示意图;
图9为本申请实施例提供的第六种基于混合现实的信息展示方法的流程示意图;
图10为本申请实施例提供的第四种用户交互示意图;
图11为本申请实施例提供的第五种用户交互示意图;
图12为本申请实施例提供的第六种用户交互示意图;
图13为本申请实施例提供的第七种基于混合现实的信息展示方法的流程示意图;
图14为本申请实施例提供的第七种用户交互示意图;
图15为本申请实施例提供的第八种用户交互示意图;
图16为本申请实施例提供的第八种基于混合现实的信息展示装置的示意图;
图17为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。
首先,对混合现实场景进行简单说明,目前混合现实技术的实现主要依靠于智能眼镜,也即VR眼镜,VR眼镜上可安装有摄像头和处理器,从而使得VR眼镜可以如终端设备一般,既可进行数据处理,也可进行图像显示。
用户登陆后,VR眼镜上的摄像头可以自动扫描当前的真实场景,得到真实场景的二维信息,经过处理得到三维信息,并对真实场景进行三维建模,基于三维建模结果,可以得到虚拟化后的真实场景中各对象的空间位置信息,从而可根据虚拟化后的真实场景中各对象的空间位置信息,对真实场景中的各对象叠加虚拟对象,将虚拟对象与真实场景完美结合。
这里,用户可透过VR眼镜直接看到真实场景,而叠加在真实场景中的虚拟对象则是在VR眼镜的镜片上显示,这里的镜片可以类似于显示器,可进行虚拟对象的显示。从而使得用户通过VR眼镜可以看到真实场景与虚拟场景的完美结合,为用户呈现出混合现实场景。
基于上述所得到的混合现实场景,本申请的方法则是基于用户在混合现实场景中所选中的任一对象,提供了多种对象的显示信息的显示位置的确定方法,从而以更加便于用户操作的显示位置对选中的对象的显示信息的显示,以提高用户进行混合现实交互的体验感。
如下将通过多个具体实施例对本申请所提供的基于混合现实的信息展示方法进行详细说明。
图1为本申请实施例提供的第一种基于混合现实的信息展示方法的流程示意图;本方法的执行主体可以是智能眼镜,当执行主体为智能眼镜时,智能眼镜除了安装有摄像头之外,还可集成有处理器,以获取图像并进行处理。当然执行主体也可以为独立的处理器,处理器可通过智能眼镜上的摄像头可扫描获取用户的操作指令进行处理,并根据处理结果控制智能眼镜上图像的显示。如图1所示,本申请的方法可包括:
S101、响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定预设手指的目标停留位置。
可选地,可先响应预设的第一选择指令开启操作,以触发响应第一选择指令并进行目标对象的确定。也即,在响应第一选择指令之前,需要执行第一选择指令的开启操作,当响应开启操作之后,则可基于所识别的预设手势的操作,确定目标对象。
这里的第一选择指令的开启操作可以是手指的捏合操作,也可以是手指离用户身体的距离。当为手指的捏合操作时,例如可以是:将食指与大拇指捏合。而当为手指距离用户身体的距离时,例如可以是:手指远离用户身体时,触发对第一选择指令的开启响应。此处仅为一种可行方式的举例。
响应于第一选择指令的开启操作,则可识别用户的预设手指的移动轨迹,确定预设手指最终停留的位置,这里的目标停留位置可以是预设手指移动过程中获取的实时位置,当前的实时位置可以作为当前的目标停留位置。
S102、根据预设手指的初始位置与目标停留位置、虚拟光标的初始位置、以及预先配置的预设手指移动距离与虚拟光标的移动距离及移动方向的映射关系,移动虚拟光标至目标位置,获取虚拟光标的目标位置处的对象。
虚拟光标的初始位置可以是多个可能目标对象之间的任意位置,而预先也可配置虚拟光标的移动方向与用户的预设手指的移动方向的对应关系、以及虚拟光标的移动距离与用户的预设手指的移动距离的对应关系。例如:设定预设手指移动5cm,虚拟光标对应移动1cm,虚拟光标的移动方向与预设手指的移动方向相同。
基于预设手指的初始位置与目标停留位置,可确定预设手指的移动距离,从而确定虚拟光标的移动距离,进而可根据预设手指的移动方向将虚拟光标朝着该移动方向移动所确定好的移动距离,虚拟光标则到达目标位置处。
这里的目标对象既可以指真实场景中的对象,也可以指虚拟场景中的对象,可通过智能眼镜上的摄像头识别获取用户针对目标对象的第一选择指令,以确定目标对象。
需要说明的是,区别于触控式交互,本申请的方法是非触控式交互,传统的触控式交互中,用户可通过在终端上输入指令,以与终端上所展示的场景进行交互,而本方法中的非触控式交互,用户的操作均可以是非触摸式的,也即用户可基于眼前所展示的混合现实场景中的各对象,在空中执行各种操作,用户的操作更加人性化。
S103、响应用户输入的对象选中操作,确定虚拟光标的目标位置处的对象为目标对象。
同样的,这里的用户输入的对象选中操作与上述步骤S102中的相同,响应用户输入的对象选中操作,则可将虚拟光标的目标位置处的对象确定为目标对象。
同样的,在确定了目标对象后,同样也可响应第一选择指令的关闭操作,这里的第一选择指令的关闭操作可以是手指的打开操作,也可以是手指离用户身体的距离。当为手指的打开操作时,例如可以是:将食指与大拇指打开,也即食指远离大拇指预设距离。而当为手指距离用户身体的距离时,例如可以是:手指靠近用户身体时,触发对第一选择指令的关闭响应。此处仅为一种可行方式的举例。
S104、响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置。
由于目标对象会具有一些显示信息,一些情况下,用户可通过显示信息对目标对象进行控制,当显示信息的显示位置设置的较为合理时,可更方便用户进行操作。
基于上述所选中的目标对象,可继续识别用户针对显示信息的显示位置输入的第二选择指令,以确定目标对象的显示信息的显示位置,第二选择指令可包括多种不同的指令,本方法提供了多种第二选择指令,以通过不同的第二选择指令来实现目标对象的显示信息的多种显示位置的选择。
S105、在目标显示位置上显示目标对象的显示信息,显示信息包括:目标对象的控制界面及目标对象的关联信息。
基于所确定的目标对象的目标显示位置,可在目标显示位置上显示目标对象的显示信息,这里的目标对象的显示信息可包括:目标对象的控制界面及目标对象的关联信息。针对不同的目标对象,其对应的控制界面和关联信息均可以是不同的。其中,目标对象的关联信息可以包括目标对象的说明性信息、目标对象的附属信息等,而目标对象的控制界面可以用来对目标对象进行配置。通常,目标对象的显示信息均可包括目标对象的关联信息,而目标对象的控制界面则仅是部分对象才具有。
以目标对象为日历来说,目标对象的关联信息可以为日历上某个日期的具体日程信息、某个日期所拍摄的照片信息等,而由于日历中各日期均是固定的,无法进行随意配置的,故其不包括控制界面。
又以目标对象为空调来说,目标对象的关联信息可以为空调的使用说明,风量大小等,目标对象的控制界面可展示多种信息输入框,用户可通过控制界面输入空调的运行参数,以改变温度、风量、开关机状态等。
可选地,目标对象的显示信息可以是预先存储至数据库的,在执行本方法之前,可有个预处理的过程,针对每个对象,用户可先输入对象的显示信息,将各对象的标识及显示信息存储至数据库,以在后续确定了目标对象后,直接根据目标对象的标识从数据库中读取其显示信息进行显示。
综上,本实施例提供的基于混合现实的信息展示方法,包括:响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定预设手指的目标停留位置;根据预设手指的初始位置与目标停留位置、虚拟光标的初始位置、以及预先配置的预设手指移动距离与虚拟光标的移动距离及移动方向的映射关系,移动虚拟光标至目标位置,获取虚拟光标的目标位置处的对象;响应用户输入的对象选中操作,确定虚拟光标的目标位置处的对象为目标对象;响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;在目标显示位置上显示目标对象的显示信息,显示信息包括:目标对象的控制界面及目标对象的关联信息。本方法通过识别用户的第一选择指令选择目标对象,以提高目标对象选择的精确性,通过识别用户的第二选择指令选择目标对象的显示信息的目标显示位置,从而可将目标对象的显示信息显示在所选择的目标显示位置处,从而以更加符合用户操作需求的位置来显示目标对象的显示信息,提高了用户的操作体验感。
图2为本申请实施例提供的第二种基于混合现实的信息展示方法的流程示意图;图3为本申请实施例提供的第一种用户交互示意图;可选地,本实施中还提供一种目标对象的确定方式,可以包括:
S301、响应预设的第一选择指令开启操作,并识别用户的预设手指的位置,获取预设手指所在的延长线所指向的对象。
这里响应预设的第一选择指令开启操作与上述步骤S101中的相同,此处不再进行赘述。
在一些实施例中,可通过智能眼镜上的摄像头识别用户手指的方向,这里的预设手指可以是预先设定的,例如设定为食指,可识别预设手指的位置,从而沿着预设手指的延长线获取预设手指的延长线所指向的对象。如图3所示展示了用户的预设手指的延长线所指向的对象。当然,在一定的误差范围内,当用户的预设手指的延长线所指向的位置处不存在对象时,可以将距离该位置预设范围内的对象均作为待选对象。
在精度要求较高的场景下,当用户的预设手指的延长线所指向的位置处不存在对象时,则可默认未获取到任何对象。
为了提高方法实现的精度问题,上述的预设手指是确定的,当识别获取到除预设手指之外的其他手指的操作时,不做任何响应,以防止误选。
S302、响应用户输入的对象选中操作,确定预设手指所在的延长线所指向的对象为目标对象。
基于获取的对象,可识别用户针对该对象输入的选中操作,选中目标确定预设手指所在的延长线所指向的对象为目标对象。
在一些实施例中,上述识别用户的预设手指的位置,获取预设手指所在的延长线所指向的对象时,也可对该对象进行高亮显示,以便于用户执行选中操作,而用户输入的对象选中操作可以为对高亮显示的对象的点击操作,当然这里的点击操作并非是真正的通过触摸对象实现,而是预设手指朝着该对象的位置在空中做出点击操作,或者,也可以是用户所输入的任意手势,只要能与其他操作指令区别即可,例如可以是用户的OK手势、用户的比V手势等,类似于在终端上打开对应功能的快捷手势。
图4为本申请实施例提供的第三种基于混合现实的信息展示方法的流程示意图;可选地,本实施中还提供一种目标对象的确定方式,可以包括:
S501、响应预设的第一选择指令开启操作,并识别追踪用户的眼球的移动操作,确定用户的视线,获取用户的视线所指向的对象。
这里响应预设的第一选择指令开启操作与上述步骤S101中的相同,此处不再进行赘述。
在一些实施例中,还可对用户进行眼球追踪,追踪用户的眼球移动操作,获取用户视线所指向的对象,并对视线所指向的对象进行高亮显示。
S502、响应用户输入的对象选中操作,确定用户的视线所指向的对象为目标对象。
同样的,这里的用户输入的对象选中操作也与上述步骤S102中的相同,响应用户输入的对用户的视线所指向的对象的选中操作,可确定用户的视线所指向的对象为目标对象。
上述通过三个实施例对本申请所提供的三种目标对象选中方式进行了说明,实际应用中,也可不限于这三种方式,例如:用户也可配套使用外部设备如激光笔,可识别获取激光笔所指向的对象作为目标对象。
图5为本申请实施例提供的第四种基于混合现实的信息展示方法的流程示意图;图6为本申请实施例提供的第二种用户交互示意图;可选地,步骤S104中,响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置,可以包括:
S601、响应用户输入的显示位置的选择开启指令,按照预设的展示方式展示多种显示位置的图标。
可选地,显示位置的选择开启指令可以为任意可区别于其他指令的操作指令,例如:食指与大拇指的开合操作、握拳操作、食指与中指并拢,再与大拇指并拢等,其可以是预先设定好的操作指令,可唯一执行一种操作。
如图6所示,识别并响应用户输入的显示位置的选择开启指令,可显示多种显示位置的图标,这里,可以是在用户身前显示多种图标,以便于用户操作,其中各显示位置的图标可以通过纵深进行区分显示,以便于用户切换选择不同的显示位置,也即,各显示位置的图标分别在距离用户不同预设距离处显示(也即各图像的显示位置距离用户的远近距离不同),以呈现出层次感,而并非是将各显示位置的图标均在一个平面显示。
可列举的,多种显示位置可包括:第一位置,指示目标对象的显示信息飘在空中、或贴在墙上;第二位置,指示目标对象的显示信息跟着用户身体移动;第三位置,指示目标对象的显示信息跟着用户头部移动,保证显示在用户眼前;第四位置,指示目标对象的显示信息跟着用户手部移动。
S602、识别用户的手部运动轨迹,根据手部运动轨迹,切换并显示各显示位置的图标。
实时捕获用户的手部运动轨迹,响应用户手部的运动方向,可切换显示各显示位置的图标,任一时刻仅显示一个显示位置的图标,当用户手部继续运动时,则可依次切换下一个显示位置的图标进行显示。
S603、响应用户针对当前显示的显示位置的图标的确认操作,确定当前显示的显示位置的图标所对应的显示位置为目标显示位置。
这里的针对当前显示的显示位置的图标的确认操作也可以与步骤S102中的对象选中操作相同,均指的是基于所选定的一目标的确认操作,响应针对当前显示的显示位置的图标的确认操作,则可确定当前显示的显示位置的图标所对应的显示位置为目标对象的显示信息的目标显示位置。
例如:选中的为第一位置的图标,则可将第一位置的图标所指示的显示位置作为目标对象的显示信息的目标显示位置。
图7为本申请实施例提供的第五种基于混合现实的信息展示方法的流程示意图;图8为本申请实施例提供的第三种用户交互示意图;可选地,步骤S602中,识别用户的手部运动轨迹和手势,根据手部的运动方向,切换并显示各显示位置的图标,可以包括:
S801、识别用户的手部运动轨迹和手势,判断用户是否保持同一手势朝着预设方向运动。
参考图8中的(a),假设识别到用户保持同一手势朝着第一方向运动,也即图中所示的食指伸出的手势,由左至右运动。
S802、若是,则根据用户手部的运动方向,切换并显示各显示位置的图标。
那么,可将所显示的各显示位置的图标由左侧第一个至右侧最后一个依次切换显示,其中,可以是依次高亮显示,也可以是依次放大显示,或者是以其他一些特殊显示特效依次显示,以凸显当前所显示的显示位置的图标。
在各显示位置的图标初始展示后,可默认显示的为左侧第一个显示位置的图标,在识别到用户的手部运动轨迹和手势后,则可基于手部运动方向依次切换显示各显示位置的图标。如图8中的(b)所示,在用户保持同一手势由左至右运动时,当前显示的显示位置的图标也由左侧第一个显示位置的图标1切换至第三个显示位置的图标3,当然这里仅是一种示例,具体情况中,也可能已经切换显示第五个显示位置的图标5,此时,用户的手部已由初始位置向右发生了变动,运动至如图8中的(b)中的目标位置。
当然,一些情况下,如图8中的(c)所示,当各显示位置的图标已经由左至右切换显示至第三个显示位置的图标3时,用户又想切换显示至图标1,那么,可继续保持食指伸出的手势,由目标位置由右至左运动,则可依次切换显示图标3、图标2、图标1,如图8中的(c)所示,当前显示的显示位置的图标由图标3变成了图标1,此时,用户的手部已由目标位置又运动至初始位置。
可选地,步骤S105中,在目标显示位置上显示目标对象的显示信息之后,还可包括:根据目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整目标显示位置。
可选地,上述通过第二选择指令可选择的各显示位置均具有对应的显示特性,可在选择了目标显示位置后,继续识别用户的预设部位的运动轨迹,从而基于目标显示位置的显示特性,对目标显示位置进行实时调整,这里所说的用户的预设部位可以包括用户全身各个部位,可预先设定不同的部位的运动轨迹与各显示位置的对应关系,从而根据各显示位置对应的部位的运动轨迹来控制不同显示位置的实时调整。
可选地,根据目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整目标显示位置,可以包括:
若目标显示位置为第一位置,则按照识别的用户的第一部位的运动轨迹,实时控制目标显示位置进行移动。
可选地,第一位置可以指body lock方式的图标所对应的显示位置,当确定目标显示位置为body lock所对应的显示位置时,可基于智能眼镜当前的位置,确定目标对象的显示信息的目标显示位置,其中,智能眼镜当前的位置可体现用户身体的位置,在这种情况下,用户的第一部位则可表示用户身体,继续识别用户所佩戴的智能眼镜的位置变化,以控制目标显示位置随着智能眼镜位置的变化而变化。
若目标显示位置为第二位置,则按照识别的用户的第二部位的运动轨迹,实时控制目标显示位置进行移动。
第二位置可以指head lock方式的图标所对应的显示位置,当确定目标显示位置为head lock所对应的显示位置时,显示信息可以是跟着用户的头部移动,保证显示信息显示在用户眼前,而用户的头部的位置则可基于智能眼镜当前的位置和智能眼镜的朝向,在这种情况下,用户的第二部位则可表示用户的头部,继续识别用户所佩戴的智能眼镜的位置和朝向的变化,以控制目标显示位置随着智能眼镜的位置和朝向的变化而变化。
若目标显示位置为第三位置,则按照识别的用户的第三部位的运动轨迹,实时控制目标显示位置进行移动。
第三位置可以指hand lock方式的图标所对应的显示位置,当确定目标显示位置为hand lock所对应的显示位置时,可识别用户手部位置确定手部位置为目标显示位置,在这种情况下,用户的第三部位则可表示用户的手部,继续识别用户手部位置的变化,以控制目标显示位置随着手部位置的变化而变化。
当然,除了上述所说的三种显示位置,还可包括第四种显示位置,第四位置可以指world lock方式的图标所对应的显示位置,当确定目标显示位置为world lock所对应的显示位置时,则可确定目标显示位置可以在墙上或空中预设位置固定,这里,由于world lock有两种显示方式,还可以水平显示两个world lock,根据用户手部的水平运动,确定选中的world lock下的lock图标。
图9为本申请实施例提供的第六种基于混合现实的信息展示方法的流程示意图;图10为本申请实施例提供的第四种用户交互示意图;可选地,步骤S104中,响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置,可以包括:
S110、识别用户的手部运动轨迹和手势,若用户保持同一手势沿着预设方向运动,直至运动距离超过预设距离,则展示信息输入界面。
本实施例提供的是自定义目标显示位置的确定方式,针对一些需要特殊显示的显示信息,用户可根据需求自定义设置目标对象的显示信息的显示位置。例如:需要用户重点关注的目标对象的显示信息,可设定其固定显示在便于用户查看的位置。
与上述步骤S602类似,也可通过实时捕获用户的手部运动轨迹和手势,若识别到用户保持同一手势朝着预设方向运动,直至手部运动距离超过预设距离,则可向用户展示信息输入界面。
如图10所示,假设用户保持食指伸出的手势,将手部由上至下运动,在手部运动的过程中实时获取手部当前的位置,根据手部当前的位置与初始位置之间的距离,判断运动距离超过预设距离时,则可在界面上弹出信息输入界面。
S111、响应用户在信息输入界面的输入操作,获取用户输入的自定义显示位置,确定用户输入的自定义显示位置为目标显示位置。
可选地,信息输入界面上可包括多个信息输入框,可供用户进行多种参数的设置,例如:显示位置信息框、显示样式信息框等,用户可根据需求输入对应的参数,响应用户的输入操作,可获取用户输入的自定义显示位置,从而确定自定义显示位置为目标对象的显示信息的目标显示位置。
可选地,步骤S105中,在目标显示位置上显示目标对象的显示信息之后,还可包括:响应用户的显示位置切换操作,控制目标显示位置由距离目标对象预设距离处切换至距离用户预设距离处,或者控制目标显示位置由距离用户预设距离处切换至距离目标对象预设距离。
在一些实施例中,还可识别用户输入的显示位置切换操作,以对显示位置与用户之间的距离进行切换,显示位置切换操作同样可以是区别于其他操作指令的任意操作。
当识别到用户的显示位置切换操作后,假设当前目标显示位置在距离目标对象预设距离处,则可将目标位置切换至距离用户预设距离处。这里的目标显示位置在距离目标对象预设距离处可以理解为目标显示位置在目标对象周围,这种情况下,当目标对象距离用户较远时,会导致目标对象的显示信息距离用户较远,可能不便于操作。而目标显示位置在距离用户预设距离处可以理解为目标显示位置在用户身前,也就将目标对象的显示信息显示在用户身前显示。通过上述切换操作可将距离用户较远的显示信息切换至用户身前显示。
反之,设当前目标显示位置在距离用户预设距离处,当识别到用户的显示位置切换操作后,则可将目标位置切换至距离目标对象预设距离处。
在一种可实现的方式中,显示位置切换操作可采用如下方式实现:选中某个目标对象后,在手的后方(靠近用户的方向)出现一条水平的淡淡的细线,如果手向后经过这条细线,则可将目标显示位置由距离目标对象预设距离处切换至距离用户预设距离处,也即将显示信息在切换至在用户身前显示;如果手顺势放下,则细线消失,则在距离目标对象预设距离处显示目标对象的显示信息,也即,在目标对象周围显示其显示信息。当然,显示位置切换操作还可有其他实现方式,并不限于此。
可选地,步骤S105中,在目标显示位置上显示目标对象的显示信息,可以包括:在目标显示位置上以第一形状显示目标对象的控制界面中的第一类控件,以第二形状显示除第一类控件之外的第二类控件,第一类控件用于表征需要用户再次确认的控件,第二类控件用于表征不需要用户再次确认的控件。
充分考虑用户在混合现实场景下的操控便捷度,本实施例中还可对目标对象的控制界面中各级控件的展示形式进行设计,其中,各级控件也可以理解为各级菜单,类似于word文档中的文件、开始、插入、审阅等菜单,通常,菜单可包括多级,一级菜单的下级菜单可称为二级菜单,二级菜单的下级菜单可称为三级菜单,依次类推,本实施例中称菜单为控件。
其中,第一类控件可以指需要用户确认的核心功能按钮(例如关闭、删除、保存等),针对各级控件中的第一类控件,可以第一形状显示,本实施例中第一形状可以为三维圆柱体,而除第一类控件之外的第二类控件则以第二形状显示,第二形状可以为气泡,将第二类控件以气泡形式显示,可以提高交互效率。
可选地,在目标显示位置上以第一形状显示目标对象的控制界面中的第一类控件,可以包括:在目标显示位置上以第一显示高度显示目标对象的控制界面中的一级控件,其中,以第一形状显示一级控件中的第一类控件以及以第二形状显示一级控件中的第二类控件,第一显示高度基于智能眼镜的当前位置以及地面的位置进行确定。
在一些实施例中,针对各级控件的显示,可以在第一显示高度上显示目标对象的控制界面中的一级控件,其中,第一显示高度可根据智能眼镜的位置以及地面的位置确定,根据智能眼镜的位置以及地面的位置可确定智能眼镜的高度,智能眼镜的高度约等于用户的身高,而基于智能眼镜的高度可大致预测用户的腰部高度,从而可将用户的腰部高度确定为第一显示高度。
由于用户的手部在腰部高度的位置处运动时,相对来说用户的手部不会感到特别累,而当用户的手部在特别高的位置运动时,例如头部高度处运动时,由于头部位置较高,用户的手在头部位置运动时需要将胳膊抬的较高,长时间执行操作,相对来说会比较累。这里将一级控件在第一显示高度显示,可提高用户对控件操作时的感受度。而针对一级控件中的各控件,可根据其属于第一类控件还是属于第二类控件,按照相应的展示形状进行展示。
当然,第一显示高度也不限于是用户腰部的高度,可以是在用户的腰部至胸部之间的任意位置。
可选地,上述步骤中,在目标显示位置上按照第一显示高度显示目标对象的控制界面中的一级控件,可以包括:响应用户针对一级控件中第一控件的确认操作,在目标显示位置上以第二显示高度显示第一控件的二级控件,第二显示高度高于第一显示高度,依次执行,在目标显示位置上以不同显示高度显示目标对象的控制界面中的各级控件,且各级控件在水平方向上依次错开。
当用户针对所展示的一级控件中的第一控件输入确认操作后,则可对应显示第一控件的下级控件,也即展示第一控件的二级控件,例如:针对word文档中的一级控件中的第一控件“文件”而言,其二级控件可包括:新建、打开、保存等多种。
可选地,二级控件可在第二显示高度进行显示,这里的第二显示高度可以略微高于第一显示高度,且在竖直平面上,二级控件的显示位置距离用户要比一级控件更近,以将二级控件与一级控件错开显示。避免各级控件在同一水平面显示时,用户在操作下级控件时容易对上级控件发生误触。依次方式,可将各级控件均按照一级控件和二级控件的显示方式进行显示。
图11为本申请实施例提供的第五种用户交互示意图,如图11所示,在一种可实现的方式中,响应用户针对一级控件中第一控件的确认操作,可以包括:响应用户采用预设手势按照预设轨迹输入的针对一级控件中第一控件的确认操作,显示第一控件的二级控件。
如图11所示,以预设手势为大拇指和食指张开为例,当然不限于此种手势,也可以有其他替代手势。
当用户保持预设手势分别由第一控件外移动至第一控件内时,可触发显示第一控件的二级控件。而当用户保持预设手势从第一控件内移出时,已显示的第一控件的二级控件可仍保持打开状态,直至用户保持预设手势从当前位置移动至关闭控件时,或者是一级控件中的第二控件(一级控件中的其他控件)被选中时,又或者是识别到其他关闭控件的操作时,则取消显示第一控件的二级控件。
图12为本申请实施例提供的第六种用户交互示意图,如图12展示了各级控件的显示位置,在纵深上,上级控件较下级控件更靠后(距离用户更远),在垂直方向上,上级控件较下级控件更低。
在一种可实现的方式中,当显示二级控件时,也可将一级控件的显示高度稍微向下移动,尽可能的将二级控件显示在之前所确定的一级控件的第一显示高度处,也即,在显示当前级时,可将当前级的上一级向下移动,尽量保证当前级处于第一显示高度上,以便于用户对当前级执行操作。
可选地,上述步骤中,在目标显示位置上以第二显示高度显示第一控件的二级控件,包括:在目标显示位置上以第二显示高度显示第一控件的二级控件,同时隐藏或淡化一级控件中除第一控件之外的控件。
在一些实施例中,当仅选中一级控件中的第一控件时,可仅对第一控件的二级控件进行展示,此时,所展示的一级控件中除第一控件之外的其他控件均可隐藏或者也可以是淡化显示。
图13为本申请实施例提供的第七种基于混合现实的信息展示方法的流程示意图;可选地,本方法还可包括:
S130、识别用户的预设手指的运动轨迹。
可选地,针对各级控件中的第一类控件,本实施例还提供了第一类控件的执行操作和取消操作。
识别用户的预设手指的运动轨迹,这里预设手指同样是预先设定的。可实时获取用户预设手指的位置,构建预设手指的三维运动轨迹,这里可采用SLAM(SimultaneousLocalization and Mapping,即时定位与建模匹配)技术,构建预设手指的三维运动轨迹,以确定用户的预设手指的运动轨迹。
S131、若针对第一类控件,运动轨迹满足第一轨迹,则执行第一类控件对应的功能。
图14为本申请实施例提供的第七种用户交互示意图,如图14所示,当用户的预设手指(假设为食指)的运动轨迹为第一轨迹时,则可确定用户当前的操作为执行第一类控件对应的功能。
可将用户预设手指的三维运动轨迹与第一类控件的三维圆柱体的位置进行匹配,判断用户的预设手指是否先后位于某第一类控件的圆柱体之外、圆柱体之内和圆柱体之外,若是,则确定用户的预设手指的运动轨迹满足第一轨迹,则执行该第一类控件的功能。
S132、若针对第一类控件,运动轨迹满足第二轨迹,则展示取消控件,取消控件用于取消第一类控件对应的功能。
当用户的预设手指(假设为食指)的运动轨迹为第二轨迹时,则可确定用户当前的操作为取消第一类控件。
可将用户预设手指的三维运动轨迹与第一类控件的三维圆柱体的位置进行匹配,判断用户的预设手指是否先后位于某第一类控件的圆柱体之外和圆柱体之内,且判断用户保持预设手指在圆柱体之内的停留状态是否满足条件,当满足条件时,则展示取消控件。
其中,可以通过手指在圆柱体之内的停留时间或者手指在滑动至圆柱体之内时的加速度变化判断停留状态是否满足条件。
针对停留时间的判断,当用户保持预设手指在该圆柱体内停留且停留时间超过预设时间,则满足停留状态,则展示取消控件,可以为取消气泡,以供用户取消执行该第一类控件的功能。
针对加速度变化判断方式,可以实时检测用户保持预设手指由圆柱体之外向圆柱体之内移动的过程中,手指移动的速度及加速度,根据手指移动的速度及加速度的变化,判断是否满足停留状态。
在一种可实现的方式中,可判断当前时刻手指移动的速度是否满足第一预设速度阈值,当满足时,可确定当前时刻手指移动的速度相对较小,同时,还可判断当前时刻手指移动的加速度是否沿着负方向有较大的波动,当沿着负方向有较大的波动时可理解为用户保持预设手指由圆柱体之外向圆柱体之内移动,并且逐渐停止移动,那么,此时可判断用户的预设手指将要在圆柱体之内停留,满足停留状态,则展示取消控件。
在另一种可实现的方式中,可判断当前时刻手指移动的速度是否满足第二预设速度阈值,这里值得注意的是,第二预设速度阈值小于上述的第一预设速度阈值。当满足时,可确定当前时刻手指移动的速度足够小,几乎可以认为手指将停止移动;此时,当判断当前时刻手指移动的加速度沿着负方向有较小的波动时,仍然可确定用户保持预设手指由圆柱体之外向圆柱体之内移动,并且将逐渐停止移动,那么,此时可判断用户的预设手指将要在圆柱体之内停留,满足停留状态,则展示取消控件。
上述通过手指移动的速度及加速度的变化,可避免手指从第一控件的圆柱体前经过时所导致的误判。
用户可通过点击(戳破)取消气泡取消执行第一类控件的功能。通过提供取消控件,可避免用户在误触该控件的圆柱体时无法反悔。
在一种可实现的方式中,取消控件的显示位置可以是在手臂延长线方向上,避免和手指的移动轨迹重合,以免误操作。
图15为本申请实施例提供的第八种用户交互示意图,如图15所示,当用户保持预设手势(可以是如图所示的大拇指和食指张开的手势)沿着一级控件中的第一控件所在的平行范围内移动,并分别由第一控件外移动至第一控件内时,可触发显示第一控件的二级控件。
可选地,与上述图14中触发展示取消控件的判断方式类似,在触发显示第一控件的二级控件时,同样可通过手指在第一控件之内的停留时间或者手指在滑动至第一控件之内时的加速度变化判断停留状态是否满足条件,满足条件则触发展示第一控件的二级控件。这里具体的判断方式与上述相同,可参考上述进行理解。
这样的设计可避免用户保持预设手势从第一控件前划过时所导致的二级控件的误触发。
当用户保持预设手势一直在第一控件所在的平行范围内移动时,第一控件的二级控件一直保持显示状态,不会关闭。在这种情况下,当用户保持预设手势点击二级控件中的任一控件时,则执行所选中的二级控件对应的功能。
而当用户保持预设手势移动至第一控件所在的平行范围之外时,则取消显示第一控件的二级控件。
针对本方法中对用户的预设手指运动轨迹的构建,除了采用上述的SLAM技术之外,还可以基于其他硬件,例如手套或指环,实时捕获手指的位置并构建手指运动轨迹。
综上所述,本申请提供的基于混合现实的信息展示方法,包括:响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定预设手指的目标停留位置;根据预设手指的初始位置与目标停留位置、虚拟光标的初始位置、以及预先配置的预设手指移动距离与虚拟光标的移动距离及移动方向的映射关系,移动虚拟光标至目标位置,获取虚拟光标的目标位置处的对象;响应用户输入的对象选中操作,确定虚拟光标的目标位置处的对象为目标对象;响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;在目标显示位置上显示目标对象的显示信息,显示信息包括:目标对象的控制界面及目标对象的关联信息。本方法通过识别用户的第一选择指令选择目标对象,以提高目标对象选择的精确性,通过识别用户的第二选择指令选择目标对象的显示信息的目标显示位置,从而可将目标对象的显示信息显示在所选择的目标显示位置处,从而以更加符合用户操作需求的位置来显示目标对象的显示信息,提高了用户的操作体验感。
其次,通过以预设形状向用户展示目标对象的控制界面中各级控件,可解决用户操作核心控件功能时无法反悔的问题。以预设展示层级向用户展示目标对象的控制界面中各级控件,可避免用户误操作,提高操作精度。
下述对用以执行本申请所提供的基于混合现实的信息展示方法的装置、设备及存储介质等进行说明,其具体的实现过程以及技术效果参见上述,下述不再赘述。
图16为本申请实施例提供的第八种基于混合现实的信息展示装置的示意图,该基于混合现实的信息展示装置实现的功能对应上述方法执行的步骤。该装置可以理解为上述的智能眼镜,如图16所示,该装置可包括:确定模块1500、显示模块1510;
确定模块1500,用于响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定预设手指的目标停留位置;
确定模块1500,用于根据预设手指的初始位置与目标停留位置、虚拟光标的初始位置、以及预先配置的预设手指移动距离与虚拟光标的移动距离及移动方向的映射关系,移动虚拟光标至目标位置,获取虚拟光标的目标位置处的对象;
确定模块1500,用于响应用户输入的对象选中操作,确定虚拟光标的目标位置处的对象为目标对象;
确定模块1500,用于响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;
显示模块1510,用于在目标显示位置上显示目标对象的显示信息,显示信息包括:目标对象的控制界面及目标对象的关联信息。
可选地,确定模块1500,具体用于响应用户输入的显示位置的选择开启指令,按照预设的展示方式展示多种显示位置的图标;
识别用户的手部运动轨迹,根据手部运动轨迹,切换并显示各显示位置的图标;
响应用户针对当前显示的显示位置的图标的确认操作,确定当前显示的显示位置的图标所对应的显示位置为目标显示位置。
可选地,确定模块1500,具体用于识别用户的手部运动轨迹和手势,判断用户是否保持同一手势朝着预设方向运动;
若是,则根据用户手部的运动方向,切换并显示各显示位置的图标。
可选地,装置还包括:调整模块;
调整模块,用于根据目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整目标显示位置。
可选地,调整模块,具体用于若目标显示位置为第一位置,则按照识别的用户的第一部位的运动轨迹,实时控制目标显示位置进行移动;
若目标显示位置为第二位置,则按照识别的用户的第二部位的运动轨迹,实时控制目标显示位置进行移动;
若目标显示位置为第三位置,则按照识别的用户的第三部位的运动轨迹,实时控制目标显示位置进行移动。
可选地,确定模块1500,具体用于识别用户的手部运动轨迹和手势,若用户保持同一手势沿着预设方向运动,直至运动距离超过预设距离,则展示信息输入界面;
响应用户在信息输入界面的输入操作,获取用户输入的自定义显示位置,确定用户输入的自定义显示位置为目标显示位置。
可选地,装置还包括:切换模块;
切换模块,用于响应用户的显示位置切换操作,控制目标显示位置由距离目标对象预设距离处切换至距离用户预设距离处,或者控制目标显示位置由距离用户预设距离处切换至距离目标对象预设距离。
可选地,显示模块1510,具体用于在目标显示位置上以第一形状显示目标对象的控制界面中的第一类控件,以第二形状显示除第一类控件之外的第二类控件,第一类控件用于表征需要用户再次确认的控件,第二类控件用于表征不需要用户再次确认的控件。
可选地,显示模块1510,具体用于在目标显示位置上以第一显示高度显示目标对象的控制界面中的一级控件,其中,以第一形状显示一级控件中的第一类控件以及以第二形状显示一级控件中的第二类控件,第一显示高度基于智能眼镜的当前位置以及地面的位置进行确定。
可选地,显示模块1510,具体用于响应用户针对一级控件中第一控件的确认操作,在目标显示位置上以第二显示高度显示第一控件的二级控件,第二显示高度高于第一显示高度,依次执行,在目标显示位置上以不同显示高度显示目标对象的控制界面中的各级控件,且各级控件在水平方向上依次错开。
可选地,显示模块1510,具体用于在目标显示位置上以第二显示高度显示第一控件的二级控件,同时隐藏或淡化一级控件中除第一控件之外的控件。
可选地,装置还包括:识别模块、执行模块、取消模块;
识别模块,用于识别用户的预设手指的运动轨迹;
执行模块,用于若针对第一类控件,运动轨迹满足第一轨迹,则执行第一类控件对应的功能;
取消模块,用于若针对第一类控件,运动轨迹满足第二轨迹,则展示取消控件,取消控件用于取消第一类控件对应的功能。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital singnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
上述模块可以经由有线连接或无线连接彼此连接或通信。有线连接可以包括金属线缆、光缆、混合线缆等,或其任意组合。无线连接可以包括通过LAN、WAN、蓝牙、ZigBee、或NFC等形式的连接,或其任意组合。 两个或更多个模块可以组合为单个模块,并且任何一个模块可以分成两个或更多个单元。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。
图17为本申请实施例提供的一种电子设备的结构示意图,该电子设备可以为上述的智能眼镜。
该设备可包括:处理器801、存储器802。
存储器802用于存储程序,处理器801调用存储器802存储的程序,以执行上述方法实施例。具体实现方式和技术效果类似,这里不再赘述。
其中,存储器802存储有程序代码,当程序代码被处理器801执行时,使得处理器801执行本说明书上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的方法中的各种步骤。
处理器801可以是通用处理器,例如中央处理器(CPU)、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器802作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random Access Memory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器802还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
可选地,本申请还提供一种程序产品,例如计算机可读存储介质,包括程序,该程序在被处理器执行时用于执行上述方法实施例。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (13)
1.一种基于混合现实的信息展示方法,其特征在于,应用于混合现实场景,所述混合现实场景由真实场景以及智能眼镜的屏幕上显示的虚拟场景叠加而成;所述方法包括:
响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定所述预设手指的目标停留位置;
根据所述预设手指的初始位置与所述目标停留位置、虚拟光标的初始位置、以及预先配置的所述预设手指移动距离与所述虚拟光标的移动距离及移动方向的映射关系,移动所述虚拟光标至目标位置,获取所述虚拟光标的目标位置处的对象;
响应用户输入的对象选中操作,确定所述虚拟光标的目标位置处的对象为目标对象;
响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;
在所述目标显示位置上显示所述目标对象的显示信息,所述显示信息包括:目标对象的控制界面及目标对象的关联信息;
在所述目标显示位置上显示所述目标对象的显示信息,包括:
在所述目标显示位置上以第一形状显示所述目标对象的控制界面中的第一类控件,以第二形状显示除所述第一类控件之外的第二类控件,所述第一类控件用于表征需要用户再次确认的控件,所述第二类控件用于表征不需要用户再次确认的控件;
所述方法还包括:
识别用户的预设手指的运动轨迹;
若针对所述第一类控件,所述运动轨迹满足第一轨迹,则执行所述第一类控件对应的功能;
若针对所述第一类控件,所述运动轨迹满足第二轨迹,则展示取消控件,所述取消控件用于取消所述第一类控件对应的功能;
其中,所述运动轨迹满足第二轨迹,则展示取消控件,包括:
将所述用户的预设手指的三维运动轨迹与所述第一类控件的位置进行匹配,判断所述用户的预设手指是否先后位于所述第一类控件之外和之内,且所述用户保持预设手指在所述第一类控件之内的停留状态是否满足条件,当满足条件,则展示取消控件;
其中,判断所述用户保持预设手指在所述第一类控件之内的停留状态是否满足条件,包括:
判断当前时刻手指移动的速度是否满足第一预设速度阈值,且当前时刻手指移动的加速度是否沿着负方向有较大的波动,若是,则确定所述用户保持预设手指在所述第一类控件之内的停留状态满足条件;或者判断当前时刻手指移动的速度是否满足第二预设速度阈值,且当前时刻手指移动的加速度是否沿着负方向有较大的波动,若是,则确定所述用户保持预设手指在所述第一类控件之内的停留状态满足条件,所述第二预设速度阈值小于所述第一预设速度阈值。
2.根据权利要求1所述的方法,其特征在于,所述响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置,包括:
响应用户输入的显示位置的选择开启指令,按照预设的展示方式展示多种显示位置的图标;
识别用户的手部运动轨迹,根据所述手部运动轨迹,切换并显示各显示位置的图标;
响应用户针对当前显示的显示位置的图标的确认操作,确定当前显示的显示位置的图标所对应的显示位置为所述目标显示位置。
3.根据权利要求2所述的方法,其特征在于,所述识别用户的手部运动轨迹,根据所述手部运动轨迹,切换并显示各显示位置的图标,包括:
识别用户的手部运动轨迹和手势,判断用户是否保持同一手势朝着预设方向运动;
若是,则根据用户手部的运动方向,切换并显示各显示位置的图标。
4.根据权利要求2所述的方法,其特征在于,所述在所述目标显示位置上显示所述目标对象的显示信息之后,还包括:
根据所述目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整所述目标显示位置。
5.根据权利要求4所述的方法,其特征在于,所述根据所述目标显示位置的显示特性、以及识别的用户的预设部位的运动轨迹,实时调整所述目标显示位置,包括:
若所述目标显示位置为第一位置,则按照识别的用户的第一部位的运动轨迹,实时控制所述目标显示位置进行移动;
若所述目标显示位置为第二位置,则按照识别的用户的第二部位的运动轨迹,实时控制所述目标显示位置进行移动;
若所述目标显示位置为第三位置,则按照识别的用户的第三部位的运动轨迹,实时控制所述目标显示位置进行移动。
6.根据权利要求1所述的方法,其特征在于,所述响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置,包括:
识别用户的手部运动轨迹和手势,若用户保持同一手势沿着预设方向运动,直至运动距离超过预设距离,则展示信息输入界面;
响应用户在信息输入界面的输入操作,获取用户输入的自定义显示位置,确定用户输入的自定义显示位置为所述目标显示位置。
7.根据权利要求1所述的方法,其特征在于,在所述目标显示位置上显示所述目标对象的显示信息之后,包括:
响应用户的显示位置切换操作,控制所述目标显示位置由距离所述目标对象预设距离处切换至距离所述用户预设距离处,或者控制所述目标显示位置由距离所述用户预设距离处切换至距离所述目标对象预设距离。
8.根据权利要求1所述的方法,其特征在于,在所述目标显示位置上以第一形状显示所述目标对象的控制界面中的第一类控件,包括:
在所述目标显示位置上以第一显示高度显示所述目标对象的控制界面中的一级控件,其中,以第一形状显示所述一级控件中的第一类控件以及以第二形状显示所述一级控件中的第二类控件,所述第一显示高度基于智能眼镜的当前位置以及地面的位置进行确定。
9.根据权利要求8所述的方法,其特征在于,所述在所述目标显示位置上按照第一显示高度显示所述目标对象的控制界面中的一级控件,包括:
响应用户针对所述一级控件中第一控件的确认操作,在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,所述第二显示高度高于所述第一显示高度,依次执行,在所述目标显示位置上以不同显示高度显示所述目标对象的控制界面中的各级控件,且各级控件在水平方向上依次错开。
10.根据权利要求9所述的方法,其特征在于,所述在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,包括:
在所述目标显示位置上以第二显示高度显示所述第一控件的二级控件,同时隐藏或淡化所述一级控件中除所述第一控件之外的控件。
11.一种基于混合现实的信息展示装置,其特征在于,应用于混合现实场景,所述混合现实场景由真实场景以及智能眼镜的屏幕上显示的虚拟场景叠加而成;所述装置包括:确定模块、显示模块;
所述确定模块,用于响应预设的第一选择指令开启操作,并识别用户的预设手指的移动操作,确定所述预设手指的目标停留位置;
所述确定模块,用于根据所述预设手指的初始位置与所述目标停留位置、虚拟光标的初始位置、以及预先配置的所述预设手指移动距离与所述虚拟光标的移动距离及移动方向的映射关系,移动所述虚拟光标至目标位置,获取所述虚拟光标的目标位置处的对象;
所述确定模块,用于响应用户输入的对象选中操作,确定所述虚拟光标的目标位置处的对象为目标对象;
所述确定模块,用于响应用户针对显示信息的显示位置的第二选择指令,确定目标显示位置;
所述显示模块,用于在所述目标显示位置上显示所述目标对象的显示信息,所述显示信息包括:目标对象的控制界面及目标对象的关联信息;
所述显示模块,具体用于在所述目标显示位置上以第一形状显示所述目标对象的控制界面中的第一类控件,以第二形状显示除所述第一类控件之外的第二类控件,所述第一类控件用于表征需要用户再次确认的控件,所述第二类控件用于表征不需要用户再次确认的控件;
所述装置还包括:识别模块、执行模块、取消模块;
所述识别模块,用于识别用户的预设手指的运动轨迹;
所述执行模块,用于若针对所述第一类控件,所述运动轨迹满足第一轨迹,则执行所述第一类控件对应的功能;
所述取消模块,用于若针对所述第一类控件,所述运动轨迹满足第二轨迹,则展示取消控件,所述取消控件用于取消所述第一类控件对应的功能;
其中,所述取消模块,具体用于将所述用户的预设手指的三维运动轨迹与所述第一类控件的位置进行匹配,判断所述用户的预设手指是否先后位于所述第一类控件之外和之内,且所述用户保持预设手指在所述第一类控件之内的停留状态是否满足条件,当满足条件,则展示取消控件;
所述取消模块,具体用于判断当前时刻手指移动的速度是否满足第一预设速度阈值,且当前时刻手指移动的加速度是否沿着负方向有较大的波动,若是,则确定所述用户保持预设手指在所述第一类控件之内的停留状态满足条件;或者判断当前时刻手指移动的速度是否满足第二预设速度阈值,且当前时刻手指移动的加速度是否沿着负方向有较大的波动,若是,则确定所述用户保持预设手指在所述第一类控件之内的停留状态满足条件,所述第二预设速度阈值小于所述第一预设速度阈值。
12.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序指令,以执行时执行如权利要求1至10任一所述的方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至10任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211195084.XA CN115309271B (zh) | 2022-09-29 | 2022-09-29 | 基于混合现实的信息展示方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211195084.XA CN115309271B (zh) | 2022-09-29 | 2022-09-29 | 基于混合现实的信息展示方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115309271A CN115309271A (zh) | 2022-11-08 |
CN115309271B true CN115309271B (zh) | 2023-03-21 |
Family
ID=83867407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211195084.XA Active CN115309271B (zh) | 2022-09-29 | 2022-09-29 | 基于混合现实的信息展示方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115309271B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115767439A (zh) * | 2022-12-02 | 2023-03-07 | 东土科技(宜昌)有限公司 | 对象的位置显示方法、装置、存储介质以及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112068757A (zh) * | 2020-08-03 | 2020-12-11 | 北京理工大学 | 一种用于虚拟现实的目标选择方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014531662A (ja) * | 2011-09-19 | 2014-11-27 | アイサイト モバイル テクノロジーズ リミテッド | 拡張現実システムのためのタッチフリーインターフェース |
US9443354B2 (en) * | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
JP6569496B2 (ja) * | 2015-11-26 | 2019-09-04 | 富士通株式会社 | 入力装置、入力方法、及びプログラム |
CN107885316A (zh) * | 2016-09-29 | 2018-04-06 | 阿里巴巴集团控股有限公司 | 一种基于手势的交互方法及装置 |
US10712900B2 (en) * | 2018-06-06 | 2020-07-14 | Sony Interactive Entertainment Inc. | VR comfort zones used to inform an In-VR GUI editor |
-
2022
- 2022-09-29 CN CN202211195084.XA patent/CN115309271B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112068757A (zh) * | 2020-08-03 | 2020-12-11 | 北京理工大学 | 一种用于虚拟现实的目标选择方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115309271A (zh) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107648848B (zh) | 信息处理方法及装置、存储介质、电子设备 | |
US10635184B2 (en) | Information processing device, information processing method, and program | |
US8866781B2 (en) | Contactless gesture-based control method and apparatus | |
JP2019008351A (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
US9910506B2 (en) | Method for interacting with an object displayed on data eyeglasses | |
AU2020267498A1 (en) | Handwriting entry on an electronic device | |
EP2381339B1 (en) | User interface using hologram and method thereof | |
JP2019087279A (ja) | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 | |
CN111736691B (zh) | 头戴显示设备的交互方法、装置、终端设备及存储介质 | |
CN107832001B (zh) | 信息处理方法、装置、电子设备及存储介质 | |
CN110515510A (zh) | 数据处理方法、装置、设备及存储介质 | |
WO2014127697A1 (en) | Method and terminal for triggering application programs and application program functions | |
CN108073280A (zh) | 在增强或虚拟现实环境中选择对象 | |
WO2013106169A1 (en) | Menu selection using tangible interaction with mobile devices | |
US20140184538A1 (en) | Display apparatus, display method, and display program | |
US20150012884A1 (en) | Edit processing apparatus and storage medium | |
CN115309271B (zh) | 基于混合现实的信息展示方法、装置、设备及存储介质 | |
CN114377383A (zh) | 信息处理方法、装置、设备及存储介质 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
EP3974949A1 (en) | Head-mounted display | |
JP2014109888A (ja) | 入力装置およびプログラム | |
CN112328164B (zh) | 操控方法和电子设备 | |
CN113672158A (zh) | 一种增强现实的人机交互方法及设备 | |
CN111078044B (zh) | 一种终端的交互方法、终端及计算机存储介质 | |
JP5676959B2 (ja) | 情報処理装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |