CN116974435A - 操作界面的生成方法、控制方法和装置 - Google Patents
操作界面的生成方法、控制方法和装置 Download PDFInfo
- Publication number
- CN116974435A CN116974435A CN202210450377.1A CN202210450377A CN116974435A CN 116974435 A CN116974435 A CN 116974435A CN 202210450377 A CN202210450377 A CN 202210450377A CN 116974435 A CN116974435 A CN 116974435A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- operation interface
- preset
- manipulator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 238000006073 displacement reaction Methods 0.000 claims description 29
- 210000000323 shoulder joint Anatomy 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 22
- 230000003993 interaction Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- Manipulator (AREA)
Abstract
本申请提出一种操作界面的生成方法、控制方法和装置,涉及虚拟现实技术领域。操作界面的生成方法包括:获取用户的操作手的移动信息;依据操作手的移动信息,确定操作手的三维移动路径;将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中,预设弧面网格模型为基于预设布线方式和预设角度确定的模型。通过该生成方法,可准确获知用户的操作手的具体移动路径,方便为该用户建立个性化的操作方式,以使用户可以通过立体的操作界面对虚拟物体进行准确控制,使用户对远处的虚拟物体的操作精度得到提升,并降低用户对虚拟物体的操作难度,提升用户对虚拟物体的操作效率。
Description
技术领域
本申请涉及虚拟现实技术领域,具体涉及一种操作界面的生成方法、控制方法和装置。
背景技术
在人机交互领域,用户通常采用基于屏幕的触控交互方式,与机器设备进行信息的交互。随着混合现实(Mixed Reality,MR)技术的发展,用户还可以采用基于手势的交互方式,与机器设备进行信息的交互。其中,基于手势的交互方式能够使用户摆脱屏幕的限制,为用户提供一种自然的、符合人性的交互方式,从而使用户可以直接对虚拟世界中的虚拟物体进行操控。
目前,常用的手势交互方式包括:手势延长线的操作方式和直接使用手势交互的方式。但是,在采用手势延长线的操作方式时,若用户增加其手部的操作角度,则会导致用户对远处物体的选择幅度成倍增加,降低了用户对远处物体的操作精度;在采用直接使用手势交互的方式时,由于用户对虚拟世界中的、不同位置上的虚拟物体的操作难度不同,降低了用户对虚拟物体的操作效率。
发明内容
本申请提供一种操作界面的生成方法、控制方法和装置。
本申请实施例提供一种操作界面的生成方法,方法包括:获取用户的操作手的移动信息;依据操作手的移动信息,确定操作手的三维移动路径;将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中,预设弧面网格模型为基于预设布线方式和预设角度确定的模型。
本申请实施例提供一种操作界面的控制方法,本申请实施例中的任意一种操作界面的生成方法,生成操作界面,方法包括:获取用户在操作界面中的操作信息;依据操作信息,确定用户对虚拟物体的控制方式。
本申请实施例提供一种操作界面的生成装置,其包括:第一获取模块,被配置为获取用户的操作手的移动信息;路径确定模块,被配置为依据操作手的移动信息,确定操作手的三维移动路径;生成模块,被配置为将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中,预设弧面网格模型为基于预设布线方式和预设角度确定的模型。
本申请实施例提供一种操作界面的控制装置,基于本申请实施例中的任意一种操作界面的生成方法,生成操作界面,该装置包括:第二获取模块,被配置为获取用户在操作界面中的操作信息;控制模块,被配置为依据操作信息,确定用户对虚拟物体的控制方式。
本申请实施例提供一种电子设备,包括:一个或多个处理器;存储器,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现本申请实施例中的任意一种操作界面的生成方法,或,本申请实施例中的任意一种操作界面的控制方法。
本申请实施例提供了一种可读存储介质,该可读存储介质存储有计算机程序,计算机程序被处理器执行时实现本申请实施例中的任意一种操作界面的生成方法,或,本申请实施例中的任意一种操作界面的控制方法。
根据本申请实施例的操作界面的生成方法和装置,通过依据获取到的用户的操作手的移动信息,确定操作手的三维移动路径,可准确获知用户的操作手的具体移动路径,方便为该用户建立个性化的操作方式;将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中的预设弧面网格模型为基将于预设布线方式和预设角度确定的模型,以使用户可以通过立体的操作界面对虚拟物体进行准确控制,使用户对远处的虚拟物体的操作精度得到提升;同时降低用户对虚拟物体的操作难度,提升用户对虚拟物体的操作效率,以使用户获得最好的使用体验。
根据本申请实施例的操作界面的控制方法和装置,通过采用本申请实施例中的任意一种操作界面的生成方法,生成操作界面,以使用户可以通过立体的操作界面对虚拟物体进行准确控制;获取用户在操作界面中的操作信息,使用户对远处的虚拟物体的操作精度得到提升;依据该操作信息,确定用户对虚拟物体的控制方式,降低用户对虚拟物体的操作难度,使用户可以对虚拟物体进行更精准的操控,提升用户与机器设备之间的交互效率。
关于本申请的以上实施例和其他方面以及其实现方式,在附图说明、具体实施方式和权利要求中提供更多说明。
附图说明
图1示出本申请实施例提供的一种操作界面的生成方法的流程示意图。
图2示出本申请实施例提供的操作界面的示意图。
图3示出本申请实施例提供的预设弧面网格模型的示意图。
图4示出本申请实施例提供的预设弧面网格模型构建方式示意图。
图5示出本申请一实施例提供的在构建预设弧面网格模型过程中的用户操作方式的示意图。
图6示出本申请又一实施例提供的在构建预设弧面网格模型过程中的用户操作方式的示意图。
图7示出本申请一实施例提供的一种三维操作界面的示意图。
图8示出本申请实施例提供的一种操作界面的控制方法的流程示意图。
图9示出本申请实施例提供的一种操作界面的生成装置的组成方框图。
图10示出本申请实施例提供的一种操作界面的控制装置的组成方框图。
图11示出本申请实施例提供的一种电子设备的结构示意图。
图12示出本申请实施例提供的一种电子设备的工作方法的流程示意图。
图13示出本申请又一实施例提供的一种三维操作界面的示意图。
图14示出本申请再一实施例提供的一种三维操作界面的示意图。
图15示出能够实现根据本申请实施例的操作界面的生成或操作界面的控制方法的计算设备的示例性硬件架构的结构图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下文中将结合附图对本申请的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
混合现实(Mixed Reality,MR)技术是一种在现实场景中呈现虚拟场景信息的技术,MR技术能够在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感受。MR技术可以包括:增强现实(Augmented Reality,AR)技术和虚拟现实(Virtual Reality,VR)技术。其中,VR技术是一种将多源信息进行融合、交互式的三维动态视景和实体行为的系统仿真,使用户沉浸到虚拟环境中。AR技术是一种实时的计算摄影机影像的位置及角度,并添加相应图像、视频和三维模型的技术,AR技术可以将虚拟信息与真实世界进行巧妙的融合。
目前,常用的手势交互方式包括:1)基于手势延长线实现的对远处物体的选取和操作,但基于手势延长线的操作方式,对于远处物体的操作精度很低,例如,手部的微弱角度变化会造成对远处物体的选择的地方发生巨大变化。并且,该方式还会使用户的操作指令不可达的情况出现,降低了用户的使用体验。2)直接使用手势交互对三维空间中的物体进行操作;但现有的AR设备在三维空间中的操作界面的显示方式,仍旧使用平面方式进行显示,使得显示给用户观看的显示区域和用户的操作区域的显示位置不一致,降低了用户手势在空间中的可达性,使用户无法便捷快速的对虚拟物体进行操作。
图1示出本申请实施例提供的一种操作界面的生成方法的流程示意图。该操作界面的生成方法可应用于操作界面的生成装置。如图1所示,本申请实施例中的操作界面的生成方法可以包括以下步骤。
步骤S101,获取用户的操作手的移动信息。
步骤S102,依据操作手的移动信息,确定操作手的三维移动路径。
步骤S103,将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面。
其中,预设弧面网格模型为基于预设布线方式和预设角度确定的模型。
在本实施例中,通过依据获取到的用户的操作手的移动信息,确定操作手的三维移动路径,可准确获知用户的操作手的具体移动路径,方便为该用户建立个性化的操作方式;将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中的预设弧面网格模型为基将于预设布线方式和预设角度确定的模型,以使用户可以通过立体的操作界面对虚拟物体进行准确控制,使用户对远处的虚拟物体的操作精度得到提升;同时降低用户对虚拟物体的操作难度,提升用户对虚拟物体的操作效率,以使用户获得最好的使用体验。
其中,操作界面,包括:至少一个操控区域;操控区域用于显示多个可供用户操控的操控元素。其中,操控元素包括:操作按钮、操作键盘、字母按钮和表情按钮中的至少一种。
通过提供至少一个操作区域给用户,以使用户可以通过操作区域中的多个不同的操控元素对虚拟物体进行操控,不仅使用户可以更方便的对虚拟物体进行处理,还能够提高用户对该虚拟物体的操控精度,使用户获得更好的使用体验。
例如,图2示出本申请实施例提供的操作界面的示意图。如图2所示,操作界面包括但不限于如下操控区域:键盘201和/或操作按钮202。用户通过对键盘201和/或操作按钮202的操作,来实现对虚拟世界中的物体进行操作和控制。
其中,在键盘201中,依次排列出26个英文字母、“回车”键、“shift”键、数字键(如,“123”按钮)、表情键(如按钮)、“空格键”、“发送”键等不同功能的按钮,以方便用户的操作。
操作按钮202包括四个字母按钮(如,按钮“A”、“B”、“C”、“D”)以及一个黑色按钮,该黑色按钮可以用于对虚拟物体的方向进行操控,能够提升对虚拟物体的方向的控制精度。
需要说明的是,图2所示出的操作界面仅是在平面(即二维空间上)上展示的不同的操控元素,当用户使用AR设备、VR设备或MR设备时,需要在三维空间在对虚拟物体进行操控,而仅在二维空间上展示的各个操控元素不利于用户的手动操作,需要将该操作界面映射到三维空间中,以方便用户的操作。
在执行步骤S103之前,还可以通过基于预设布线方式和预设角度确定预设弧面网格模型;再执行步骤S103中的将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,以使图2中的操作界面可以立体的显示在预设弧面网格模型中。
其中,预设布线方式,包括:基于经纬线对球体进行分割布线的方式,或,基于多边形对球体进行分割布线的方式。其中,多边形是由三条或三条以上的线段首尾顺次连接构建的平面显示的形状,例如,多边形可以包括三角形、四边形、……N边形等,N为大于或等于3的整数。
需要说明的是,上述对于预设布线方式仅是举例说明,可以根据实际需要进行具体设置,其他未说明的预设布线方式也在本申请的保护范围内,在此不再赘述。
图3示出本申请实施例提供的预设弧面网格模型的示意图。如图3所示,球体3-1表示基于经纬线对球体进行分割布线的经纬球体,球体3-2表示基于三角形对球体进行分割布线的棱角球体,球体3-3表示基于四边形对球体进行分割布线的多边形球体。而预设弧面网格模型可以是整个球体,也可以是球体中的一部分,以方便用户的空间操作为宜。
需要说明的是,上述具有不同布线方式的网格球体中的布线数量与用户操作拟合度成正比,用户操作拟合度为用户的操作手的三维移动路径与操作界面之间的拟合程度。
例如,预设弧面网格模型中的布线数量越多,即对网格球体的分割越细致,则用户操作拟合度越高,即,用户的操作手的三维移动路径与操作界面之间的匹配程度越高。
在一些具体实现中,在执行步骤S101中的获取用户的操作手的移动信息之前,还包括:获取用户的操作手的属性信息;依据操作手的属性信息,建立预设弧面网格模型。
其中,用户的操作手的属性信息包括:用户的手臂长度、手掌的属性信息和多个手指的属性信息中的至少一种。
需要说明的是,由于不同的用户的操作手的属性信息不同(例如,用户的手臂长度不同,手掌的属性信息也不同,对应的不同的用户的手指长度也都不同等),对应的构建的预设弧面网络模型也因人而异。
通过依据不同的用户的操作手的不同维度的属性信息,构建与不同的用户相匹配的预设弧面网格模型,能够使用户在三维空间上的操作信息更具个性化,使构建的预设弧面网格模型更符合不同的用户的操作习惯,使用户在三维空间上的操作更方便,从而使用户更准确的对虚拟世界中的物体进行精准控制,提升用户的使用体验。
在一些具体实现中,用户的操作手的属性信息,包括:用户的手臂属性信息和用户的肩关节的位置信息。依据操作手的属性信息,建立预设弧面网格模型,包括:依据用户的肩关节的位置信息和用户的手臂属性信息,构建预设弧面网格模型。
例如,图4示出本申请实施例提供的预设弧面网格模型构建方式示意图。图4中的左半部分示出了用户的肩关节的位置信息(如,三维空间坐标下的坐标值(x,y,z),其中,x,y,z均为实数),以及该用户的大臂长度为L1,小臂长度为L2,其中,L1和L2均为大于1的实数。通过上述属性信息,能够具体体现该用户的操作手(如,右手或左手)的属性信息,以方便后续使用上述操作手的属性信息构建预设弧面网格模型。
图4中的右半部分示出了以该用户的肩关节的位置坐标点(x,y,z)为圆心,以大臂和小臂的长度之后(即,L1+L2)为半径,构建一个网格球体,该网格球体的布线方式可以是预设布线方式中的任意一种。进而可以采用该网格球体的全部或部分弧面网格作为预设弧面网格模型。
通过依据用户的肩关节的位置信息和用户的手臂属性信息,构建预设弧面网格模型,能够体现不同用户的个性化使用需求,使预设弧面网格模型可以更符合用户的使用需求,提升用户的使用体验。
例如,在执行步骤S101中的获取用户的操作手的移动信息之前,还包括:获取用户的操作手的属性信息和用户的视觉范围信息;依据操作手的属性信息和用户的视觉范围信息,建立预设弧面网格模型。
其中,用户的视觉范围信息,包括:用户眼睛的可视范围。
通过用户眼睛的可视范围来对基于用户的操作手的属性信息构建的第一网格球体进行约束和匹配,从而获得第一网格球体中的一部分立体弧面,并将该部分立体弧面作为预设弧面网格模型。能够更精确的对用户能够操作到的空间范围进行规划,使预设弧面网格模型更符合用户的操作需求,方便用户的操作和使用。
在一些具体实现中,用户的操作手的属性信息,包括:用户的手臂属性信息和用户的肩关节的位置信息;依据操作手的属性信息和用户的视觉范围信息,建立预设弧面网格模型,包括:依据用户的肩关节的位置信息和用户的手臂属性信息,构建网格球体,其中,网格球体为基于预设布线方式确定的球体;依据用户的视觉范围信息,确定预设角度;依据网格球体和预设角度,确定预设弧面网格模型。
其中,预设角度可以用于表征用户的可视角度,例如,用户在保持头部不动的情况下,设置以用户的眼睛为圆心、向用户前面延伸的射线作为0度,用户能够观看到的可视角度范围为:向上50度~向下70度。又例如,用户在保持头部不动的情况下,设置以用户的眼睛为圆心、分别向用户的左右进行视线的延伸,该用户的可视角度可以为向左90度~向右90度等。通过立体的表征用户的可视角度,能够明确用户可以观看到的视觉范围信息,方便用户的操作。
通过以用户的肩关节的位置信息为圆心,以用户的大臂长度和/或小臂长度为半径,构建网格球体,能够方便用户可以基于手臂的长度对网格球体上的操作元素进行操作。因用户的可视范围有限,根据用户的视觉范围信息(如,用户的头部坐标、眼睛坐标等信息)确定预设角度,从而可以根据该预设角度对网格球体中的部分弧面网格进行截取,获得最佳操控区域模型,即预设弧面网格模型,以使该预设弧面网格模型能够更符合用户的可操控范围,提升用户的操作准确性。
在一些具体实现中,步骤S102中的依据操作手的移动信息,确定操作手的三维移动路径,包括:依据操作手的移动信息,确定边界位移信息和边界角度信息;依据边界位移信息和边界角度信息,确定操作手的三维移动路径。
例如,可以依据操作手的移动信息,确定至少一个活动范围(例如,至少一个活动范围,包括:手掌基于闭合路线的位移信息确定的第一活动范围,和/或,手掌基于预设挥动次数的位移信息确定的第二活动范围);通过依据至少一个活动范围,确定边界位移信息和边界角度信息,能够获知用户最远能够操作到的空间位置(如,最远的位移信息和/或操作手能够转动的最大角度信息等),以方便对用户的操作手的移动路径进行确定;依据边界位移信息和边界角度信息,确定操作手的三维移动路径,提升对用户在三维空间上的操作准确性。
其中,操作手的移动信息,包括:手掌基于闭合路线的位移信息,和/或,手掌基于预设挥动次数(如,方向相反的至少两次挥动)的位移信息。
例如,图5示出本申请一实施例提供的在构建预设弧面网格模型过程中的用户操作方式的示意图。如图5所示,用户的操作手在空间上进行环形挥动,从而产生一个空间的闭合路线,该闭合路线能够反应用户的手掌基于闭合路线的位移信息,从而获得手掌基于闭合路线的位移信息确定的第一活动范围。
又例如,图6示出本申请又一实施例提供的在构建预设弧面网格模型过程中的用户操作方式的示意图。如图6所示,用户的操作手在空间上进行方向相反的至少两次挥动,从而获得该用户的手掌在挥动过程中的位移信息,进而获得手掌基于方向相反的至少两次挥动的位移信息确定的第二活动范围。
需要说明的是,为了保证第二活动范围的准确性,用户在挥动的过程中的预设挥动次数可以根据实际检测的需要进行设置(如,设置3次、5次等),图6仅是示例性的示出用户的手掌挥动的方向和次数,其他未示出的预设挥动次数也在本申请的保护范围之内,在此不再赘述。
通过上述操作获得第一活动范围和/或第二活动范围,能够明确用户在三维空间上的边界位移信息和边界角度信息,从而依据边界位移信息和边界角度信息,将操作手的三维移动路径经过的网格进行选中和/或补齐等优化处理,从而获得更准确的用户操作范围,提升对用户的可控的操作范围的确定准确性。
进一步地,对图2所示的键盘201的尺寸进行调整,以使生成的三维操作界面能够以最大尺寸完整展示该键盘201。图7示出本申请一实施例提供的一种三维操作界面的示意图。用户通过使用VR设备或AR设备或XR设备,能够观看到该三维操作界面,并且,该三维操作界面中的各个操作元素支持用户直接通过手势进行触碰操作。
如图7所示,通过立体的操作界面来显示操作键盘,能够更方便用户在最佳的操控空间上对键盘中的不同按钮进行近距离操控,提升用户的使用感受。
需要说明的是,因预设弧面网格模型中的预设布线方式不同,以及布线数量的不同,用户在对该三维操作界面中的键盘进行操作时,对应的拟合程度也不同。当布线数量小于预设数量阈值时,会降低用户的操作精度;当布线数量大于预设数量阈值时,会提高用户的操作灵敏度;该布线数量可以根据用户的实际需要进行设置,犹如用户对鼠标的操控精准度的设置一样,根据用户的使用习惯进行设置,以满足用户的个性化需求。
当用户直接利用手势操作对三维操作界面上的立体键盘进行触碰操作时,该立体键盘的所有操控元素对用户来说都在最佳可达范围内,使用户对立体键盘的操作体验和触控效率获得明显提升。
在一些具体实现中,将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面之后,还包括:在确定用户的预设部位发生移动的情况下,获取预设部位的移动信息;依据预设部位的移动信息,更新操作手的移动信息;基于更新后的操作手的移动信息,更新操作手的三维移动路径;依据更新后的操作手的三维移动路径,更新操作界面。
其中,预设部位包括:肩关节、头部、鼻子、嘴巴和眼睛中的任意一种。
用户在使用三维操作界面中的操控元素对虚拟物体进行操控的过程中,该用户的预设部位可能发生位移或转动(例如,肩关节发生水平方向上的较短的位移,头部转动某个角度等),此时,操作界面的生成装置需要获取发生变化的预设部位的移动信息,从而依据该预设部位的移动信息对操作手的移动信息进行更新(例如,肩关节发生水平方向上的较短的位移,则对应的预设弧面网格模型就可能发生空间上的变化),将用于构建预设弧面网格模型的相关参数进行微调(例如,更新作为圆心的肩关节的位置信息,将原来的肩关节的位置坐标(x,y,z)更新为变化后的肩关节的位置坐标(x0,y0,z0)等,其中,x0,y0和z0均为实数);并基于更新后的操作手的移动信息,更新操作手的三维移动路径(例如,依据肩关节的位置坐标(x,y,z)和(x0,y0,z0)之间的变换关系,对操作手的移动信息(如,操作手的位移距离或转动角度等)进行对应的换算,以获得更新后的操作手的三维移动路径),以使该更新后的操作手的三维移动路径与更新后的预设弧面网格模型更匹配,从而是更新后的操作界面能够更契合用户的使用范围,实现三维操作界面在用户的预设部位发生变化的过程中的跟随效果,提升用户的使用体验。
例如,使更新后的三维操作界面相对应原来的三维操作界面是跟随移动或旋转的操作,从而新后的三维操作界面与用户的肩关节点的相对位置能够保持一致,符合用户的操作需求。
在一些具体实现中,将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面之后,还包括:在确定获得用户反馈的重建请求的情况下,依据获取到的更新后的操作手的移动信息,对三维操作界面进行重建。
需要说明的是,当用户的预设部位的位移或角度发生较大变更(例如,预设部位的变化位移大于预设位移阈值(如,变化位移大于1米等),或,预设部位的变化角度大于预设角度阈值(如,变化角度大于90度等)的情况下,用户因操作不方便,会向操作界面的生成装置发送重建请求,以使该操作界面的生成装置可以基于更新后的操作手的移动信息,对三维操作界面进行重建,该重建方法与本申请实施例中的任意一种操作界面的生成方法相同,在此不再赘述。
通过在确定获得用户反馈的重建请求的情况下,依据获取到的更新后的操作手的移动信息,对三维操作界面进行重建,能够使用户可以获得更符合其当前所在位置的三维操作界面,使用户基于更新后的三维操作界面可以更准确的对虚拟物体进行操作,提升用户的使用体验。
图8示出本申请实施例提供的一种操作界面的控制方法的流程示意图。该操作界面的生成方法可应用于操作界面的控制装置。其中,操作界面是基于本申请实施例中的任意一种操作界面的生成方法生成的界面。
如图8所示,本申请实施例中的操作界面的控制方法可以包括以下步骤。
步骤S801,获取用户在操作界面中的操作信息。
其中,操作信息可以包括用户对操作界面中的不同的操作元素的控制信息。例如,用户按下的字母按钮对应的字母信息、用户操作方向按钮对应的移动方向信息等。
步骤S802,依据操作信息,确定用户对虚拟物体的控制方式。
例如,当操作信息包括用户控制方向按钮向上,以及输入位移信息为1米时,能够明确该用户希望控制虚拟物体向上移动1米。又例如,当操作信息包括输入的字母信息为连续的M、O、V、E时,可以获知用户需要对虚拟物体进行“move”(即移动虚拟物体)。
通过不同的操作信息,能够明确用户对虚拟物体的不同控制方式,是用户可以对虚拟物体进行精准控制,提升用户与机器设备之间的交互效率。
在本实施例中,通过采用本申请实施例中的任意一种操作界面的生成方法,生成操作界面,以使用户可以通过立体的操作界面对虚拟物体进行准确控制,以使用户可以通过立体的操作界面对虚拟物体进行准确控制;获取用户在操作界面中的操作信息,使用户对远处的虚拟物体的操作精度得到提升;依据该操作信息,确定用户对虚拟物体的控制方式,降低用户对虚拟物体的操作难度,使用户可以对虚拟物体进行更精准的操控,提升用户与机器设备之间的交互效率。
下面结合附图,详细介绍根据本申请实施例的操作界面的生成装置。图9示出本申请一实施例提供的操作界面的生成装置的结构示意图。如图9所示,操作界面的生成装置900可以包括如下模块。
第一获取模块901,被配置为获取用户的操作手的移动信息;路径确定模块902,被配置为依据操作手的移动信息,确定操作手的三维移动路径;生成模块903,被配置为将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中,预设弧面网格模型为基于预设布线方式和预设角度确定的模型。
根据本申请实施例的操作界面的生成装置,通过路径确定模块依据获取到的用户的操作手的移动信息,确定操作手的三维移动路径,可准确获知用户的操作手的具体移动路径,方便为该用户建立个性化的操作方式;生成模块将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中的预设弧面网格模型为基将于预设布线方式和预设角度确定的模型,以使用户可以通过立体的操作界面对虚拟物体进行准确控制,使用户对远处的虚拟物体的操作精度得到提升;同时降低用户对虚拟物体的操作难度,提升用户对虚拟物体的操作效率,以使用户获得最好的使用体验。
图10示出本申请一实施例提供的操作界面的控制装置的结构示意图。基于本申请实施例中的任意一种操作界面的生成方法,生成操作界面。如图10所示,操作界面的控制装置1000可以包括如下模块。
第二获取模块1001,被配置为获取用户在操作界面中的操作信息。
控制模块1002,被配置为依据操作信息,确定用户对虚拟物体的控制方式。
根据本申请实施例的操作界面的生成装置,通过采用本申请实施例中的任意一种操作界面的生成方法,生成操作界面,以使用户可以通过立体的操作界面对虚拟物体进行准确控制;第二获取模块获取用户在操作界面中的操作信息,使用户对远处的虚拟物体的操作精度得到提升;控制模块依据该操作信息,确定用户对虚拟物体的控制方式,降低用户对虚拟物体的操作难度,使用户可以对虚拟物体进行更精准的操控,提升用户与机器设备之间的交互效率。
图11示出本申请实施例提供的一种电子设备的结构示意图。例如,该电子设备可以是VR设备、AR设备和MR设备中的任意一种。用户通过使用该电子设备,与机器设备之间进行基于手势的信息的交互,实现用户在三维空间上的操作。
如图11所示,该电子设备包括但不限于如下模块:获取模块1101、显示模块1102、控制模块1103、判断模块1104和计算与存储模块1105。
其中,获取模块1101:用于获取用户数据。例如,利用VR设备中的传感器、或AR设备中的传感器、或XR设备中的传感器等获取用户的操作手的属性信息,以及操作手的移动信息等。其中,传感器可以包括:肌电传感器、位姿传感器、音频接收传感器中的至少一种。并且,VR设备中还可以安装有三维深度相机和/或双目相机等。操作手的属性信息包括:用户的肩关节在三维空间中的位置信息、大臂长度和小臂的长度中的至少一种。操作手的移动信息包括:用户的手掌在运动过程中的经过的位置信息,以及该用户与显示界面进行手势互动的数据等。上述用户数据可以存储在计算与存储模块1105中。
显示模块1102:用于将计算与存储模块1105中存储的信息显示到三维空间中,以方便用户的查看。
控制模块1103:用于在接收到判断模块1104发送的控制指令的情况下,控制获取模块1101进行用户数据的获取,并控制显示模块1102进行信息的显示。
判断模块1104:用于基于计算与存储模块1105中存储的用户数据,判断是否发送控制指令给控制模块1103(例如,根据用户的使用需求判断是否生成控制指令等)。在确定需要发送控制指令的情况下,向控制模块1103发送控制指令,以使控制模型1103根据该控制指令进行对应的操作。其中,控制指令可以包括:控制显示模块1102显示至少一个操控区域中的多个操控元素,以供用户对这些操控元素进行控制。
计算与存储模块1105:用于对获取模块1101获取到的用户数据进行计算和存储。例如,依据操作手的移动信息,确定操作手的三维移动路径,并将操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,该操作界面是能够在三维空间中进行显示的操作界面。并且,还会将用户在操作界面中的操作信息也进行存储,以方便根据该操作信息确认用户对虚拟物体的控制方式。
图12示出本申请实施例提供的一种电子设备的工作方法的流程示意图。如图12所示,该电子设备的工作方法包括但不限于如下步骤。
步骤S1201,获取平面显示的多个操控元素的特征,并依据多个操控远端的特征,确定平面操作界面。
其中,操控元素可以包括字母按钮、方向按钮、表情按钮、字母按钮、功能键等多种不同的元素,可以根据用户的使用习惯对多个操控元素进行排列组合,从而确定平面操作界面。
例如,该平面操作界面可以采用操作键盘,和/或,操作按钮控制区等方式进行显示,以方便用户的使用。
步骤S1202,获取用户的操作手的属性信息和该操作手的移动信息。
其中,操作手的属性信息包括:用户的肩关节在三维空间中的位置信息、大臂长度和小臂的长度中的至少一种。
操作手的移动信息包括:手掌基于闭合路线的位移信息,和/或,手掌基于预设挥动次数的位移信息,以及该用户与显示界面进行手势互动的数据等。
步骤S1203,依据操作手的属性信息,建立预设弧面网格模型。
其中,预设弧面网络模型是基于预设布线方式和预设角度确定的模型,其中的预设布线方式包括基于经纬线对球体进行分割布线的方式,或,基于多边形对球体进行分割布线的方式,多边形是由三条或三条以上的线段首尾顺次连接所组成的平面图形。
步骤S1204,依据操作手的移动信息,确定操作手的三维移动路径。
其中,操作手的移动信息包括:用户通过至少两次挥动手掌形成的在三维空间中的运动轨迹。通过该运动轨迹,能够确定该操作手的三维移动路径,进而明确用户的手掌能够移动的边界位置信息和边界角度信息。
步骤S1205,将操作手的三维移动路径映射到预设弧面网格模型中,生成能够在三维空间上显示的三维操作界面。
例如,图13示出本申请又一实施例提供的一种三维操作界面的示意图。如图13所示,通过将图2中的操作按钮202映射至预设弧面网格模型中,从而可以立体的向用户展示该操作按钮202。
需要说明的是,生成的三维操作界面的显示范围是根据用户的手掌能够移动的边界位置信息和边界角度信息,确定的最佳显示范围,在该三维操作界面中,能够充分展示操作按钮202,以方便用户的操作。对用户来说,三维操作界面中所显示的各个操作按钮都在用户的最佳可达范围内,能够提升用户的触控操作效率,并提升用户的操作体验。
又例如,如果操作元素过多,还可以支持用户同时建立多个三维操作界面。例如,通过用户的左手和右手的三维移动路径,构建多个三维操作界面。
图14示出本申请再一实施例提供的一种三维操作界面的示意图。如图14所示,通过将图2中的键盘201和操作按钮202分别映射至预设弧面网格模型中,从而可以立体的向用户展示多个三维操作界面,以方便用户的操作。
步骤S1206,向用户显示三维操作界面,以使用户可以在该三维操作界面中对虚拟物体进行操作和控制。
例如,用户可以通过其右手对三维操作界面中的键盘201中的各个操控元素进行操作,同时,该用户还可以通过其左手对三维操作界面中的操作按钮202中的各个按钮进行操作,能够满足用户的个性化需求,提升用户的操作效率。
在本实施例中,通过依据获取到的用户的操作手的移动信息,确定操作手的三维移动路径,可准确获知用户的操作手的具体移动路径,方便为该用户建立个性化的操作方式;将操作手的三维移动路径映射到预设弧面网格模型中,生成三维操作界面,以使用户可以通过立体的三维操作界面对虚拟物体进行准确控制,使用户对远处的虚拟物体的操作精度得到提升;同时降低用户对虚拟物体的操作难度,提升用户对虚拟物体的操作效率,以使用户可以更直观的通过手势操作对虚拟物体进行控制,获得最好的使用体验。
需要明确的是,本申请并不局限于上文实施例中所描述并在图中示出的特定配置和处理。为了描述的方便和简洁,这里省略了对已知方法的详细描述,并且上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图15示出能够实现根据本申请实施例的操作界面的生成或操作界面的控制方法的计算设备的示例性硬件架构的结构图。
如图15所示,计算设备1500包括输入设备1501、输入接口1502、中央处理器1503、存储器1504、输出接口1505、以及输出设备1506。其中,输入接口1502、中央处理器1503、存储器1504、以及输出接口1505通过总线1507相互连接,输入设备1501和输出设备1506分别通过输入接口1502和输出接口1505与总线1507连接,进而与计算设备1500的其他组件连接。
具体地,输入设备1501接收来自外部的输入信息,并通过输入接口1502将输入信息传送到中央处理器1503;中央处理器1503基于存储器1504中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器1504中,然后通过输出接口1505将输出信息传送到输出设备1506;输出设备1506将输出信息输出到计算设备1500的外部供用户使用。
在一个实施例中,图15所示的计算设备可以被实现为一种电子设备,该电子设备可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的任意一种操作界面的生成方法,或,本申请实施例中的任意一种操作界面的控制方法。
在一个实施例中,图15所示的计算设备可以被实现为一种操作界面的生成系统,该操作界面的生成系统可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的任意一种操作界面的生成方法。
在一个实施例中,图15所示的计算设备可以被实现为一种操作界面的控制系统,该操作界面的控制系统可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的任意一种操作界面的控制方法。
以上所述,仅为本申请的示例性实施例而已,并非用于限定本申请的保护范围。一般来说,本申请的多种实施例可以在硬件或专用电路、软件、逻辑或其任何组合中实现。例如,一些方面可以被实现在硬件中,而其它方面可以被实现在可以被控制器、微处理器或其它计算装置执行的固件或软件中,尽管本申请不限于此。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码。
本申请附图中的任何逻辑流程的框图可以表示程序步骤,或者可以表示相互连接的逻辑电路、模块和功能,或者可以表示程序步骤与逻辑电路、模块和功能的组合。计算机程序可以存储在存储器上。存储器可以具有任何适合于本地技术环境的类型并且可以使用任何适合的数据存储技术实现,例如但不限于只读存储器(ROM)、随机访问存储器(RAM)、光存储器装置和系统(数码多功能光碟DVD或CD光盘)等。计算机可读介质可以包括非瞬时性存储介质。数据处理器可以是任何适合于本地技术环境的类型,例如但不限于通用计算机、专用计算机、微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、可编程逻辑器件(FGPA)以及基于多核处理器架构的处理器。
通过示范性和非限制性的示例,上文已提供了对本申请的示范实施例的详细描述。但结合附图和权利要求来考虑,对以上实施例的多种修改和调整对本领域技术人员来说是显而易见的,但不偏离本申请的范围。因此,本申请的恰当范围将根据权利要求确定。
Claims (13)
1.一种操作界面的生成方法,其特征在于,所述方法包括:
获取用户的操作手的移动信息;
依据所述操作手的移动信息,确定所述操作手的三维移动路径;
将所述操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中,所述预设弧面网格模型为基于预设布线方式和预设角度确定的模型。
2.根据权利要求1所述的方法,其特征在于,所述依据所述操作手的移动信息,确定所述操作手的三维移动路径,包括:
依据所述操作手的移动信息,确定边界位移信息和边界角度信息;
依据所述边界位移信息和边界角度信息,确定所述操作手的三维移动路径。
3.根据权利要求2所述的方法,其特征在于,所述操作手的移动信息,包括:手掌基于闭合路线的位移信息,和/或,所述手掌基于预设挥动次数的位移信息。
4.根据权利要求1所述的方法,其特征在于,所述将所述操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面之后,还包括:
在确定所述用户的预设部位发生移动的情况下,获取所述预设部位的移动信息;
依据所述预设部位的移动信息,更新所述操作手的移动信息;
基于更新后的所述操作手的移动信息,更新所述操作手的三维移动路径;
依据更新后的所述操作手的三维移动路径,更新所述操作界面。
5.根据权利要求1所述的方法,其特征在于,所述获取用户的操作手的移动信息之前,还包括:
获取所述用户的操作手的属性信息,其中,所述用户的操作手的属性信息包括:所述用户的手臂属性信息和所述用户的肩关节的位置信息;
依据所述用户的肩关节的位置信息和所述用户的手臂属性信息,构建所述预设弧面网格模型。
6.根据权利要求1所述的方法,其特征在于,所述获取用户的操作手的移动信息之前,还包括:
获取所述用户的操作手的属性信息和所述用户的视觉范围信息,其中,所述用户的操作手的属性信息包括:所述用户的手臂属性信息和所述用户的肩关节的位置信息;
依据所述用户的肩关节的位置信息和所述用户的手臂属性信息,构建网格球体,其中,所述网格球体为基于所述预设布线方式确定的球体;
依据所述用户的视觉范围信息,确定所述预设角度;
依据所述网格球体和所述预设角度,确定所述预设弧面网格模型。
7.根据权利要求6所述的方法,其特征在于,所述预设布线方式,包括:基于经纬线对所述球体进行分割布线的方式,或,基于多边形对所述球体进行分割布线的方式。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述操作界面,包括:至少一个操控区域;所述操控区域用于显示多个可供所述用户操控的操控元素。
9.一种操作界面的控制方法,其特征在于,基于权利要求1至8中任一项所述的操作界面的生成方法,生成操作界面,所述方法包括:
获取用户在所述操作界面中的操作信息;
依据所述操作信息,确定所述用户对虚拟物体的控制方式。
10.一种操作界面的生成装置,其包括:
第一获取模块,被配置为获取用户的操作手的移动信息;
路径确定模块,被配置为依据所述操作手的移动信息,确定所述操作手的三维移动路径;
生成模块,被配置为将所述操作手的三维移动路径映射到预设弧面网格模型中,生成操作界面,其中,所述预设弧面网格模型为基于预设布线方式和预设角度确定的模型。
11.一种操作界面的控制装置,基于权利要求1至8中任一项所述的操作界面的生成方法,生成操作界面,其包括:
第二获取模块,被配置为获取用户在所述操作界面中的操作信息;
控制模块,被配置为依据所述操作信息,确定所述用户对虚拟物体的控制方式。
12.一种电子设备,包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至8中任一项所述的操作界面的生成方法,或如权利要求9所述的操作界面的控制方法。
13.一种可读存储介质,其特征在于,所述可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的操作界面的生成方法,或如权利要求9所述的操作界面的控制方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210450377.1A CN116974435A (zh) | 2022-04-24 | 2022-04-24 | 操作界面的生成方法、控制方法和装置 |
PCT/CN2023/071748 WO2023207226A1 (zh) | 2022-04-24 | 2023-01-10 | 操作界面的生成方法、控制方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210450377.1A CN116974435A (zh) | 2022-04-24 | 2022-04-24 | 操作界面的生成方法、控制方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116974435A true CN116974435A (zh) | 2023-10-31 |
Family
ID=88480246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210450377.1A Pending CN116974435A (zh) | 2022-04-24 | 2022-04-24 | 操作界面的生成方法、控制方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116974435A (zh) |
WO (1) | WO2023207226A1 (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150110257A (ko) * | 2014-03-21 | 2015-10-02 | 삼성전자주식회사 | 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스 |
CN104951211B (zh) * | 2014-03-24 | 2018-12-14 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN105843371B (zh) * | 2015-01-13 | 2018-11-02 | 上海速盟信息技术有限公司 | 人机隔空交互方法及系统 |
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
US10712900B2 (en) * | 2018-06-06 | 2020-07-14 | Sony Interactive Entertainment Inc. | VR comfort zones used to inform an In-VR GUI editor |
US11301049B2 (en) * | 2019-09-17 | 2022-04-12 | Huawei Technologies Co., Ltd. | User interface control based on elbow-anchored arm gestures |
-
2022
- 2022-04-24 CN CN202210450377.1A patent/CN116974435A/zh active Pending
-
2023
- 2023-01-10 WO PCT/CN2023/071748 patent/WO2023207226A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023207226A1 (zh) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110603509B (zh) | 计算机介导的现实环境中直接和间接交互的联合 | |
CN108762482B (zh) | 一种大屏幕和增强现实眼镜间数据交互方法和系统 | |
Millette et al. | DualCAD: integrating augmented reality with a desktop GUI and smartphone interaction | |
Telkenaroglu et al. | Dual-finger 3d interaction techniques for mobile devices | |
US20140015831A1 (en) | Apparatus and method for processing manipulation of 3d virtual object | |
CN105912110A (zh) | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 | |
CN103793060A (zh) | 一种用户交互系统和方法 | |
US10895950B2 (en) | Method and system for generating a holographic image having simulated physical properties | |
CN115335894A (zh) | 用于虚拟和增强现实的系统和方法 | |
Shim et al. | Gesture-based interactive augmented reality content authoring system using HMD | |
CN103744518A (zh) | 立体交互方法及其显示装置和系统 | |
CN112198962A (zh) | 一种与虚拟现实设备交互的方法及虚拟现实设备 | |
Park et al. | New design and comparative analysis of smartwatch metaphor-based hand gestures for 3D navigation in mobile virtual reality | |
Stork et al. | Efficient and precise solid modelling using a 3D input device | |
Hachet et al. | Navidget for 3d interaction: Camera positioning and further uses | |
Lee et al. | Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality | |
KR101428577B1 (ko) | 적외선 동작 인식 카메라를 사용하여 화면상에 네추럴 유저 인터페이스 기반 입체 지구본을 제공하는 방법 | |
CN109643182A (zh) | 信息处理方法、装置、云处理设备及计算机程序产品 | |
CN116974435A (zh) | 操作界面的生成方法、控制方法和装置 | |
Liu et al. | COMTIS: Customizable touchless interaction system for large screen visualization | |
KR102392675B1 (ko) | 3차원 스케치를 위한 인터페이싱 방법 및 장치 | |
Ismail et al. | Real Hand Gesture in Augmented Reality Drawing with Markerless Tracking on Mobile | |
KR20230170485A (ko) | 손 동작에 관한 이미지 데이터를 획득하는 전자 장치 및 그 동작 방법 | |
KR102359598B1 (ko) | 3차원 스케칭 방법 및 장치 | |
CN117492555A (zh) | 对象移动控制方法、装置、设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |