CN117590947A - 一种交互控制方法及电子设备 - Google Patents
一种交互控制方法及电子设备 Download PDFInfo
- Publication number
- CN117590947A CN117590947A CN202311631204.0A CN202311631204A CN117590947A CN 117590947 A CN117590947 A CN 117590947A CN 202311631204 A CN202311631204 A CN 202311631204A CN 117590947 A CN117590947 A CN 117590947A
- Authority
- CN
- China
- Prior art keywords
- interactive
- interaction
- control
- operated object
- interactive operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 177
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000002452 interceptive effect Effects 0.000 claims abstract description 250
- 238000011217 control strategy Methods 0.000 claims abstract description 74
- 230000016776 visual perception Effects 0.000 claims abstract description 72
- 230000004044 response Effects 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 26
- 230000009471 action Effects 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 241000086550 Dinosauria Species 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种交互控制方法及电子设备,交互控制方法包括:在获得目标使用者的交互操作后,确定交互操作指向的被操作对象;基于交互操作的作用区域与目标使用者的视觉感知区域的关系以对应的控制策略控制被操作对象的显示参数;其中,视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
Description
技术领域
本申请涉及虚拟交互技术领域,特别涉及一种交互控制方法及电子设备。
背景技术
在3D显示逐渐演变成主流显示方式的过程中,通过运用人眼追踪技术,将3D内容进行定向显示,这大大提高了3D显示的显示效果,以及应用的可行性。
但是在目前的3D显示中,使用者仍需要通过鼠标、键盘等设备来对3D设备的显示内容进行操作,交互性较差。
发明内容
本申请实施例的目的在于提供一种交互控制方法及电子设备。
第一方面,本申请实施例提供了一种交互控制方法,包括:
在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
在一种可能的实施方式中,确定所述交互操作指向的被操作对象,包括以下至少之一:
获得所述交互操作的作用区域的坐标信息,将所述立体空间区域中与所述坐标信息匹配的对象确定为所述被操作对象;
获得所述交互操作的姿态参数,基于所述姿态参数确定所述立体空间区域中的全部对象或部分对象确定为所述被操作对象;
在所述交互操作为语音交互操作的情况下,识别所述语音交互操作的语义内容,从所述立体空间区域中确定与所述语义内容匹配的对象作为所述被操作对象。
在一种可能的实施方式中,基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数,包括以下至少之一:
如果所述作用区域在所述视觉感知区域内,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数;
如果所述作用区域在所述视觉感知区域之外,以第二控制策略响应所述交互操作来控制所述被操作对象的显示参数;
如果所述作用区域横跨所述视觉感知区域的边缘,以第三控制策略响应所述交互操作来控制所述被操作对象的显示参数;
其中,在不同的控制策略下,所述显示参数的变化速率和/或变化幅度不同。
在一种可能的实施方式中,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数,包括以下至少之一:
基于所述交互操作的操作起点和操作终点确定所述交互操作的操作变量,基于所述操作变量在所述第一控制策略下的映射变量控制所述被操作对象从第一显示参数切换至第二显示参数;
如果所述交互操作用于改变所述被操作对象的色彩显示属性,以目标使用者的色彩选择或基于被操作对象与其他关联对象之间的色彩关系切换被操作对象的色彩显示参数;
在所述交互操作为语音交互操作的情况下,识别所述语音交互操作的输入变量,基于所述输入变量调整所述被操作对象的显示参数,其中,所述输入变量包括用于改变所述被操作对象的色彩显示属性、位姿显示属性、显示尺寸中的至少之一。
在一种可能的实施方式中,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数,包括:
在所述立体空间显示输出有虚拟交互控件的情况下,如果所述交互操作还包括有选择目标虚拟交互控件的操作,基于所述交互操作的操作变量和所述目标虚拟交互控件的配置信息调整所述被操作对象的显示参数;
其中,所述虚拟交互控件基于或不基于所述交互产生,且/或,所述虚拟交互控件能够基于所述交互操作的类型和/或所述被操作对象进行更新。
在一种可能的实施方式中,以第二控制策略响应所述交互操作来控制所述被操作对象的显示参数,包括以下之一:
识别所述交互操作的类型,基于所述交互操作的类型控制所述立体空间区域内的全部对象的显示参数;
确定所述交互操作的作用区域与所述立体空间区域的相对位置关系,基于所述相对位置关系和所述交互操作的类型控制所述立体空间区域内的至少部分对象的显示参数,其中,在不同的相对位置关系下,所述被操作对象能够响应的交互操作的类型的数量不同;
响应于监控到目标使用者作出目标交互操作,控制所述立体空间区域内的第一对象更换为第二对象,其中,所述第二对象与所述第一对象具有关联关系或不具有关联关系。
在一种可能的实施方式中,所述的交互控制方法还包括:
响应于获得至少两个操作者的交互操作,基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数。
在一种可能的实施方式中,基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数,包括以下至少之一:
如果所述操作者不具有操作权限,不响应所述交互操作;
如果所述操作者均具有所述操作权限,分别确定各操作者的交互操作所指向的被操作对象,以及在所述被操作对象之间没有冲突的情况下,分别响应各被操作对象的显示参数的控制;
如果所述操作者的操作权限等级不同,基于操作权限等级响应针对所述被操作对象的显示参数的控制;
如果所述操作者的操作权限范围不同,基于所述操作权限范围响应针对所述被操作对象的显示参数的控制。
在一种可能的实施方式中,所述的交互控制方法还包括:
响应于目标交互操作,控制所述被操作对象的显示参数和所述电子设备的关联模组的位姿同步发生变化。
第二方面,本申请实施例还提供了一种电子设备,包括:
确定模块,其配置为在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
第一控制模块,其配置为基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
第三方面,本申请实施例还提供了另一种电子设备,包括:处理器和存储器,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述任意一项所述的交互控制方法的步骤。
第四方面,本申请实施例还提供了一种存储介质,其中,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述任意一项所述的交互控制方法的步骤。
本申请实施例基于获得的交互操作确定被操作对象,并根据交互操作的作用区域与目标使用者的视觉感知区域之间的关系,确定对应的控制策略,之后按照该控制策略控制被操作对象的显示参数,也即不同的关系对应有不同的控制策略,这不仅实现了基于交互操作进行交互控制的目的,还能够基于不同的作用区域和视觉感知区域执行不同的控制策略,交互性较高;并且,无需实体设备便可执行交互操作,降低了交互的局限性,提高了目标使用者的交互体验。
附图说明
为了更清楚地说明本申请或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请所提供的一种交互控制方法的流程图;
图2示出了本申请所提供的一种交互操作的作用区域与目标使用者的视觉感知区域的关系的示意图;
图3示出了本申请所提供的立体空间内设置有虚拟交互控件的示意图;
图4示出了本申请所提供的另一种交互操作的作用区域与目标使用者的视觉感知区域的关系的示意图;
图5示出了本申请所提供的部分手势类型的示意图;
图6示出了本申请所提供的一种电子设备的结构示意图;
图7示出了本申请所提供的另一种电子设备的结构示意图。
具体实施方式
此处参考附图描述本申请的各种方案以及特征。
应理解的是,可以对此处申请的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本申请的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本申请的实施例,并且与上面给出的对本申请的大致描述以及下面给出的对实施例的详细描述一起用于解释本申请的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本申请的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本申请进行了描述,但本领域技术人员能够确定地实现本申请的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本申请的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本申请的具体实施例;然而,应当理解,所申请的实施例仅仅是本申请的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本申请模糊不清。因此,本文所申请的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本申请。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本申请的相同或不同实施例中的一个或多个。
为便于对本申请进行理解,首先对本申请提供的一种交互控制方法进行详细介绍,这里,本申请实施例的交互控制方法应用于电子设备如3D设备,进而本申请实施例的执行主体可以为电子设备的处理器或控制器等。
图1示出了本申请实施例提供的交互控制方法的流程图,其中,具体步骤包括S101和S102。
S101,在获得目标使用者的交互操作后,确定交互操作指向的被操作对象。
在具体实施中,目标使用者可以是任意使用者,例如,在基于电子设备如裸眼3D设备显示某一研讨对象时,参与研讨的学者(也即任意使用者)均可以为目标使用者。在又一示例中,目标使用者还可以为通过身份验证的特定使用者,例如,设计师基于电子设备显示其设计的对象时,在设计的过程中,为了避免除设计师之外的其他用户破坏该对象,因此,在执行本申请实施例的步骤之前,需要对使用者进行身份验证,并将通过身份验证的使用者(也即设计师)确定为目标使用者。综上,根据实际需求设定目标使用者即可,本申请实施例对此不做具体限定。
在确定目标使用者之后,实时采集目标使用者的交互操作,其中,交互操作包括手势交互操作、视线交互操作以及语音交互操作中的一种或多种。可选地,通过摄像头、深度相机(Time of flight camera,TOF camera)等装置采集手势交互操作,通过人眼追踪器等装置采集视线交互操作,通过麦克风等装置采集语音交互操作。
可选地,在电子设备显示输出三维对象数据时能够被目标使用者感知到的立体空间区域内对应输出有虚拟交互控件(如虚拟触控板、虚拟悬浮球等)的情况下,目标使用者的交互操作还包括目标使用者对虚拟交互控件的交互操作,可以直接监控虚拟交互控件的变化即可获得交互操作。当然,在其他实施例中,所述虚拟交互控件也可以不随三维内容数据的数据源输出,而仅依赖电子设备的光线输出模组,但所述光线输出模组输出的虚拟显示控件与所述三维内容数据具有内容上的关联关系,如能够控制所述三维内容数据的显示参数的变化。
在获得目标使用者的交互操作后,确定交互操作指向的被操作对象,该被操作对象即为目标使用者期望控制的对象。其中,该被操作对象可以为单一对象,也可以为多个对象,还可以为整个显示输出的对象等。例如,电子设备当前显示的对象为一只恐龙时,该恐龙的头可以确定为被操作对象,该恐龙的四肢和尾巴也可以确定为被操作对象,整个恐龙还可以确定为被操作对象等。
S102,基于交互操作的作用区域与目标使用者的视觉感知区域的关系以对应的控制策略控制被操作对象的显示参数。
在获得交互操作时,还能够获得该交互操作的作用区域,也即形成该交互操作的区域。以交互操作包括的包括手势交互操作为例,深度相机采集手势交互操作时,根据其测距原理能够同时探测到自身与形成手势交互操作的手部之间的距离(深度信息)以及相对角度,基于该距离(深度信息)和相对角度便可以确定出该交互操作的作用区域。
可选地,在目标使用者使用电子设备的过程中,电子设备上的人眼追踪器能够追踪目标使用者的视线,根据电子设备的显示参数以及目标使用者的视线,确定目标使用者的视觉感知区域,视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。其中,该视觉感知区域可以为电子设备显示输出三维对象数据时的三维显示区域,也可以为目标使用者感知到的立体空间区域,还可以为三维对象显示区域与立体空间区域存在的重叠区域等。
在获得交互操作的作用区域与视觉感知区域之后,进一步确定该作用区域与视觉感知区域之间的关系,其中,作用区域与视觉感知区域之间的关系包括作用区域在视觉感知区域内、作用区域在视觉感知区域之外以及作用区域横跨视觉感知区域的边缘。
在确定作用区域与视觉感知区域之间的关系之后,基于该关系以对应的控制策略控制被操作对象的显示参数。例如,关系表征作用区域在视觉感知区域内时,则以局部控制策略控制被操作对象的显示参数;关系表征作用区域在视觉感知区域之外时,则以整体控制策略控制被操作对象的显示参数。这里,若作用区域与虚拟交互控件对应的区域之间存在重叠区域,则以控件控制策略控制被操作对象的显示参数。
其中,被操作对象的显示参数包括显示大小、显示位置以及显示姿态等。
本申请实施例基于获得的交互操作确定被操作对象,并根据交互操作的作用区域与目标使用者的视觉感知区域之间的关系,确定对应的控制策略,之后按照该控制策略控制被操作对象的显示参数,也即不同的关系对应有不同的控制策略,这不仅实现了基于交互操作进行交互控制的目的,还能够基于不同的作用区域和视觉感知区域执行不同的控制策略,交互性较高;并且,无需实体设备便可执行交互操作,降低了交互的局限性,提高了目标使用者的交互体验。
本申请实施例中,在确定交互操作指向的被操作对象时,通过以下至少之一的确定方式来确定交互操作指向的被操作对象。
第一种确定方式
获得交互操作的作用区域的坐标信息,将立体空间区域中与坐标信息匹配的对象确定为被操作对象。可选地,基于电子设备显示输出三维对象数据时的三维显示区域构建一空间坐标系,或者基于电子设备所处的立体空间构建一空间坐标系,基于此,在获得交互操作的同时,通过TOF相机获得交互操作的作用区域在空间坐标系下的坐标信息。例如,交互操作为手势交互操作时,TOF相机采集手部对应的点云图像,点云图像中包括单手手势或双手手势,之后,对点云图像进行分析计算,便可得到手部的坐标信息,也即交互操作的作用区域的坐标信息。当然,还可以通过其他深度相机、红外传感器阵列、超声传感器等来确定交互操作的作用区域的坐标信息。可选地,在交互操作为视线交互操作或语音交互操作时,同样可以采用上述方式来确定目标使用者的头部的坐标信息,进而获得交互操作的作用区域的坐标信息。
在获得交互操作的作用区域的坐标信息之后,将立体空间区域中与坐标信息匹配的对象确定为被操作对象。具体地,在作用区域与视觉感知区域之间存在重叠区域时,将该坐标信息对应的显示输出的单一对象或多个对象确定为被操作对象;在作用区域与视觉感知区域之间不存在重叠区域时,将整个显示输出的对象确定为被操作对象。
第二种确定方式
获得交互操作的姿态参数,基于姿态参数确定立体空间区域中的全部对象或部分对象确定为被操作对象。可选地,针对不同的被操作对象设置不同的交互操作,例如,交互操作为手势交互操作时,预先设置单手手势对应立体空间区域中的全部对象(也即整个显示输出的对象),同时设置双手手势对应部分对象(也即显示输出的单一对象或多个对象),进而在获得交互操作之后,确定交互操作的姿态参数,以基于该姿态参数确定立体空间区域中的全部对象或部分对象确定为被操作对象。这里的姿态参数包括手的数量。
可选地,交互操作的姿态参数还包括手的姿态,进而可以设置双手手势中一个手势为固定手势时,其对应部分对象中的多个对象为被操作对象,双手手势中一个手势为固定手势时,其对应部分对象中的多个对象为被操作对象等,本申请实施例对此不做具体限定。
第三种确定方式
在交互操作为语音交互操作的情况下,识别语音交互操作的语义内容,从立体空间区域中确定与语义内容的对象作为被操作对象。这里,在交互操作为语音交互操作的情况下,也即目标使用者通过语音进行交互操作,此时,在获得目标使用者的语音之后,识别语音交互操作的语义内容,进而从立体空间区域中确定与语义内容匹配的对象作为被操作对象。作为其中一个示例地,基于语义内容中包括的关键词来确定被操作对象。
当然,针对电子设备显示输出的三维对象不同,设置语义内容的关键词也不相同,例如,在显示输出的三维对象为动物时,便可以设置语义内容的关键词为肢体部位;在显示输出的三维对象为培育的新植物时,便可以设置语义内容的关键词为颜色或形状等,当然,还可以预先针对显示输出的三维对象中的每个对象分别设置对应的标签,此时,便可以设置语义内容的关键词为标签。例如,识别语音交互操作的语义内容包括“恐龙头部”这一关键词,此时,便将立体空间区域中显示的恐龙的头部作为被操作对象。
本申请实施例示出了上述三种确定方式来确定交互操作指向的被操作对象,但本领域技术人员应知晓的是本申请不限定于此,只要能够确定交互操作指向的被操作对象即可。
本申请实施例中,基于交互操作的作用区域与目标使用者的视觉感知区域的关系以对应的控制策略控制被操作对象的显示参数时,可以参照以下三种控制方式的至少之一。
第一种控制方式
如果作用区域在视觉感知区域内,以第一控制策略响应交互操作来控制被操作对象的显示参数。在具体实施中,若交互操作的作用区域与目标使用者的视觉感知区域的关系为作用区域在视觉感知区域内,此时,确定被操作对象为电子设备显示输出的全部对象中的单一对象或多个对象,进而以第一控制策略响应交互操作来控制被操作对象的显示参数,该第一控制策略即为局部控制策略。如图2示出的交互操作的作用区域与目标使用者的视觉感知区域的关系的示意图,其中,A区域为目标使用者的视觉感知区域,交互操作的作用区域为双手所在的区域,该图2中双手落入视觉感知区域内,也即作用区域在视觉感知区域内,此时,以第一控制策略响应交互操作来控制被操作对象的显示参数,图2中被操作对象可以为恐龙的头部、四肢等。
可选地,在以第一控制策略响应交互操作来控制被操作对象的显示参数时,本申请实施例示出了以下多种方式。
第一种
作为其中一个示例地,第一控制策略包括操作变量与映射变量之间的对应关系,其中,操作变量包括单向变量和双向变量,单向变量对应移动距离,双向变量对应缩放倍数。基于此,在获得交互操作之后,确定交互操作的操作起点和操作终点,并基于操作起点和操作终点确定交互操作的操作变量,这里,操作变量包括位置变化量和姿态变化量等。
在确定操作变量之后,基于操作变量在第一控制策略下的映射变量控制被操作对象从第一显示参数切换至第二显示参数。例如,在操作变量为单向变量的情况下,若该单向变量为在水平向右移动2厘米,基于第一控制策略可知该操作变量对应的映射变量为水平向右移动2*a厘米,因此,便控制被操作对象从第一显示参数切换至第二显示参数,该示例中第一显示参数与第二显示参数之间的差别参数至少包括被操作对象的显示位置,也即,控制被操作对象水平向右移动2*a厘米,其中,a为基于电子设备及其对应的视觉感知区域确定的。例如,在操作变量为双向变量的情况下,若该双向变量为对向移动1厘米,基于第一控制策略可知该操作变量对应的映射变量为缩小2倍,因此,便控制被操作对象从第一显示参数切换至第二显示参数,该示例中第一显示参数与第二显示参数之间的差别参数至少包括被操作对象的显示尺寸和显示位置,也即控制被操作对象缩小2倍,其中,b为目标使用者自定义的或为电子设备的出厂商设定的。相应地,在操作变量为双向变量的情况下,若该双向变量为反向移动2厘米,基于第一控制策略可知该操作变量对应的映射变量为放大4倍,此时便控制被操作对象放大4倍,具体过程与缩小2倍的过程相同,在此不做过多赘述。
第二种
作为又一示例地,如果交互操作用于改变被操作对象的色彩显示属性,以目标使用者的色彩选择或基于被操作对象与其他关联对象之间的色彩关系切换被操作对象的色彩显示参数。具体地,在确定交互操作指示改变被操作对象的色彩显示属性的情况下,获取目标使用者选择的色彩,其中,目标使用者可以通过语音交互操作将其选择的色彩参数传递给电子设备,以使电子设备基于目标使用者选择的色彩切换被操作对象的色彩显示参数。可选地,在确定交互操作指示改变被操作对象的色彩显示属性的情况下,还可以确定被操作对象的关联对象,该关联对象为与被操作对象的边缘相接触的对象,被操作对象的关联对象为一个或多个,之后,基于被操作对象与其他关联对象之间的色彩关系切换被操作对象的色彩显示参数。这里,优先基于目标使用者的色彩选择来切换被操作对象的色彩显示参数,从而能够准确的满足目标使用者的交互需求。
具体地,在基于被操作对象与其他关联对象之间的色彩关系切换被操作对象的色彩显示参数时,若确定被操作对象与其他关联对象之间的色彩关系为不同色系,则切换被操作对象的色彩显示参数以使被操作对象的色彩显示参数与其他关联对象的色彩显示参数之间的差值大于第一阈值;若确定被操作对象与其他关联对象之间的色彩关系为同色系,则切换被操作对象的色彩显示参数以使被操作对象的色彩显示参数与其他关联对象的色彩显示参数之间的差值小于第二阈值;若确定被操作对象与其他关联对象之间的色彩关系为匹配色系,则切换被操作对象的色彩显示参数以使被操作对象的色彩显示参数与其他关联对象的色彩显示参数之间的差值大于或等于第二阈值且小于或等于第一阈值。当然,本申请实施例并不限定于此。
第三种
作为又一示例地,在交互操作为语音交互操作的情况下,识别语音交互操作的输入变量,基于输入变量调整被操作对象的显示参数。考虑到语音交互操作下,目标使用者能够向电子设备传输较为全面的交互内容,例如,将第一零件放大4倍、将第三零件翻转180度等,因此,可以直接对语义内容进行识别,以得到输入变量,该输入变量如放大4倍、翻转180度等,进而基于该输入变量调整被操作对象的显示参数。其中,输入变量包括用于改变被操作对象的色彩显示属性、位姿显示属性、显示尺寸中的至少之一。
第四种
作为又一示例地,电子设备子在显示输出三维对象时,还可以在立体空间内设置虚拟交互控件,以使得目标使用者通过虚拟交互控件对被操作对象进行交互控制,其中,虚拟交互控件可以设置为虚拟触控板、虚拟悬浮球等。基于此,在电子设备显示输出三维对象数据时,确定立体空间内是否输出有虚拟交互空间,在立体空间显示输出有虚拟交互控件的情况下,确定交互操作是否包括选择目标虚拟交互控件的操作。
进一步地,如果交互操作包括有选择目标虚拟交互控件的操作,基于交互操作的操作变量和目标虚拟交互控件的配置信息调整被操作对象的显示参数。其中,目标虚拟交互控件的配置信息包括多个调整项,如色彩、尺寸、位姿、变化幅度以及变化速率等,进而目标使用者能够通过目标虚拟交互控件对被操作对象进行交互控制。图3示出了立体空间内设置有虚拟交互控件的示意图,该图3中的虚拟交互控件包括虚拟触控板和虚拟悬浮球,进而可以根据目标虚拟交互控件的配置信息调整被操作对象的显示参数,通过交互操作的操作变量和目标虚拟交互控件的配置信息调整被操作对象的显示参数,能够在一定程度上增加目标使用者与被操作对象的交互性,实现了虚拟与现实的结合。
值得说明的是,本申请实施例的虚拟交互控件基于或不基于交互产生,也就是说,可以在电子设备启动显示输出三维对象数据的同时产生虚拟交互控件,也可以在目标使用者产生交互操作的同时产生虚拟交互控件,只要能够满足目标使用者对虚拟交互控件的使用即可。可选地,本申请实施例的虚拟交互控件能够基于交互操作的类型和/或被操作对象进行更新,也即,不同类型的交互操作对应不同的虚拟交互控件,进而调整被操作对象不同的显示参数,例如,通过虚拟触控板调整被操作对象的显示大小和显示姿态,通过虚拟悬浮球调整被操作对象的显示位置等。当然,不同的被操作对象也可以对应有不同的虚拟交互控件,以对不同的被操作对象的显示参数进行调整,在此不做过多赘述。
第二种控制方式
如果作用区域在视觉感知区域之外,以第二控制策略响应交互操作来控制被操作对象的显示参数。在具体实施中,若交互操作的作用区域与目标使用者的视觉感知区域的关系为作用区域在视觉感知区域之外,此时,确定被操作对象为电子设备显示输出的整个显示输出的对象,进而以第二控制策略响应交互操作来控制被操作对象的显示参数,该第一控制策略即为整体控制策略。如图4示出的交互操作的作用区域与目标使用者的视觉感知区域的关系的示意图,其中,B区域为目标使用者的视觉感知区域之外的区域,该示例中交互操作的作用区域同样为双手所在的区域,该图4中双手落入视觉感知区域之外,也即作用区域在视觉感知区域之外,此时,以第二控制策略响应交互操作来控制被操作对象的显示参数,图4中被操作对象可以为恐龙整体。
可选地,在以第二控制策略响应交互操作来控制被操作对象的显示参数时,本申请实施例示出了以下多种方式。
第一种
识别交互操作的类型,基于交互操作的类型控制立体空间区域内的全部对象的显示参数。这里,在交互操作为手势交互操作时,识别交互操作对应的手势类型,确定交互操作表征的交互控制指令,以根据该交互控制指令控制立体空间区域内的全部对象的显示参数。
作为其中一个示例地,图5示出了部分手势类型的示意图,手势类型至少包括单击、双击、捏住、拖拽、缩放、旋转以及单手旋转等。例如,在识别交互操作对应的手势类型为旋转时,该交互操作表征的交互控制指令为将全部对象进行旋转,此时,便控制全部对象进行旋转,该示例中的旋转所属是显示姿态即为显示参数。
第二种
确定交互操作的作用区域与立体空间区域的相对位置关系,基于相对位置关系和交互操作的类型控制立体空间区域内的至少部分对象的显示参数。在具体实施中,考到在不同的相对位置关系下,被操作对象能够响应的交互操作的类型的数量不同,例如,在第一相对位置关系下,被操作对象能够响应的交互操作的类型的数量为5,在第二相对位置关系下,被操作对象能够响应的交互操作的类型的数量为3等,进而确保被操作对象的交互安全。
进一步地,在确定相对位置关系时,先确定目标方向,进而在目标方向下确定作用区域与立体空间区域之间的相对位置关系。例如,目标方向为深度方向时,确定作用区域与立体空间区域之间的相对位置关系可以为前后关系;目标方向为平行方向时,确定作用区域与立体空间区域之间的相对位置关系可以为左右关系等。
在确定作用区域与立体空间区域之间的相对位置关系之后,基于相对位置关系和交互操作的类型控制立体空间区域内的至少部分对象的显示参数。例如,在相对位置关系为第一相对位置关系并且交互操作的类型为手势交互类型时,确定在被操作对象能够响应的交互操作的类型的数量为4,在相对位置关系为第二相对位置关系并且交互操作的类型为语音交互类型时,确定在被操作对象能够响应的交互操作的类型的数量为3。由此,目标使用者能够根据实际需求选择交互操作的作用区域,进而提升交互体验。
第三种
响应于监控到目标使用者作出目标交互操作,控制立体空间区域内的第一对象更换为第二对象。可选地,在获得交互操作的同时,对交互操作进行分析以实时监控该交互操作是否为目标交互操作,该目标交互操作为目标使用者预先设定的,例如切走或划走的操作,此时,便对应控制立体空间区域内由显示第一对象更换为显示第二对象,这里,可以是控制立体空间区域内全部显示区域由显示第一对象更换为显示第二对象,也可以是控制立体空间区域内部分显示区域由显示第一对象更换为显示第二对象等。
其中,第二对象与第一对象具有关联关系或不具有关联关系。其中,第二对象与第一对象具有关联关系可以表征第二对象和第一对象属于同一内容源或表征第二对象和第一对象具有时序上或内容上的关联关系;第二对象与第一对象不具有关联关系可以表征第二对象和第一对象属于不同的内容源或表征第二对象和第一对象不具有时序上和内容上的关联关系。
通过上述三种方式实现以第二控制策略响应交互操作来控制被操作对象的显示参数,也即实现对全部对象的交互控制。
第三种控制方式
如果作用区域横跨视觉感知区域的边缘,以第三控制策略响应交互操作来控制被操作对象的显示参数,第三控制策略包括第一控制策略和第二控制策略以及其他控制策略。这里,若确定作用区域的一部分区域在视觉感知区域内,作用区域的另一部分区域在视觉感知区域之外,此时,以第一控制策略响应交互操作来控制部分对象的显示参数,并且,以第二控制策略响应交互操作来控制全部对象的显示参数。当然,还可以对被操作对象进行拆分,并确定拆分得到的子对象之间的关联关系,以通过各子对象之间的关联关系确定被操作子对象集,进而按照第一控制策略控制一被操作子对象集,按照第二控制策略控制另一被操作子对象集等。
需要说明的是,本申请实施例中阐述了多种控制策略,其中,在不同的控制策略下,显示参数的变化速率和/或变化幅度不同,例如,设置第一控制策略的变化速率小于第二控制策略的变化速率,设置第一控制策略的变化幅度大于第二控制策略的变化幅度等。
本申请实施例中,为了确保被操作对象的安全性以及目标使用者的交互控制权限,在获得至少两个操作者的交互操作之后,响应于获得至少两个操作者的交互操作,具体为基于操作者的操作权限响应交互操作来控制被操作对象的显示参数,也即,确定每个操作者是否具备电子设备对应的操作权限,或者是否具备电子设备显示输出三维对象数据所属内容源对应的操作权限,并对具备操作权限的操作者产生交互操作进行响应,以控制被操作对象的显示参数。
可选地,在基于操作者的操作权限响应交互操作来控制被操作对象的显示参数时,包括以下至少之一:
确定操作者是否具备操作权限,如果操作者具有操作权限,则响应该操作者产生的交互操作;如果操作者不具有操作权限,则不响应该操作者产生的交互操作。
如果操作者均具有操作权限,分别确定各操作者的交互操作所指向的被操作对象,并确定被操作对象之间是否存在冲突,其中,若两个被操作对象为不同的对象,则表征该两个被操作对象之间没有冲突。在被操作对象之间没有冲突的情况下,分别响应各被操作对象的显示参数的控制。值得说明的是,在两个或多个被操作对象之间存在冲突的情况下,可以根据不同操作者的权限等级、交互操作的响应速率、交互操作的优先处理等级等确定交互操作响应的先后顺序,以基于该先后顺序响应交互操作来控制被操作对象的显示参数。
可选地,针对不同的具备操作权限的操作者设置不同的操作权限,例如,在课堂教学的场景下,设置老师的操作权限等级高于学生的操作权限等级。如果操作者的操作权限等级不同,基于操作权限等级响应针对被操作对象的显示参数的控制。例如,针对被操作对象,老师和学生均具备操作权限,若老师和学生同时对被操作对象执行交互操作,此时便先响应老师的交互操作来控制被操作对象的显示参数,之后,再响应学生的交互操作以控制被操作对象的显示参数。
又一示例地,不同操作者的操作权限不同,例如第一操作者能够对全部对象以及全部对象中的任意单一对象进行操作控制,而第二操作者仅能够对全部对象进行操作控制,其不具备对单一对象进行操作控制的操作权限。基于此,如果操作者的操作权限范围不同,基于操作权限范围响应针对被操作对象的显示参数的控制。
基于上述方式,能够确保被操作对象的安全性以及目标使用者的交互控制权限,使用者的体验度较高。
在具体实施中,电子设备(如裸眼3D设备)能够实现4D联动,也即实现视频渲染,此时可能会使得显示输出三维对象数据的立体空间区域产生变化。在此情况下,响应于目标交互操作,控制被操作对象的显示参数和电子设备的关联模组的位姿同步发生变化。例如,电子设备的关联模组为屏幕的场景下,在基于目标交互操作控制被操作对象的显示参数进行变化的同时,还控制屏幕同步发生变化,可选地,控制屏幕的位姿发生变化,如屏幕发生一定角度的转动,屏幕由平面切换为曲面等,进而实现视频渲染,满足使用者的4D联动需求。
基于同一发明构思,本申请的第二方面还提供了一种交互控制方法对应的电子设备,由于本申请中的电子设备解决问题的原理与本申请上述交互控制方法相似,因此电子设备的实施可以参见方法的实施,重复之处不再赘述。
图6示出了本申请实施例提供的电子设备的示意图,具体包括:
确定模块601,其配置为在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
第一控制模块602,其配置为基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
在又一实施例中,确定模块601在确定所述交互操作指向的被操作对象时,包括以下至少之一:
获得所述交互操作的作用区域的坐标信息,将所述立体空间区域中与所述坐标信息匹配的对象确定为所述被操作对象;
获得所述交互操作的姿态参数,基于所述姿态参数确定所述立体空间区域中的全部对象或部分对象确定为所述被操作对象;
在所述交互操作为语音交互操作的情况下,识别所述语音交互操作的语义内容,从所述立体空间区域中确定与所述语义内容匹配的对象作为所述被操作对象。
在又一实施例中,第一控制模块602在基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数时,包括以下至少之一:
如果所述作用区域在所述视觉感知区域内,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数;
如果所述作用区域在所述视觉感知区域之外,以第二控制策略响应所述交互操作来控制所述被操作对象的显示参数;
如果所述作用区域横跨所述视觉感知区域的边缘,以第三控制策略响应所述交互操作来控制所述被操作对象的显示参数;
其中,在不同的控制策略下,所述显示参数的变化速率和/或变化幅度不同。
在又一实施例中,第一控制模块602在以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数时,包括以下至少之一:
基于所述交互操作的操作起点和操作终点确定所述交互操作的操作变量,基于所述操作变量在所述第一控制策略下的映射变量控制所述被操作对象从第一显示参数切换至第二显示参数;
如果所述交互操作用于改变所述被操作对象的色彩显示属性,以目标使用者的色彩选择或基于被操作对象与其他关联对象之间的色彩关系切换被操作对象的色彩显示参数;
在所述交互操作为语音交互操作的情况下,识别所述语音交互操作的输入变量,基于所述输入变量调整所述被操作对象的显示参数,其中,所述输入变量包括用于改变所述被操作对象的色彩显示属性、位姿显示属性、显示尺寸中的至少之一。
在又一实施例中,第一控制模块602在以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数时,包括:
在所述立体空间显示输出有虚拟交互控件的情况下,如果所述交互操作还包括有选择目标虚拟交互控件的操作,基于所述交互操作的操作变量和所述目标虚拟交互控件的配置信息调整所述被操作对象的显示参数;
其中,所述虚拟交互控件基于或不基于所述交互产生,且/或,所述虚拟交互控件能够基于所述交互操作的类型和/或所述被操作对象进行更新。
在又一实施例中,第一控制模块602在以第二控制策略响应所述交互操作来控制所述被操作对象的显示参数时,包括以下之一:
识别所述交互操作的类型,基于所述交互操作的类型控制所述立体空间区域内的全部对象的显示参数;
确定所述交互操作的作用区域与所述立体空间区域的相对位置关系,基于所述相对位置关系和所述交互操作的类型控制所述立体空间区域内的至少部分对象的显示参数,其中,在不同的相对位置关系下,所述被操作对象能够响应的交互操作的类型的数量不同;
响应于监控到目标使用者作出目标交互操作,控制所述立体空间区域内的第一对象更换为第二对象,其中,所述第二对象与所述第一对象具有关联关系或不具有关联关系。
在又一实施例中,所述的电子设备还包括第二控制模块603,其配置为:
响应于获得至少两个操作者的交互操作,基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数。
在又一实施例中,第二控制模块603在基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数时,包括以下至少之一:
如果所述操作者不具有操作权限,不响应所述交互操作;
如果所述操作者均具有所述操作权限,分别确定各操作者的交互操作所指向的被操作对象,以及在所述被操作对象之间没有冲突的情况下,分别响应各被操作对象的显示参数的控制;
如果所述操作者的操作权限等级不同,基于操作权限等级响应针对所述被操作对象的显示参数的控制;
如果所述操作者的操作权限范围不同,基于所述操作权限范围响应针对所述被操作对象的显示参数的控制。
在又一实施例中,所述的电子设备还包括第三控制模块604,其配置为:
响应于目标交互操作,控制所述被操作对象的显示参数和所述电子设备的关联模组的位姿同步发生变化。
本申请实施例基于获得的交互操作确定被操作对象,并根据交互操作的作用区域与目标使用者的视觉感知区域之间的关系,确定对应的控制策略,之后按照该控制策略控制被操作对象的显示参数,也即不同的关系对应有不同的控制策略,这不仅实现了基于交互操作进行交互控制的目的,还能够基于不同的作用区域和视觉感知区域执行不同的控制策略,交互性较高;并且,无需实体设备便可执行交互操作,降低了交互的局限性,提高了目标使用者的交互体验。
本申请实施例提供了一种电子设备,该电子设备的结构示意图可以如图7所示,至少包括存储器701和处理器702,存储器701上存储有计算机程序,处理器702在执行存储器701上的计算机程序时实现本申请任意实施例提供的方法。示例性的,电子设备计算机程序步骤如下S11和S12:
S11,在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
S12,基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
本申请实施例基于获得的交互操作确定被操作对象,并根据交互操作的作用区域与目标使用者的视觉感知区域之间的关系,确定对应的控制策略,之后按照该控制策略控制被操作对象的显示参数,也即不同的关系对应有不同的控制策略,这不仅实现了基于交互操作进行交互控制的目的,还能够基于不同的作用区域和视觉感知区域执行不同的控制策略,交互性较高;并且,无需实体设备便可执行交互操作,降低了交互的局限性,提高了目标使用者的交互体验。
本申请实施例提供了一种存储介质,该存储介质为计算机可读介质,存储有计算机程序,该计算机程序被处理器执行时实现本申请任意实施例提供的方法,包括如下步骤S21和S22:
S21,在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
S22,基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
本申请实施例基于获得的交互操作确定被操作对象,并根据交互操作的作用区域与目标使用者的视觉感知区域之间的关系,确定对应的控制策略,之后按照该控制策略控制被操作对象的显示参数,也即不同的关系对应有不同的控制策略,这不仅实现了基于交互操作进行交互控制的目的,还能够基于不同的作用区域和视觉感知区域执行不同的控制策略,交互性较高;并且,无需实体设备便可执行交互操作,降低了交互的局限性,提高了目标使用者的交互体验。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。可选地,在本实施例中,处理器根据存储介质中已存储的程序代码执行上述实施例记载的方法步骤。可选地,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
此外,尽管已经在本文中描述了示例性实施例,其范围包括任何和所有基于本申请的具有等同元件、修改、省略、组合(例如,各种实施例交叉的方案)、改编或改变的实施例。权利要求书中的元件将被基于权利要求中采用的语言宽泛地解释,并不限于在本说明书中或本申请的实施期间所描述的示例,其示例将被解释为非排他性的。因此,本说明书和示例旨在仅被认为是示例,真正的范围和精神由以下权利要求以及其等同物的全部范围所指示。
以上描述旨在是说明性的而不是限制性的。例如,上述示例(或其一个或更多方案)可以彼此组合使用。例如本领域普通技术人员在阅读上述描述时可以使用其它实施例。另外,在上述具体实施方式中,各种特征可以被分组在一起以简单化本申请。这不应解释为一种不要求保护的公开的特征对于任一权利要求是必要的意图。相反,本申请的主题可以少于特定的公开的实施例的全部特征。从而,以下权利要求书作为示例或实施例在此并入具体实施方式中,其中每个权利要求独立地作为单独的实施例,并且考虑这些实施例可以以各种组合或排列彼此组合。本申请的范围应参照所附权利要求以及这些权利要求赋权的等同形式的全部范围来确定。
以上对本申请多个实施例进行了详细说明,但本申请不限于这些具体的实施例,本领域技术人员在本申请构思的基础上,能够做出多种变型和修改实施例,这些变型和修改都应落入本申请所要求保护的范围之内。
Claims (10)
1.一种交互控制方法,包括:
在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
2.根据权利要求1所述的交互控制方法,其中,确定所述交互操作指向的被操作对象,包括以下至少之一:
获得所述交互操作的作用区域的坐标信息,将所述立体空间区域中与所述坐标信息匹配的对象确定为所述被操作对象;
获得所述交互操作的姿态参数,基于所述姿态参数确定所述立体空间区域中的全部对象或部分对象确定为所述被操作对象;
在所述交互操作为语音交互操作的情况下,识别所述语音交互操作的语义内容,从所述立体空间区域中确定与所述语义内容匹配的对象作为所述被操作对象。
3.根据权利要求1或2所述的交互控制方法,其中,基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数,包括以下至少之一:
如果所述作用区域在所述视觉感知区域内,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数;
如果所述作用区域在所述视觉感知区域之外,以第二控制策略响应所述交互操作来控制所述被操作对象的显示参数;
如果所述作用区域横跨所述视觉感知区域的边缘,以第三控制策略响应所述交互操作来控制所述被操作对象的显示参数;
其中,在不同的控制策略下,所述显示参数的变化速率和/或变化幅度不同。
4.根据权利要求3所述的交互控制方法,其中,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数,包括以下至少之一:
基于所述交互操作的操作起点和操作终点确定所述交互操作的操作变量,基于所述操作变量在所述第一控制策略下的映射变量控制所述被操作对象从第一显示参数切换至第二显示参数;
如果所述交互操作用于改变所述被操作对象的色彩显示属性,以目标使用者的色彩选择或基于被操作对象与其他关联对象之间的色彩关系切换被操作对象的色彩显示参数;
在所述交互操作为语音交互操作的情况下,识别所述语音交互操作的输入变量,基于所述输入变量调整所述被操作对象的显示参数,其中,所述输入变量包括用于改变所述被操作对象的色彩显示属性、位姿显示属性、显示尺寸中的至少之一。
5.根据权利要求3所述的交互控制方法,其中,以第一控制策略响应所述交互操作来控制所述被操作对象的显示参数,包括:
在所述立体空间显示输出有虚拟交互控件的情况下,如果所述交互操作还包括有选择目标虚拟交互控件的操作,基于所述交互操作的操作变量和所述目标虚拟交互控件的配置信息调整所述被操作对象的显示参数;
其中,所述虚拟交互控件基于或不基于所述交互产生,且/或,所述虚拟交互控件能够基于所述交互操作的类型和/或所述被操作对象进行更新。
6.根据权利要求3所述的交互控制方法,其中,以第二控制策略响应所述交互操作来控制所述被操作对象的显示参数,包括以下之一:
识别所述交互操作的类型,基于所述交互操作的类型控制所述立体空间区域内的全部对象的显示参数;
确定所述交互操作的作用区域与所述立体空间区域的相对位置关系,基于所述相对位置关系和所述交互操作的类型控制所述立体空间区域内的至少部分对象的显示参数,其中,在不同的相对位置关系下,所述被操作对象能够响应的交互操作的类型的数量不同;
响应于监控到目标使用者作出目标交互操作,控制所述立体空间区域内的第一对象更换为第二对象,其中,所述第二对象与所述第一对象具有关联关系或不具有关联关系。
7.根据权利要求1、2或4至6中任一项所述的交互控制方法,还包括:
响应于获得至少两个操作者的交互操作,基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数。
8.根据权利要求7所述的交互控制方法,其中,基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数,包括以下至少之一:
如果所述操作者不具有操作权限,不响应所述交互操作;
如果所述操作者均具有所述操作权限,分别确定各操作者的交互操作所指向的被操作对象,以及在所述被操作对象之间没有冲突的情况下,分别响应各被操作对象的显示参数的控制;
如果所述操作者的操作权限等级不同,基于操作权限等级响应针对所述被操作对象的显示参数的控制;
如果所述操作者的操作权限范围不同,基于所述操作权限范围响应针对所述被操作对象的显示参数的控制。
9.根据权利要求1所述的交互控制方法,还包括:
响应于目标交互操作,控制所述被操作对象的显示参数和所述电子设备的关联模组的位姿同步发生变化。
10.一种电子设备,包括:
确定模块,其配置为在获得目标使用者的交互操作后,确定所述交互操作指向的被操作对象;
第一控制模块,其配置为基于所述交互操作的作用区域与所述目标使用者的视觉感知区域的关系以对应的控制策略控制所述被操作对象的显示参数;
其中,所述视觉感知区域是电子设备在显示输出三维对象数据时能够被目标使用者感知到的立体空间区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311631204.0A CN117590947A (zh) | 2023-11-30 | 2023-11-30 | 一种交互控制方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311631204.0A CN117590947A (zh) | 2023-11-30 | 2023-11-30 | 一种交互控制方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117590947A true CN117590947A (zh) | 2024-02-23 |
Family
ID=89913055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311631204.0A Pending CN117590947A (zh) | 2023-11-30 | 2023-11-30 | 一种交互控制方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117590947A (zh) |
-
2023
- 2023-11-30 CN CN202311631204.0A patent/CN117590947A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11947729B2 (en) | Gesture recognition method and device, gesture control method and device and virtual reality apparatus | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
US11137875B2 (en) | Mixed reality intelligent tether for dynamic attention direction | |
US10394334B2 (en) | Gesture-based control system | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
US11775130B2 (en) | Guided retail experience | |
JP7490784B2 (ja) | 拡張現実マップキュレーション | |
WO2015026645A1 (en) | Automatic calibration of scene camera for optical see-through head mounted display | |
KR20130108643A (ko) | 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들 | |
US10488918B2 (en) | Analysis of user interface interactions within a virtual reality environment | |
US11656690B2 (en) | User input and virtual touch pad in augmented reality for use in surgical settings | |
US11164377B2 (en) | Motion-controlled portals in virtual reality | |
KR20210073429A (ko) | 착용형 ar 장치를 위한 시선 추적 및 손동작 인식 기반 통합 인터페이스 방법 및 시스템 | |
EP3591503A1 (en) | Rendering of mediated reality content | |
US10133470B2 (en) | Interfacing device and method for providing user interface exploiting multi-modality | |
US20240308086A1 (en) | Stereo video in augmented reality | |
CN112424736A (zh) | 机器交互 | |
CN116848495A (zh) | 用于选择虚拟对象以进行扩展现实交互的设备、方法、系统和介质 | |
Hernoux et al. | A seamless solution for 3D real-time interaction: design and evaluation | |
US20200349766A1 (en) | Methods and Systems for Viewing and Editing AR/VR Computer-based Designs Allowing Impaired Vision Simulation | |
CN117590947A (zh) | 一种交互控制方法及电子设备 | |
KR101519589B1 (ko) | 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법 | |
KR20230088436A (ko) | 눈 움직임에 기반한 확장된 현실 환경 상호작용의 방법 및 시스템 | |
CN113434046A (zh) | 三维交互系统、方法、计算机设备及可读存储介质 | |
KR20120040818A (ko) | 증강 현실 컨텐츠 재생 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |