CN117850591A - 一种交互控制方法及电子设备 - Google Patents

一种交互控制方法及电子设备 Download PDF

Info

Publication number
CN117850591A
CN117850591A CN202311865294.XA CN202311865294A CN117850591A CN 117850591 A CN117850591 A CN 117850591A CN 202311865294 A CN202311865294 A CN 202311865294A CN 117850591 A CN117850591 A CN 117850591A
Authority
CN
China
Prior art keywords
target
area
operated object
operator
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311865294.XA
Other languages
English (en)
Inventor
顾佳
郑书聪
张亚利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN202311865294.XA priority Critical patent/CN117850591A/zh
Publication of CN117850591A publication Critical patent/CN117850591A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种交互控制方法及电子设备;所述方法包括:基于操作者的人体特征数据确定所述操作者的目标操作区域;基于所述操作者在所述目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作;其中,所述被操作对象是所述目标交互操作指向的对象,所述目标响应区域是所述电子设备用于输出可视化内容的输出区域的至少部分,所述被操作对象属于或不属于所述可视化内容。

Description

一种交互控制方法及电子设备
技术领域
本申请涉及交互控制技术领域,尤其涉及一种交互控制方法及电子设备。
背景技术
目前的交互控制方法主要是通过交互设备如键盘、鼠标、遥控器等进行电子设备的交互控制。目前的交互控制方法也包括通过手势识别进行电子设备的交互控制。但目前的手势识别的手势种类较多,对应交互控制过程也较为复杂。目前的交互控制方法的控制过程较为复杂且无法针对操作者的特征进行电子设备的控制,进而会出现交互控制精度低,以及交互控制效率低等问题。
发明内容
本申请实施例提供了一种交互控制方法及电子设备。
根据本申请的第一方面,提供了一种交互控制方法,该方法包括:基于操作者的人体特征数据确定所述操作者的目标操作区域;基于所述操作者在所述目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作;其中,所述被操作对象是所述目标交互操作指向的对象,所述目标响应区域是所述电子设备用于输出可视化内容的输出区域的至少部分,所述被操作对象属于或不属于所述可视化内容。
根据本申请一实施方式,其中,基于操作者的人体特征数据确定所述操作者的目标操作区域,包括:获得所述操作者的第一部位和第二部位的特征数据;以所述第一部位为基准点将所述第二部位能够相对所述基准点运动的最大范围区域确定为所述操作者的目标操作区域,所述最大范围区域基于所述特征数据确定。
根据本申请一实施方式,还包括:确定所述电子设备的目标响应区域;其中,确定所述电子设备的目标响应区域,包括以下至少之一:将所述电子设备显示输出三维立体对象时能够被目标操作者感知到的立体空间区域确定为所述目标响应区域;在电子设备的显示屏输出二维平面对象的情况下,以所述操作者在所述显示屏上的视线位置为中心将所述显示屏的显示区域中与所述目标操作区域匹配的区域确定为所述目标响应区域;基于电子设备的显示屏的显示标识信息确定所述电子设备的显示输出区域与所述目标操作区域之间的比例关系,基于所述比例关系和所述目标操作区域的坐标信息确定所述目标响应区域。
根据本申请一实施方式,基于所述操作者在所述目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作,包括以下至少之一:基于所述目标操作区域与所述目标响应区域之间的对应关系确定所述目标交互操作指向的被操作对象,基于所述目标交互操作触发的控制指令控制所述被操作对象执行对应的处理操作;确定所述目标交互操作指向的被操作对象,基于所述目标交互操作的作用区域与所述立体空间区域的位置关系以对应的控制策略控制所述被操作对象更新显示参数。
根据本申请一实施方式,其中,确定所述目标交互操作指向的被操作对象,包括以下至少之一:获得所述目标交互操作的作用区域的坐标信息,将所述立体空间区域中与所述坐标信息匹配的对象确定为所述被操作对象;获得所述目标交互操作的作用区域的坐标信息,基于所述对应关系确定所述目标响应区域中对应所述坐标信息的区域范围,将所述区域范围内的对象确定为所述被操作对象;获得所述目标交互操作的姿态参数,基于所述姿态参数确定所述立体空间区域、显示屏的显示区域、或电子设备的显示输出区域中的全部对象或部分对象确定为所述被操作对象;在所述目标交互操作为语音交互操作的情况下,识别所述语音交互操作的语义内容,从所述立体空间区域、显示屏的显示区域、或电子设备的显示输出区域中确定与所述语义内容匹配的对象作为所述被操作对象。
根据本申请一实施方式,其中,基于所述目标交互操作触发的控制指令控制所述被操作对象执行对应的处理操作,包括以下至少之一:基于第一交互操作的第一操作数据确定对第一被操作对象自身执行第一处理操作;基于第二交互操作的第二操作数据确定对第二被操作对象执行配置功能项的处理操作;基于第三交互操作的第三操作数据确定对所述第一被操作对象执行更换为第二被操作对象的处理操作,其中,所述第二被操作对象与所述第一被操作对象具有关联关系或不具有关联关系;确定第四交互操作的操作变量,基于所述操作变量在所述对应关系下的映射变量控制所述被操作对象执行位姿切换的处理操作。
根据本申请一实施方式,其中,基于所述目标交互操作的作用区域与所述立体空间区域的位置关系以对应的控制策略控制所述被操作对象更新显示参数,包括以下至少之一:如果所述作用区域在所述立体空间区域内,以第一控制策略更改所述被操作对象的色彩显示参数、位姿参数、缩放参数中的至少之一,所述第一控制策略用于控制所述被操作对象在对应交互操作下的显示参数的变化速率和/或变化幅度;在所述作用区域在所述立体空间区域内、且所述立体空间区域显示输出有虚拟控件的情况下,如果所述目标交互操作还包括有选择目标虚拟控件的操作,基于所述目标交互操作的操作变量和所述目标虚拟控件的配置信息调整所述被操作对象的显示参数,其中,所述虚拟控件基于或不基于所述目标交互操作产生,且/或,所述虚拟控件能够基于所述目标交互操作和/或所述被操作对象进行更新;如果所述作用区域在所述立体空间区域之外,识别所述目标交互操作的类型,基于所述目标交互操作的类型控制所述立体空间区域内的全部对象的显示参数;如果所述作用区域在所述立体空间区域之外,基于所述作用区域与所述立体空间区域的相对位置关系和所述目标交互操作的类型控制所述立体空间区域内的至少部分对象的显示参数,其中,在不同的相对位置关系下,所述被操作对象能够响应的目标交互操作的类型的数量不同;如果所述作用区域横跨所述立体空间区域的边缘,以第三控制策略控制所述被操作对象更新显示参数。
根据本申请一实施方式,还包括:响应于获得至少两个操作者的目标交互操作,基于所述操作者的操作权限响应所述目标交互操作来控制被操作对象的显示参数;或,响应于目标交互操作,控制所述被操作对象的显示参数和所述电子设备的关联模组的位姿同步发生变化。
根据本申请一实施方式,其中,基于所述操作者的操作权限响应所述交互操作来控制被操作对象的显示参数,包括以下至少之一:如果所述操作者不具有操作权限,不响应所述目标交互操作;如果所述操作者均具有所述操作权限,分别确定各操作者的目标交互操作所指向的被操作对象,以及在所述被操作对象之间没有冲突的情况下,分别控制各被操作对象的显示参数;如果所述操作者的操作权限等级不同,基于操作权限等级响应针对所述被操作对象的显示参数的控制;如果所述操作者的操作权限范围不同,基于所述操作权限范围响应针对所述被操作对象的显示参数的控制。
根据本申请的第二方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请所述的方法。
需要理解的是,本申请的教导并不需要实现上面所述的全部有益效果,而是特定的技术方案可以实现特定的技术效果,并且本申请的其他实施方式还能够实现上面未提到的有益效果。
附图说明
通过参考附图阅读下文的详细描述,本申请示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本申请的若干实施方式,其中:
在附图中,相同或对应的标号表示相同或对应的部分。
图1示出了本申请实施例提供的交互控制方法的处理流程示意图;
图2示出了本申请第二实施例提供的交互控制方法的流程示意图;
图3示出了本申请第三实施例提供的交互控制方法的流程示意图;
图4示出了本申请第四实施例提供的交互控制方法的流程示意图;
图5示出了本申请第五实施例提供的交互控制方法的流程示意图;
图6示出了本申请第六实施例提供的交互控制方法的流程示意图;
图7示出了本申请第七实施例提供的交互控制方法的流程示意图;
图8示出了本申请实施例提供的交互控制方法的一种应用场景图;
图9示出了本申请实施例提供的交互控制装置的一种可选示意图;
图10示出了本申请实施例提供的电子设备的组成结构示意图。
具体实施方式
为使本申请的目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而非全部实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例提供的交互控制方法中的处理流程进行说明。参见图1,图1是本申请实施例提供的交互控制方法的处理流程示意图,将结合图1示出的步骤S101-S102进行说明。
步骤S101,基于操作者的人体特征数据确定操作者的目标操作区域。
在一些实施例中,操作者可以是任何使用者。操作者也可以是经过身份验证的特定使用者。人体特征数据可以包括肩宽、臂长、身高等特征数据。本申请实施例不限定具体的身体部位的特征数据。目标操作区域可以包括根据操作者的臂长或四肢确定的在各个方向上活动的最大范围区域。其中各个方向可以包括左右方向,上下方向,前方等方向。
步骤S102,基于操作者在目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作。
在一些实施例中,目标交互操作可以包括操作者的有效操作。其中,有效操作可以是手势操作、视线控制操作或语音输入操作中的至少之一。有效操作可以从操作者的各种操作中排除误操作得到。可以通过设定的防误操作机制排除各种操作中的误操作,得到有效操作。防误操作机制可以包括:手势和视线结合判定有效操作、根据动作行为参数判定有效操作。其中动作行为参数可以包括幅度、变化速率等行为参数。被操作对象是目标交互操作指向的对象,目标响应区域是电子设备用于输出可视化内容的输出区域的至少部分。目标响应区域可以是电子设备的2D(2-dimension,二维)显示屏幕,目标响应区域也可以是电子设备的3D(3-dimension,三维)显示屏幕所呈现出来的视觉感知区域。可视化内容可以是2D显示内容或3D显示内容。被操作对象属于或不属于可视化内容。被操作对象可以是不属于可视化内容的单一对象。被操作对象也可以是不属于可视化内容的多个对象。被操作对象也可以是可视化内容中三维立体对象的一部分。作为示例,可视化内容是一2D显示桌面时,被操作对象可以是显示桌面中的图标或空白区域;可视化内容是一3D显示内容时,被操作对象可以是3D显示内容中三维立体对象的全部或三维立体对象的一部分;被操作对象还可以是基于可视化内容生成的控件对象,此时,控件对象不属于可视化内容。
本申请实施例的方法,通过步骤S101-S102,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
对本申请实施例提供的交互控制方法中的具体处理流程进行说明。参见图2,图2是本申请第二实施例提供的交互控制方法的流程示意图。
如图2所示,步骤S101中的基于操作者的人体特征数据确定操作者的目标操作区域,包括:
步骤S201,获得操作者的第一部位和第二部位的特征数据。
在本实施例中,第一部位可以是肩膀,对应的第二部位可以是手臂。第一部位还可以是操作者的人体中心点部位,对应的第二部分可以是操作者的四肢。
步骤S202,以第一部位为基准点将第二部位能够相对基准点运动的最大范围区域确定为操作者的目标操作区域。
在本实施例中,第二部位能够相对基准点运动的最大范围区域可以包括:操作者的第二部位相对基准点,朝向各个方向上运动的最大范围区域。各个方向可以包括左右方向、上下方向、前方等方向。最大范围区域可以基于特征数据确定。
作为示例,获得操作者的肩膀和手臂的特征数据。特征数据包括:操作者的肩膀与手臂连接处的位置,操作者手臂的前臂长度。以肩膀与手臂连接处的位置为基准点,以前臂长度为半径,确定手臂能够相对基准点,朝向各个方向上运动的最大球形区域。将该最大球形区域确定为操作者的目标操作区域。
在一些实施例中,步骤S202之后,交互控制方法还可以包括:
步骤S203,确定电子设备的目标响应区域。
在本实施例中,确定电子设备的目标响应区域,可以包括以下至少之一:
步骤S2031,将电子设备显示输出三维立体对象时能够被目标操作者感知到的立体空间区域确定为目标响应区域。
在本实施例中,能够被目标操作者感知到的立体空间区域可以包括电子设备的裸眼3D显示区域。
步骤S2032,在电子设备的显示屏输出二维平面对象的情况下,以操作者在显示屏上的视线位置为中心将显示屏的显示区域中与目标操作区域匹配的区域确定为目标响应区域。
在本实施例中,显示屏的显示区域中与目标操作区域匹配的区域可以为显示屏的整个显示区域。显示屏的显示区域中与目标操作区域匹配的区域也可以是显示屏的部分显示区域。
作为示例,以操作者在显示屏上的视线位置为中心,并确定操作者与显示屏之间的距离。根据操作者与显示屏之间的距离来确定匹配区域与目标操作区域之间匹配的比例关系。与根据该比例关系将显示屏的部分显示区域中与目标操作区域匹配,得到目标响应区域。其中,比例关系与目标响应区域的范围大小相关。
步骤S2033,基于电子设备的显示屏的显示标识信息确定电子设备的显示输出区域与目标操作区域之间的比例关系,基于比例关系和目标操作区域的坐标信息确定目标响应区域。
在本实施例中,显示标识信息可以包括EDID(Extended display identificationdata,扩展显示器识别数据)。显示输出区域可以是显示屏的显示区域或裸眼3D显示屏的能够被使用者感知到的立体空间区域。
作为示例,显示输出区域可以是显示屏的显示区域,基于显示标识信息确定电子设备的显示输出区域与目标操作区域之间的比例关系为1:2,通过目标操作区域的空间坐标信息确定平面范围,再通过比例关系将平面范围扩大2倍,以确定显示输出区域中对应平面范围的显示区域为目标响应区域。
作为示例,显示输出区域可以是裸眼3D显示屏的能够被使用者感知到的立体空间区域,基于显示标识信息确定电子设备的显示输出区域与目标操作区域之间的比例关系为1:3,通过目标操作区域的空间坐标信息确定空间范围,再通过比例关系将空间范围扩大3倍,以确定显示输出区域中对应立体范围的立体空间区域为目标响应区域。
本申请实施例的方法,通过步骤S201-S203,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
对本申请实施例提供的交互控制方法中的具体处理流程进行说明。参见图3,图3是本申请第三实施例提供的交互控制方法的流程示意图。
如图3所示,交互控制方法包括:
步骤S301,基于操作者的人体特征数据确定操作者的目标操作区域。
针对步骤S301的具体说明,与上述步骤S201-S202相同,这里不再赘述。
步骤S302a,基于目标操作区域与目标响应区域之间的对应关系确定目标交互操作指向的被操作对象。
在本实施例中,对应关系可以包括:空间坐标映射关系或比例关系。
作为示例,在空间直角坐标系中目标操作区域为x1,y1,z1。目标响应区域为x2,y2,z2。确定目标操作区域与目标响应区域之间的对应关系为:x,:y,:z。其中:x=x1/x2=2,:y=y1/y2=2,:z=z1/z2=2。获取目标交互操作对应的坐标为(1,1,2),将目标交互操作对应的坐标分别除以对应关系:x,:y,:z,得到被操作对象的坐标为(0.5,0.5,1)
步骤S302b,基于目标交互操作触发的控制指令控制被操作对象执行对应的处理操作。
在本实施例中,控制指令可以包括flick(轻扫),pinch(捏合),unpinch(展开),rotate(旋转),Zoom(缩放)。
步骤S303a,确定目标交互操作指向的被操作对象。
步骤S303b,基于目标交互操作的作用区域与立体空间区域的位置关系以对应的控制策略控制被操作对象更新显示参数。
在本实施例中,位置关系可以包括:目标交互操作的作用区域是否在裸眼3D显示器的立体空间区域内。其中立体空间区域能够被使用者感知到。控制策略可以包括:局部控制策略、整体控制策略、操作虚拟控制板策略和floating ball(悬浮球)控制策略。显示参数可以包括显示位姿、显示颜色、缩放系数等参数。本申请实施例不限定具体的显示参数。
本申请实施例的方法,通过步骤S301-S303b,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
对本申请实施例提供的交互控制方法中的具体处理流程进行说明。参见图4,图4是本申请第四实施例提供的交互控制方法的流程示意图。
如图4所示,步骤S102中的基于操作者在目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作,可以包括:
步骤S401,基于目标操作区域与目标响应区域之间的对应关系确定目标交互操作指向的被操作对象。
针对步骤S401的具体说明,与上述步骤S302a相同,这里不再赘述。
步骤S402a,基于第一交互操作的第一操作数据确定对第一被操作对象自身执行第一处理操作。
在本实施例中,第一交互操作可以包括操作者的手指操作。第一操作数据可以包括操作者的手指在某一位置的停留时间。第一被操作对象可以是显示桌面中的图标或空白区域。第一被操作对象也可以是3D显示内容中三维立体对象的全部或三维立体对象的一部分。第一被操作对象还可以是基于可视化内容生成的控件对象。第一处理操作可以是选定操作、单击操作或双击操作等。
作为示例,响应于操作者的手指停留超过2秒,则确定对第一被操作对象自身执行双击操作。
步骤S402b,基于第二交互操作的第二操作数据确定对第二被操作对象执行配置功能项的处理操作。
在本实施例中,第二交互操作可以包括操作者的手掌操作。第二操作数据可以包括操作者的手掌在某一位置的停留时间。第二被操作对象可以是显示桌面中的图标或空白区域。第二被操作对象也可以是3D显示内容中三维立体对象的全部或三维立体对象的一部分。第二被操作对象还可以是基于可视化内容生成的控件对象。配置功能项的处理操作可以针对第二被操作对象对应的快捷菜单内的功能。
作为示例,响应于操作者的手掌停留超过2秒,则显示针对第二被操作对象对应的快捷菜单,快捷菜单显示最多包括4个选项,每个选项分别对应一个配置功能项的处理操作且分布在第二被操作对象的四周,通过手掌的滑动,确定对第二被操作对象执行对应的配置功能项的处理操作。
步骤S402c,基于第三交互操作的第三操作数据确定对第一被操作对象执行更换为第二被操作对象的处理操作。
在本实施例中,第二被操作对象与第一被操作对象具有关联关系或不具有关联关系。第三交互操作的第三操作数据可以包括选区操作数据或配置框配置数据。对第一被操作对象执行更换为第二被操作对象的处理操作可以包括通过选区操作数据将第一被操作对象更换为第二被操作对象,或通过配置框配置数据更换将第一被操作对象更换为第二被操作对象。第二被操作对象与第一被操作对象具有关联关系可以包括:第二被操作对象与第一被操作对象属于同一内容源或者具有时序上或内容上的关联关系。第二被操作对象与第一被操作对象不具有关联关系可以包括:第二被操作对象与第一被操作对象属于不同的内容源,或者不具有内容上的关联关系。基于第三交互操作的第三操作数据确定对整个显示区域内的第一被操作对象执行更换为第二被操作对象的处理操作。基于第三交互操作的第三操作数据确定对整个显示区域内的部分第一被操作对象执行更换为第二被操作对象的处理操作。
步骤S402d,确定第四交互操作的操作变量,基于操作变量在对应关系下的映射变量控制被操作对象执行位姿切换的处理操作。
在本实施例中,操作变量可以是操作者执行第四交互操作对应的位姿变化量。对应关系可以包括:空间坐标映射关系或比例关系。映射变量可以是操作变量在权重系数下的控制量。作为示例,操作变量为1根据对应关系,会将被操作对象执行位姿切换的处理操作的位姿变化量放大2倍,而在对应关系下的权重系数可以为1、0.5或2,则操作变量在对应关系下的映射变量可以为2、1或4。
本申请实施例的方法,通过步骤S401-S402d,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
对本申请实施例提供的交互控制方法中的具体处理流程进行说明。参见图5,图5是本申请第五实施例提供的交互控制方法的流程示意图。
如图5所示,步骤S102中的基于操作者在目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作,可以包括:
步骤S501a,获得目标交互操作的作用区域的坐标信息,将立体空间区域中与坐标信息匹配的对象确定为被操作对象。
在本实施例中,坐标信息可以包括手指的坐标信息或视线坐标。通过tof(Time-of-Flight,飞行时间)摄像头获得操作者的手部的点云数据,以进一步获得手指的坐标信息。坐标信息也可以通过其他深度摄像头、红外传感器阵列或者超声传感器等来确定。
步骤S501b,获得目标交互操作的作用区域的坐标信息,基于对应关系确定目标响应区域中对应坐标信息的区域范围,将区域范围内的对象确定为被操作对象。
作为示例,在空间直角坐标系中目标操作区域的作用区域的坐标信息为x1,y1,z1。目标响应区域中对应坐标信息的区域范围为x2,y2。确定目标操作区域的作用区域与目标响应区域的区域范围之间的对应关系为:x,:y。其中:x=x1/x2=3,:y=y1/y2=3。获取作用区域对应的坐标为(3,3,2),将作用区域的坐标信息分别除以对应关系:x,:y,得到目标响应区域中对应坐标信息的区域范围的坐标为(1,1),将区域范围内的对象确定为被操作对象。
步骤S501c,获得目标交互操作的姿态参数,基于姿态参数确定立体空间区域、显示屏的显示区域、或电子设备的显示输出区域中的全部对象或部分对象确定为被操作对象。
在本实施例中,姿态参数可以用于设计不同的操作手势或操作姿态。不同的手势或姿态可以对应操作全部对象或部分对象,例如双手手势表征被操作对象为部分对象,单手操作表征被操作对象为操作全部对象。
步骤S501d,在目标交互操作为语音交互操作的情况下,识别语音交互操作的语义内容,从立体空间区域、显示屏的显示区域、或电子设备的显示输出区域中确定与语义内容匹配的对象作为被操作对象。
在本实施例中,识别语音交互操作的语义内容可以得到语义内容中包括的显示部位信息、颜色信息、形状信息、被操作对象的标识信息。根据显示部位信息、颜色信息、形状信息、被操作对象的标识信息中的一种或多种信息与目标响应区域内的多个对象进行匹配,将多个对象中与语义内容匹配的对象作为被操作对象。
步骤S502,基于目标交互操作的作用区域与立体空间区域的位置关系以对应的控制策略控制被操作对象更新显示参数。
针对步骤S502的具体说明,与上述步骤S303b相同,这里不再赘述。
本申请实施例的方法,通过步骤S501a-S502,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
对本申请实施例提供的交互控制方法中的具体处理流程进行说明。参见图6,图6是本申请第六实施例提供的交互控制方法的流程示意图。
如图6所示,步骤S102中的基于操作者在目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作,可以包括:
步骤S601,确定目标交互操作指向的被操作对象。
针对步骤S601的具体说明,与上述步骤S501a-S501d相同,这里不再赘述。
步骤S602a,如果作用区域在立体空间区域内,以第一控制策略更改被操作对象的色彩显示参数、位姿参数、缩放参数中的至少之一。
在本实施例中,第一控制策略用于控制被操作对象在对应交互操作下的显示参数的变化速率和/或变化幅度。
步骤S602b,在作用区域在立体空间区域内、且立体空间区域显示输出有虚拟控件的情况下,如果目标交互操作还包括有选择目标虚拟控件的操作,基于目标交互操作的操作变量和目标虚拟控件的配置信息调整被操作对象的显示参数。
在本实施例中,虚拟控件可以包括Touch Bar(触控条)、悬浮球和触控菜单。配置信息可以包括目标虚拟控件的调整项,调整项可以包括色彩、尺寸、位姿、变化幅度和变化速率。操作变量可以包括操作者执行目标交互操作对应的位姿变化量。虚拟控件可以基于或不基于目标交互操作产生,且/或,虚拟控件能够基于目标交互操作和/或被操作对象进行更新。其中,虚拟控件可以基于目标交互操作产生,虚拟控件也可以在立体空间区域内一直显示输出。虚拟控件能够基于不同的目标交互操作对应调整不同类型的显示参数。虚拟控件能够基于不同的被操作对象对应调整不同类型的显示参数。虚拟控件能够基于不同的目标交互操作和不同的被操作对象,对应调整不同类型的显示参数。
步骤S602c,如果作用区域在立体空间区域之外,识别目标交互操作的类型,基于目标交互操作的类型控制立体空间区域内的全部对象的显示参数。
在本实施例中,目标交互操作的类型可以包括操作者的手势操作类型。
步骤S602d,如果作用区域在立体空间区域之外,基于作用区域与立体空间区域的相对位置关系和目标交互操作的类型控制立体空间区域内的至少部分对象的显示参数。
在本实施例中,相对位置关系可以包括:基于深度方向上的前后关系,或者平行方向上的左右关系。在不同的相对位置关系下,被操作对象能够响应的目标交互操作的类型的数量不同。其中,在某一相对位置关系下,某一方向上的控制功能是被禁用的,或在某一相对位置关系下,删减某一方向上的控制功能。
步骤S602e,如果作用区域横跨立体空间区域的边缘,以第三控制策略控制被操作对象更新显示参数。
在本实施例中,作用区域横跨立体空间区域的边缘可以包括:作用区域一部分在立体空间区域内,一部分在在立体空间区域外。第三控制策略可以包括:对立体空间区域内和立体空间区域外的作用区域分别执行不同的控制策略,以分别控制被操作对象更新显示参数。第三控制策略还可以包括:将被控制对象按照立体空间区域的边缘拆分为多个子控制对象,对立体空间区域内的子控制对象执行相同的控制策略,以控制立体空间区域内的子控制对象更新显示参数。对立体空间区域外的子控制对象执行另一种相同的控制策略,以控制立体空间区域外的子控制对象更新显示参数。在将被控制对象按照立体空间区域的边缘拆分为多个子控制对象时,需要考虑被控制对象的整体关联性和协调性。
本申请实施例的方法,通过步骤S601-S602e,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
对本申请实施例提供的交互控制方法中的具体处理流程进行说明。参见图7,图7是本申请第七实施例提供的交互控制方法的流程示意图。
如图7所示,交互控制方法可以包括:
步骤S701,基于操作者的人体特征数据确定操作者的目标操作区域。
步骤S702,基于操作者在目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作。
针对步骤S701-S702的具体说明,与上述步骤S101-S102相同,这里不再赘述。
步骤S703a,响应于获得至少两个操作者的目标交互操作,基于操作者的操作权限响应目标交互操作来控制被操作对象的显示参数。
在本实施例中,确定电子设备的目标响应区域,可以包括以下至少之一:
步骤S7031,如果操作者不具有操作权限,不响应目标交互操作。
在本实施例中,判断操作者是否为被授权用户,若操作者非被授权用户,不响应目标交互操作。或,判断操作者是否为内容源的授权用户,若操作者非内容源的授权用户,不响应目标交互操作。
步骤S7032,如果操作者均具有操作权限,分别确定各操作者的目标交互操作所指向的被操作对象,以及在被操作对象之间没有冲突的情况下,分别控制各被操作对象的显示参数。
在本实施例中,操作者可以为多个。被操作对象之间的冲突可以包括:多个操作者同时操作同一被操作对象,或者被操作对象为局部与被操作对象为整体之间的冲突。在被操作对象之间存在冲突的情况下,可以确定对应的操作者的权限等级、算力处理效率等级或是否存在串行执行的先后顺序。如果存在串行执行的先后顺序,则按照执行顺序控制各被操作对象的显示参数。如果存在操作者的权限等级,优先按照权限等级高的操作者的目标交互操作,控制各被操作对象的显示参数。如果存在算力处理效率等级,优先控制各被操作对象中算力处理效率高的显示参数。
步骤S7033,如果操作者的操作权限等级不同,基于操作权限等级响应针对被操作对象的显示参数的控制。
在本实施例中,优先按照权限等级高的操作者的目标交互操作,控制各被操作对象的显示参数。
步骤S7034,如果操作者的操作权限范围不同,基于操作权限范围响应针对被操作对象的显示参数的控制。
在本实施例中,操作权限范围可以包括操作者可以控制的被操作对象的数量。优先操作权限范围大的操作者的目标交互操作,控制各被操作对象的显示参数。
步骤S703b,响应于目标交互操作,控制被操作对象的显示参数和电子设备的关联模组的位姿同步发生变化。
在本实施例中,电子设备的关联模组的位姿同步发生变化可以包括:显示屏转动或发生形态变化,如直屏变为曲面屏。控制被操作对象的显示参数和电子设备的关联模组的位姿同步发生变化可以包括:将显示参数与关联模组的位姿同步变化,以实现4D(4-dimension,四维)联动。
本申请实施例的方法,通过步骤S701-S703b,能够根据操作者的人体特征数据对显示屏幕的显示内容进行精准控制,针对大于操作者的躯干的活动范围的显示屏幕,能够准确地根据人体特征数据,定位显示屏幕中的被操作对象,能够将屏幕尺寸与人体躯干活动范围之间进行合理匹配,提高了交互控制的精度。结合裸眼3D显示屏幕,在电子设备的3D显示屏幕所呈现出来的视觉感知区域内进行手势的3D交互控制,简化了交互控制过程,提高了交互控制的效率。基于操作者的视线位置,控制对应的显示区域放大或缩小,提高了交互控制的精度,操作者仅需要进行手部小幅摆动就可以快速移动被操作对象到显示屏幕的任一位置。
图8示出了本申请实施例提供的交互控制方法的一种应用场景图;
参考图8,本申请实施例提供的交互控制方法的一种应用场景图,应用于操作者与电子设备的显示屏的交互控制。首先,确定操作者在显示屏上的视线位置。显示屏可以为输出二维平面对象显示屏。根据视线位置,确定需要进行交互控制的显示屏的部分显示区域,将该部分显示区域放大后全屏显示在显示屏的显示区域内。
获取操作者的人体特征数据。其中,人体特征数据可以包括肩宽、臂长、身高等特征数据。
基于操作者的人体特征数据确定操作者的目标操作区域。其中,作为示例,获得操作者的肩膀和手臂的特征数据。特征数据包括:操作者的肩膀分别与两个手臂连接处的位置,操作者手臂的前臂长度。以肩膀与两个手臂连接处的位置为基准点,以前臂长度为半径,确定手臂能够相对基准点,朝向各个方向上运动的两个最大球形区域。将该最大球形区域的最大内接长方体确定为操作者的目标操作区域。在空间直角坐标系中目标操作区域可以为x1,y1,z1。
基于显示屏的显示标识信息确定目标响应区域的尺寸信息。其中,在空间直角坐标系中目标响应区域可以为x2,y2,z2。
确定目标交互操作指向的被操作对象。其中,基于目标操作区域与目标响应区域之间的比例关系确定目标交互操作指向的被操作对象。作为示例,在空间直角坐标系中目标操作区域为x1,y1,z1。目标响应区域为x2,y2,z2。确定目标操作区域与目标响应区域之间的对应关系为:x,:y,:z。其中:x=x1/x2=2,:y=y1/y2=2,:z=z1/z2=2。获取目标交互操作对应的坐标为(1,1,2),将目标交互操作对应的坐标分别除以对应关系:x,:y,:z,得到目标交互操作指向的被操作对象的坐标为(0.5,0.5,1)
基于目标交互操作触发的控制指令控制被操作对象执行对应的处理操作。其中,控制指令可以包括flick(轻扫),pinch(捏合),unpinch(展开),rotate(旋转),Zoom(缩放)。
可以理解,图8的交互控制方法的应用场景只是本申请实施例中的部分示例性的实施方式,本申请实施例中交互控制方法的应用场景包括但不限于图8所示的交互控制方法的应用场景。
下面继续说明本申请实施例提供的交互控制装置90的实施为软件模块的示例性结构,在一些实施例中,如图9所示,交互控制装置90中的软件模块可以包括:确定模块901,可以用于基于操作者的人体特征数据确定操作者的目标操作区域;执行模块902,可以用于基于操作者在目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作;其中,被操作对象是目标交互操作指向的对象,目标响应区域是电子设备用于输出可视化内容的输出区域的至少部分,被操作对象属于或不属于可视化内容。
需要说明的是,本申请实施例装置的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果,因此不做赘述。对于本申请实施例提供的交互控制装置中未尽的技术细节,可以根据图1至图7中任一附图的说明而理解。
根据本申请的实施例,本申请还提供了一种电子设备和一种非瞬时计算机可读存储介质。
图10示出了可以用来实施本申请的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储电子设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如交互控制方法。例如,在一些实施例中,交互控制方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的交互控制方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行交互控制方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种交互控制方法,包括:
基于操作者的人体特征数据确定所述操作者的目标操作区域;
基于所述操作者在所述目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作;
其中,所述被操作对象是所述目标交互操作指向的对象,所述目标响应区域是所述电子设备用于输出可视化内容的输出区域的至少部分,所述被操作对象属于或不属于所述可视化内容。
2.根据权利要求1所述的方法,其中,基于操作者的人体特征数据确定所述操作者的目标操作区域,包括:
获得所述操作者的第一部位和第二部位的特征数据;
以所述第一部位为基准点将所述第二部位能够相对所述基准点运动的最大范围区域确定为所述操作者的目标操作区域,所述最大范围区域基于所述特征数据确定。
3.根据权利要求1或2所述的方法,还包括:
确定所述电子设备的目标响应区域;
其中,确定所述电子设备的目标响应区域,包括以下至少之一:
将所述电子设备显示输出三维立体对象时能够被目标操作者感知到的立体空间区域确定为所述目标响应区域;
在电子设备的显示屏输出二维平面对象的情况下,以所述操作者在所述显示屏上的视线位置为中心将所述显示屏的显示区域中与所述目标操作区域匹配的区域确定为所述目标响应区域;
基于电子设备的显示屏的显示标识信息确定所述电子设备的显示输出区域与所述目标操作区域之间的比例关系,基于所述比例关系和所述目标操作区域的坐标信息确定所述目标响应区域。
4.根据权利要求3所述的方法,基于所述操作者在所述目标操作区域内的目标交互操作控制电子设备的目标响应区域内的被操作对象执行对应的处理操作,包括以下至少之一:
基于所述目标操作区域与所述目标响应区域之间的对应关系确定所述目标交互操作指向的被操作对象,基于所述目标交互操作触发的控制指令控制所述被操作对象执行对应的处理操作;
确定所述目标交互操作指向的被操作对象,基于所述目标交互操作的作用区域与所述立体空间区域的位置关系以对应的控制策略控制所述被操作对象更新显示参数。
5.根据权利要求4所述的方法,其中,确定所述目标交互操作指向的被操作对象,包括以下至少之一:
获得所述目标交互操作的作用区域的坐标信息,将所述立体空间区域中与所述坐标信息匹配的对象确定为所述被操作对象;
获得所述目标交互操作的作用区域的坐标信息,基于所述对应关系确定所述目标响应区域中对应所述坐标信息的区域范围,将所述区域范围内的对象确定为所述被操作对象;
获得所述目标交互操作的姿态参数,基于所述姿态参数确定所述立体空间区域、显示屏的显示区域、或电子设备的显示输出区域中的全部对象或部分对象确定为所述被操作对象;
在所述目标交互操作为语音交互操作的情况下,识别所述语音交互操作的语义内容,从所述立体空间区域、显示屏的显示区域、或电子设备的显示输出区域中确定与所述语义内容匹配的对象作为所述被操作对象。
6.根据权利要求4所述的方法,其中,基于所述目标交互操作触发的控制指令控制所述被操作对象执行对应的处理操作,包括以下至少之一:
基于第一交互操作的第一操作数据确定对第一被操作对象自身执行第一处理操作;
基于第二交互操作的第二操作数据确定对第二被操作对象执行配置功能项的处理操作;
基于第三交互操作的第三操作数据确定对所述第一被操作对象执行更换为第二被操作对象的处理操作,其中,所述第二被操作对象与所述第一被操作对象具有关联关系或不具有关联关系;
确定第四交互操作的操作变量,基于所述操作变量在所述对应关系下的映射变量控制所述被操作对象执行位姿切换的处理操作。
7.根据权利要求4所述的方法,其中,基于所述目标交互操作的作用区域与所述立体空间区域的位置关系以对应的控制策略控制所述被操作对象更新显示参数,包括以下至少之一:
如果所述作用区域在所述立体空间区域内,以第一控制策略更改所述被操作对象的色彩显示参数、位姿参数、缩放参数中的至少之一,所述第一控制策略用于控制所述被操作对象在对应交互操作下的显示参数的变化速率和/或变化幅度;
在所述作用区域在所述立体空间区域内、且所述立体空间区域显示输出有虚拟控件的情况下,如果所述目标交互操作还包括有选择目标虚拟控件的操作,基于所述目标交互操作的操作变量和所述目标虚拟控件的配置信息调整所述被操作对象的显示参数,其中,所述虚拟控件基于或不基于所述目标交互操作产生,且/或,所述虚拟控件能够基于所述目标交互操作和/或所述被操作对象进行更新;
如果所述作用区域在所述立体空间区域之外,识别所述目标交互操作的类型,基于所述目标交互操作的类型控制所述立体空间区域内的全部对象的显示参数;
如果所述作用区域在所述立体空间区域之外,基于所述作用区域与所述立体空间区域的相对位置关系和所述目标交互操作的类型控制所述立体空间区域内的至少部分对象的显示参数,其中,在不同的相对位置关系下,所述被操作对象能够响应的目标交互操作的类型的数量不同;
如果所述作用区域横跨所述立体空间区域的边缘,以第三控制策略控制所述被操作对象更新显示参数。
8.根据权利要求1所述的方法,还包括:
响应于获得至少两个操作者的目标交互操作,基于所述操作者的操作权限响应所述目标交互操作来控制被操作对象的显示参数;
或,响应于目标交互操作,控制所述被操作对象的显示参数和所述电子设备的关联模组的位姿同步发生变化。
9.根据权利要求8所述的方法,其中,基于所述操作者的操作权限响应所述目标交互操作来控制被操作对象的显示参数,包括以下至少之一:
如果所述操作者不具有操作权限,不响应所述目标交互操作;
如果所述操作者均具有所述操作权限,分别确定各操作者的目标交互操作所指向的被操作对象,以及在所述被操作对象之间没有冲突的情况下,分别控制各被操作对象的显示参数;
如果所述操作者的操作权限等级不同,基于操作权限等级响应针对所述被操作对象的显示参数的控制;
如果所述操作者的操作权限范围不同,基于所述操作权限范围响应针对所述被操作对象的显示参数的控制。
10.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
CN202311865294.XA 2023-12-29 2023-12-29 一种交互控制方法及电子设备 Pending CN117850591A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311865294.XA CN117850591A (zh) 2023-12-29 2023-12-29 一种交互控制方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311865294.XA CN117850591A (zh) 2023-12-29 2023-12-29 一种交互控制方法及电子设备

Publications (1)

Publication Number Publication Date
CN117850591A true CN117850591A (zh) 2024-04-09

Family

ID=90530751

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311865294.XA Pending CN117850591A (zh) 2023-12-29 2023-12-29 一种交互控制方法及电子设备

Country Status (1)

Country Link
CN (1) CN117850591A (zh)

Similar Documents

Publication Publication Date Title
US20190213792A1 (en) Providing Body-Anchored Mixed-Reality Experiences
US20200097091A1 (en) Method and Apparatus of Interactive Display Based on Gesture Recognition
US9268410B2 (en) Image processing device, image processing method, and program
EP2965299A1 (en) Modifying functionality based on distances between devices
EP4124878A2 (en) Method and apparatus for calibrating lidar and positioning device and storage medium
US11688148B2 (en) Methods and systems for selection of objects
WO2022166448A1 (en) Devices, methods, systems, and media for selecting virtual objects for extended reality interaction
CN115847384B (zh) 机械臂安全平面信息显示方法及相关产品
CN115511779A (zh) 图像检测方法、装置、电子设备和存储介质
US20140111551A1 (en) Information-processing device, storage medium, information-processing method, and information-processing system
US20140115532A1 (en) Information-processing device, storage medium, information-processing method, and information-processing system
CN107133347B (zh) 可视化分析图表的展示方法及装置、可读存储介质、终端
EP3850468B1 (en) Snapping range for augmented reality objects
CN117130518A (zh) 控件显示方法、头显设备、电子设备及可读存储介质
CN117850591A (zh) 一种交互控制方法及电子设备
KR20240112287A (ko) 메타버스 콘텐츠 모달리티 매핑
CN115575931A (zh) 标定方法、装置、电子设备及存储介质
CN114882587A (zh) 生成对抗样本的方法、装置、电子设备和介质
KR102683669B1 (ko) 메타버스 환경에서 전시 서비스를 제공하는 서버 및 그 동작 방법
CN113012281B (zh) 人体模型的确定方法、装置、电子设备及存储介质
CN117695648B (zh) 虚拟角色的移动和视角控制方法、装置、电子设备和介质
CN117944031A (zh) 一种柔性机械臂的控制方法、柔性机械臂、设备及介质
CN118377399A (zh) 一种基于手势控制的光标映射方法
CN117034585A (zh) 多显示器的编排方法、装置和电子设备
CN118022307A (zh) 调整虚拟对象位置的方法、装置、设备、介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination