CN115562479A - 电子设备的控制方法、电子设备的控制装置和穿戴设备 - Google Patents
电子设备的控制方法、电子设备的控制装置和穿戴设备 Download PDFInfo
- Publication number
- CN115562479A CN115562479A CN202211006778.4A CN202211006778A CN115562479A CN 115562479 A CN115562479 A CN 115562479A CN 202211006778 A CN202211006778 A CN 202211006778A CN 115562479 A CN115562479 A CN 115562479A
- Authority
- CN
- China
- Prior art keywords
- control
- screen
- electronic device
- electronic equipment
- wearable device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种电子设备的控制方法、电子设备的控制装置和穿戴设备,属于电子技术领域。所述电子设备的控制方法,应用于穿戴设备,包括:获取所述电子设备的屏幕位置信息;基于所述屏幕位置信息,建立虚拟操作平面;接收对所述虚拟操作平面的第一输入;响应于所述第一输入,向所述电子设备发送控制指令。
Description
技术领域
本申请属于电子技术领域,具体涉及一种电子设备的控制方法、电子设备的控制装置和穿戴设备。
背景技术
用户在使用电子设备时,往往通过触控电子设备的屏幕或者通过操作与电子设备连接的实体按键(如鼠标或蓝牙操作杆等)来控制电子设备,以上控制方式既无法实现非接触式的隔空操作,也无法解放用户双手,从而造成用户在操作电子设备的过程中的诸多不便。相关技术中还存在一些隔空控制方式,如通过手势识别技术进行隔空控制以及通过人体虹膜识别技术进行眼球跟踪进而达到隔空控制的方式,但以上隔空控制方式的控制精度和灵敏度较低,从而影响用户的使用体验。
发明内容
本申请实施例的目的是提供一种电子设备的控制方法、电子设备的控制装置和穿戴设备,能够解决隔空控制方式的控制精度和灵敏度较低的问题。
第一方面,本申请实施例提供了一种电子设备的控制方法,应用于穿戴设备,该方法包括:
获取所述电子设备的屏幕位置信息;
基于所述屏幕位置信息,建立虚拟操作平面;
接收对所述虚拟操作平面的第一输入;
响应于所述第一输入,向所述电子设备发送控制指令。
第二方面,本申请实施例提供了一种电子设备的控制方法,应用于电子设备,该方法包括:
接收穿戴设备发送的控制指令,所述控制指令为所述穿戴设备基于虚拟操作平面生成的;
响应于所述控制指令,所述电子设备执行所述控制指令。
第三方面,本申请实施例提供了一种穿戴设备,该穿戴设备包括:
定位传感器,所述定位传感器用于获取电子设备的屏幕位置信息;
位置检测模块,所述位置检测模块用于接收第一输入;
处理模块,所述处理模块与所述定位传感器电连接,用于基于所述屏幕位置信息,建立虚拟操作平面,所述虚拟操作平面设置为与所述屏幕同步;
指令生成模块,所述指令生成模块与所述位置检测模块电连接,所述指令生成模块用于响应于所述第一输入,生成控制指令,所述控制指令用于指示所述电子设备的屏幕显示对应的内容;
通信模块,所述通信模块分别与所述处理模块、所述指令生成模块和所述电子设备电连接。
第四方面,本申请实施例提供了一种电子设备的控制装置,应用于穿戴设备,该装置包括:
第一获取模块,用于获取所述电子设备的屏幕位置信息;
第一处理模块,用于基于所述屏幕位置信息,建立虚拟操作平面;
第一接收模块,用于接收对所述虚拟操作平面的第一输入;
第二处理模块,用于响应于所述第一输入,向所述电子设备发送控制指令。
第五方面,本申请实施例提供了一种电子设备的控制装置,应用于电子设备,该装置包括:
第二接收模块,用于接收穿戴设备发送的控制指令,所述控制指令为所述穿戴设备基于虚拟操作平面生成的;
第一控制模块,用于响应于所述控制指令,控制所述电子设备执行所述控制指令。
第六方面,本申请实施例提供了一种电子设备,该电子设备包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第二方面所述的方法。
第七方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面或第二方面所述的方法。
第八方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面或第二方面所述的方法。
第九方面,本申请实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如第一方面或第二方面所述的方法。
在本申请实施例中,通过电子设备的屏幕的位置信息,建立与电子设备的屏幕同步的虚拟操作平面,基于对虚拟操作平面的第一输入生成与第一输入对应的控制指令以指示电子设备的屏幕显示对应的内容,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度、灵敏度以及控制的灵活性,有助于提高用户的使用体验;除此之外,通过主动的控制方式,还可以减少电子设备设计上的额外成本和空间限制,缩短开发周期,降低设计难度。
附图说明
图1是本申请实施例提供的电子设备的控制方法的流程示意图之一;
图2是本申请实施例提供的电子设备的控制方法的流程示意图之二;
图3是本申请实施例提供的电子设备的控制方法的原理图之一;
图4是本申请实施例提供的电子设备的控制方法的原理图之二;
图5是本申请实施例提供的电子设备的控制方法的原理图之三;
图6是本申请实施例提供的电子设备的控制方法的原理图之四;
图7是本申请实施例提供的电子设备的控制方法的原理图之五;
图8是本申请实施例提供的电子设备的控制方法的原理图之六;
图9是本申请实施例提供的电子设备的控制方法的原理图之七;
图10是本申请实施例提供的电子设备的控制方法的原理图之八;
图11是本申请实施例提供的电子设备的控制方法的原理图之九;
图12是本申请实施例提供的电子设备的控制方法的原理图之十;
图13是本申请实施例提供的电子设备的控制方法的原理图之十一;
图14是本申请实施例提供的电子设备的控制方法的原理图之十二;
图15是本申请实施例提供的穿戴设备的结构示意图;
图16是本申请实施例提供的电子设备的控制装置的结构示意图之一;
图17是本申请实施例提供的电子设备的控制方法的流程示意图之三;
图18是本申请实施例提供的电子设备的控制装置的结构示意图之二;
图19是本申请实施例提供的电子设备的结构示意图;
图20是本申请实施例提供的电子设备的硬件示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
相关技术中,进行隔空控制有以下几种方式:
1)通过手势识别技术进行隔空控制,但该方法需涉及多种用于识别手势的传感器,如图像传感器或穿戴于手部的感应设备,一方面使得成本较高,另一方面以上感应器的灵敏度较低,识别结果的准确度较低,往往无法正常识别手势操作而导致远程控制失效,影响用户对电子设备的正常控制;
2)通过人体虹膜识别技术进行的眼球跟踪进而达到隔空控制,该追踪技术的精度较低,只能进行一些简单的操作,而无法实现更加精准的控制。
以上两方式均无法实现精准的识别以及控制。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的电子设备的控制方法、穿戴设备和可读存储介质进行详细地说明。
其中,电子设备的控制方法可应用于穿戴设备,具体可由,穿戴设备中的硬件或软件执行。
该穿戴设备包括但不限于智能眼镜、智能耳机以及智能手表等便携式可穿戴通信设备。还应当理解的是,在某些实施例中,该穿戴设备可以不是便携式可穿戴通信设备,而是用于工控领域的便于控制带有屏幕交互的操作设备(如机械自动化生产的机械设备上便于控制带有屏幕交互的操作设备)。
以下各个实施例中,描述了包括显示器的穿戴设备。然而,应当理解的是,穿戴设备还可以包括诸如物理键盘、鼠标和控制杆的一个或多个其它物理用户接口设备。
本申请实施例提供的电子设备的控制方法,该电子设备的控制方法的执行主体为穿戴设备,包括但不限于智能眼镜、智能耳机以及智能手表等,或者可以为与穿戴设备通信连接的电子设备的控制装置或服务器等。
其中,电子设备包括但不限于手机、平板电脑、电脑、相机等。下面以穿戴设备作为执行主体为例对本申请实施例提供的电子设备的控制方法进行说明。
如图1所示,该电子设备的控制方法包括:步骤110、步骤120、步骤130和步骤140。
步骤110、获取电子设备的屏幕位置信息;
在该步骤中,屏幕位置信息用于表征电子设备的屏幕在实际三维空间的位置情况。
屏幕位置信息可以由设置于穿戴设备的传感器采集。
屏幕位置信息包括:屏幕的大小信息、屏幕的边界区域屏幕位置信息以及屏幕的中心点屏幕位置信息等。
在一些实施例中,传感器可以为激光雷达(light detection and ranging,LIDAR)传感器,激光雷达传感器是采用飞行时间法(time of Flight,ToF)基于飞行时间进行定位的传感器。
激光雷达传感器包括ToF传感器。
当然,在其他实施例中,也可以通过其他采集装置来获取屏幕位置信息,如通过激光发射器或红外感应器等获取,本申请不作限定。
电子设备的屏幕为点亮状态。
步骤120、基于屏幕位置信息,建立虚拟操作平面;
在该步骤中,如图4和图5示例了一种虚拟操作平面310和屏幕320,其中,虚拟操作平面310为与屏幕320的平面平行,且覆盖整个屏幕320的虚拟的平面。
虚拟操作平面310与电子设备的屏幕320相对同步。
下面结合图2-图5,通过具体实施例对虚拟操作平面310的生成方式进行说明。
如图2所示,在一些实施例中,在步骤120之前,该方法还可以包括:
获取由穿戴设备的激光雷达传感器1510采集的激光雷达数据,激光雷达数据为激光雷达传感器1510扫描电子设备生成的;
基于激光雷达数据,确定屏幕320的屏幕位置信息。
如图3所示,在该实施例中,激光雷达传感器1510设置于穿戴设备上,激光雷达传感器1510可以为ToF传感器。
继续参考图3,在实际执行过程中,激光雷达传感器1510对空间区域进行物场扫描,基于电子设备的屏幕320的特征来识别空间区域中的电子设备的屏幕320;
在识别到屏幕320后,对电子设备的屏幕320进行扫描以采集激光雷达数据。
在得到激光雷达数据后,激光雷达传感器1510将激光雷达数据发送至穿戴设备的处理模块进行处理,以基于激光雷达数据确定屏幕320的屏幕位置信息。
根据本申请实施例提供的电子设备的控制方法,通过激光雷达传感器1510采集电子设备对应的激光雷达数据,并基于激光雷达数据确定电子设备的屏幕位置信息,相较于激光发射器和红外感应器等其他探测装置,具有较高的定位准确性和精确性,能够对电子设备的屏幕320进行精准定位,且有助于实现后续交互的操作过程。
在得到屏幕320的屏幕位置信息后,即可建立虚拟操作平面310。
继续参考图2,在一些实施例中,步骤120可以包括:
基于电子设备的屏幕320的屏幕位置信息,确定屏幕320所在平面;
基于屏幕320所在平面,建立虚拟操作平面310。
在该实施例中,基于屏幕320的大小信息、屏幕320的边界区域屏幕位置信息以及屏幕320的中心点屏幕位置信息等中的至少两种,确定屏幕320所在平面,并以屏幕320所在平面,建立虚拟操作平面310;同时,还可以确定屏幕320中心点在扫描区域的位置。
下面结合图4和图5,通过具体实施例对虚拟操作平面310与电子设备同步的实现方式进行说明。
在一些实施例中,在建立虚拟操作平面310之后,该方法可以包括:
将虚拟操作平面310的中心点位置确定为第一控制点;
向电子设备发送同步请求,同步请求包括第一控制点的屏幕位置信息,同步请求用于指示电子设备将屏幕320的控制权限授权给穿戴设备,且用于指示电子设备同步第一控制点和屏幕320上的第二控制点。
在该实施例中,第一控制点为虚拟操作平面310上的控制点,例如可以表现为操控光标点。
第一控制点的屏幕位置信息用于表征虚拟操作平面310的中心点的位置。
虚拟操作平面310的中心点的位置即为扫描区域中心点位置,也即扫描中心点在三维空间的位置。
第二控制点为屏幕320的控制点,例如可以为屏幕320的控制光标。
同步请求包括:第一控制点的屏幕位置信息以及用于指示电子设备将屏幕320的控制权限授权给穿戴设备的请求信息。
如图4示例了一种虚拟操作平面310和电子设备的屏幕320,其中,A点即为虚拟操作平面310的第一控制点。
可以理解的是,当穿戴设备随用户的动作而移动时,设置于该穿戴设备的激光雷达传感器1510的位置也对应变化,则扫描区域中心点位置对应变化,虚拟操作平面310的中心点位置变化,即操控光标点的位置对应变化。
在第一控制点与第二控制点同步后,当第一控制点的位置发生变化时,则屏幕320上的第二控制点的位置也会对应变化。
在实际执行过程中,在建立了虚拟操作平面310后,穿戴设备计算激光雷达传感器1510的扫描区域中心点在电子设备的屏幕320上的坐标,以扫描区域中心点的位置生成第一控制点A。
穿戴设备与电子设备进行配对,配对成功后,向电子设备发送包括第一控制点的屏幕位置信息以及用于指示电子设备将屏幕320的控制权限授权给穿戴设备的请求信息的同步请求。
电子设备接收到同步请求后,响应于同步请求,对穿戴设备进行授权,并向穿戴设备发送屏幕320的控制信息。
授权后,电子设备即可基于接收到的第一控制点A的屏幕位置信息以及屏幕320的第二控制点的屏幕位置信息,对第一控制点A与屏幕320的第二控制点进行同步处理。
在一些实施例中,对第一控制点与第二控制点进行同步处理,可以包括:
确定第一控制点与屏幕320的中心点之间的第一位移;
基于第一位移,对第一控制点与第二控制点进行同步处理。
例如,继续参考图4,A点为虚拟操作平面310的第一控制点,O点为电子设备的屏幕320的中心点。
在实际执行过程中,确定第一控制点A与电子设备的屏幕320的中心点O之间的第一位移,并记录该第一位移;
穿戴设备向电子设备发送第一控制点A的屏幕位置信息;
电子设备基于第一位移以及接收到的第一控制点A的屏幕位置信息,对第一控制点与第二控制点进行同步处理。
根据本申请实施例提供的电子设备的控制方法,通过将虚拟操作平面310的第一控制点与电子设备的屏幕320第二控制点进行同步处理,以使得用户可以通过控制虚拟操作平面310以对应控制电子设备的屏幕320,从而实现对电子设备的屏幕320的隔空控制,有效解放用户的双手,具有较高的控制精度和灵敏度。
步骤130、接收对虚拟操作平面的第一输入;
在该步骤中,第一输入用于确定控制指令。因此,需要预先建立第一输入与控制指令的关联关系,在后面的多个实施例中,将从多个方面详细说明第一输入与控制指令的关联关系。
需要说明的是,第一输入可以基于穿戴设备的姿态信息确定。
姿态信息为用于表征穿戴设备移动情况的信息。
其中,姿态信息包括穿戴设备的移动方向数据和穿戴设备的移动距离数据中的至少一种。
例如,在穿戴设备为智能眼镜或智能耳机的情况下,则穿戴设备的姿态信息为用户的头部姿态信息;在穿戴设备为智能手表的情况下,则穿戴设备的姿态信息为用户的腕部姿态信息。
姿态信息可以通过设置于穿戴设备的传感器采集,如由图像传感器、角速度传感器或位移传感器等采集。
可以理解的是,在实际执行过程中,如图5所示,将穿戴设备的姿态信息转化为对虚拟操作平面310的第一输入,穿戴设备的姿态信息的变化即可对应于虚拟操作平面310上的第一控制点A的位置的变化。
在一些实施例中,步骤130可以包括:
获取由穿戴设备的陀螺仪采集的移动方向数据和由穿戴设备的加速度传感器采集的加速度数据,加速度数据用于确定移动距离数据;
基于移动方向数据和移动距离数据,确定第一输入。
在该实施例中,穿戴设备的姿态信息包括穿戴设备的移动方向数据和穿戴设备的移动距离数据。
其中,加速度数据用于表征穿戴设备的加速度信息,移动方向数据用于表征穿戴设备的位移方向信息。
在实际执行过程中,分别在穿戴设备上设置陀螺仪和加速度传感器,通过陀螺仪采集移动方向数据,通过加速度传感器采集加速度数据;
然后分别将采集的加速度数据和移动距离数据发送至穿戴设备的指令生成模块进行数据处理,以确定穿戴设备的移动方向和移动距离;
具体地,由指令生成模块基于加速度数据生成移动距离数据,并将移动方向数据和移动距离数据转化为对虚拟操作平面310的第一输入,将穿戴设备的移动方向和移动距离的变化转化为第一控制点的位置的变化。
例如,当激光雷达传感器1510的位置随穿戴设备偏移时,陀螺仪和加速度传感器检测穿戴设备移动方向和移动距离,并将检测到的移动方向数据和移动距离数据进行存储。
穿戴设备基于存储的移动方向数据和移动距离数据,确定穿戴设备的位移变化,并将位移变化转化为第一控制点的位置的变化。
需要说明的是,第一输入可以为单次输入,或者也可以为多次输入。
例如,可以设置目标周期以划分第一输入的次数。
将目标周期内的移动方向数据和移动距离数据确定为同一次输入;在目标时间段包括多个周期的情况下,则可以分别将每个周期内的移动方向数据和移动距离数据确定为该周期对应的第一输入,从而可以确定目标时间段内的多个第一输入。
又如,还可以基于移动方向的变化情况来划分第一输入。
以移动方向发生变化的时刻作为节点,将节点后的移动方向数据和移动距离数据确定为新的第一输入,从而确定多个第一输入。
根据本申请实施例提供的电子设备的控制方法,通过陀螺仪采集移动方向数据,由加速度传感器采集加速度数据以确定移动距离数据,并基于移动方向数据和移动距离数据确定第一控制点的位置的变化,相较于图像传感器或眼动追踪仪等位移确定技术,具有较高的精确度和准确度,且硬件结构简单,易于实现,显著降低了设计难度,降低了设计成本,缩短开发周期,提高了软件方案实现的便捷度。
步骤140、响应于第一输入,向电子设备发送控制指令。
在该步骤中,控制指令用于指示电子设备的屏幕显示对应的内容。
控制指令包括:选取、点击、双击、单次滑动、连续滑动、拖动、范围选取以及缩放操作中的至少一种。
穿戴设备在接收到第一输入后,响应于第一输入,生成与第一输入对应的控制指令,并向电子设备发送控制指令。
电子设备的屏幕基于控制指令对应执行相关操作,并更新显示内容,从而实现隔空操作。
在该实施例中,通过电子设备的屏幕320的屏幕位置信息,建立虚拟操作平面310,并控制虚拟操作平面310与电子设备的屏幕320相对同步,使得用户可以通过控制虚拟操作平面310以对应控制电子设备的屏幕320,从而实现对电子设备的屏幕320的隔空控制,且具有较高的控制精度和控制准确度。
基于对虚拟操作平面310的第一输入生成与第一输入对应的控制指令以指示电子设备的屏幕320显示对应的内容,使得用户可以基于使用习惯或使用需求,自定义第一输入与控制指令之间的关联关系,具有较高的控制灵活性和控制多样性,适用范围广且普适性强。
除此之外,通过将用于数据采集以及处理等的元件集成于穿戴设备上,通过主动控制的方式实现对电子设备的远程控制,可以显著降低电子设备上的额外成本和空间限制,更易于电子设备的开发设计的实现,缩短开发周期,降低设计难度。
根据本申请实施例提供的电子设备的控制方法,通过电子设备的屏幕320的屏幕位置信息,建立与电子设备的屏幕320同步的虚拟操作平面310,基于对虚拟操作平面310的第一输入生成与第一输入对应的控制指令以指示电子设备的屏幕320显示对应的内容,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度、灵敏度以及控制的灵活性,有助于提高用户的使用体验;除此之外,通过主动的控制方式,还可以减少电子设备设计上的额外成本和空间限制,缩短开发周期,降低设计难度。
下面对步骤140的具体实现方式进行说明。
在一些实施例中,步骤140可以包括:
确定第一输入对应的运动矢量;
基于运动矢量,确定控制指令;
向电子设备发送控制指令。
在该实施例中,第一输入对应的运动矢量用于表征穿戴设备的位移变化。
穿戴设备基于移动方向数据和移动距离数据,确定穿戴设备的位移变化,也即确定第一输入对应的运动矢量,并将该运动矢量转化为第一控制点的位置的变化。
如图5所示,A点为第一控制点的初始位置,矢量P指向的终点为接收第一输入后的第一控制点的当前位置,A点和矢量P指向的终点构成的矢量即为第一输入对应的运动矢量P。
该运动矢量P包括移动方向和移动距离。
需要说明的是,每进行一次第一输入,则对应一个运动矢量。
在进行多次第一输入的情况下,则可以得到多个运动矢量。
在确定运动矢量后,即可基于运动矢量生成控制指令,并向电子设备发送控制指令。
其中,运动矢量与控制指令之间的关联关系为提前建立的。
根据本申请实施例提供的电子设备的控制方法,基于穿戴设备的姿态信息确定第一控制点的运动矢量,基于运动矢量确定控制指令,具有较高的响应灵敏度和控制精度,有助于提高隔空控制的灵敏度和准确度,从而提高用户的使用体验。
在一些实施例中,基于运动矢量,确定控制指令,还可以包括:基于运动矢量的方向和运动矢量的数量中的至少一种,确定控制指令。
在该实施例中,可以基于运动矢量的方向,确定控制指令;或者可以基于运动矢量的数量,确定控制指令;或者还可以基于运动矢量的方向和运动矢量的数量,共同确定控制指令。
其中,运动矢量的方向可以表现为运动矢量与目标平面的夹角的大小。
目标平面可以基于用户自定义。
如图6所示,可以设置XZ平面和YZ平面来判断运动矢量P的方向。
如图7所示,在运动矢量P的角度与X方向夹角小于第一目标角度的情况下,则认为运动矢量P的方向接近于XZ平面,则确定移动方向为X方向,其中,第一目标角度可以设置为45°或30°等,本申请不作限定。
在确定运动矢量P的方向后,则可以基于运动矢量P的方向,确定与该方向对应的控制指令,如与该方向对应的控制指令设置为选取。
如图8所示,在运动矢量P的角度与X的方向夹角大于第一目标角度且小于第二目标角度的情况下,则认为运动矢量P的方向接近于YZ平面,反之亦然。
在确定运动矢量P的方向后,则可以基于运动矢量P的方向,确定与该方向对应的控制指令,如与该方向对应的控制指令设置为平移。
运动矢量的数量可以表现为第一输入的次数,或者也可以基于运动矢量的方向发生变化的次数来确定。
例如,在运动矢量的方向未发生变化的情况下,则确定运动矢量的数量为1;在运动矢量的方向发生变化的次数为1次的情况下,则确定运动矢量的数量为2;在运动矢量的方向发生变化的次数为2次的情况下,则确定运动矢量的数量为3,以此类推。
当然,在其他实施例中,还可以基于运动矢量的方向和运动矢量的数量的组合形式,确定组合命令。
下面对第一输入与控制指令的关联关系的另外几种表现形式进行说明。
如图9所示,运动矢量P与YZ平面垂直或接近XZ平面(如夹角<45°则为接近),并接着完成一次反向移动(即运动矢量P的方向接近于XZ平面,且运动矢量P的数量为2),则确定控制指令为点击。
如图10所示,运动矢量P与YZ平面垂直或接近XZ平面(如夹角<45°则为接近),并接着完成三次反向移动(即运动矢量P的方向接近于垂直平面XZ平面且运动矢量P的数量为4),则确定控制指令为双击。
如图11所示,运动矢量P与XZ平面垂直或接近YZ平面(如夹角<45°则为接近),抬起复位,再重复多次(即运动矢量P的方向接近于YZ平面,运动矢量P的数量为多次,且多次均为同向),则确定控制指令为连续滑动。
如图12所示,先进行选取操作,再进行滑动操作,则确定控制指令为拖动。
如图13所示,先进行选取操作,然后运动矢量P与XZ平面垂直或接近YZ平面(如夹角<45°则为接近),且与Y轴成±45°(偏差范围<15°)时,则确定控制指令为范围选取。
如图14所示,先进行点击操作,选中一点,然后运动矢量P与XZ平面垂直或接近YZ平面(夹角<45°为接近),且与Y轴成±45°(偏差范围<15°)时,若方向背离A点,则执行放大操作;若方向指向A’点则执行缩小操作。
根据本申请实施例提供的电子设备的控制方法,基于运动矢量的方向和运动矢量的数量中的至少一种确定控制指令,可以实现多种组合命令,显著增加控制指令的种类以及数量,使得用户可以基于使用习惯或使用需求,自定义运动矢量与控制指令之间的关联关系,具有较高的控制灵活性和控制多样性,适用范围广且普适性强。
本申请实施例还提供一种穿戴设备。
如图15所示,该穿戴设备包括:定位传感器、位置检测模块1520、处理模块1530、指令生成模块1540和通信模块1550。
其中,定位传感器用于获取电子设备的屏幕320的屏幕位置信息。
位置检测模块1520用于接收第一输入;第一输入基于穿戴设备的姿态信息确定。
其中,姿态信息包括:移动方向数据和移动距离数据中的至少一种。
处理模块1530与定位传感器电连接,用于基于电子设备的屏幕320的屏幕位置信息,建立虚拟操作平面310,虚拟操作平面310设置为与屏幕320同步。
指令生成模块1540与位置检测模块1520电连接,用于响应于第一输入,生成控制指令,该控制指令用于指示电子设备的屏幕320显示对应的内容。
通信模块1550分别与处理模块1530、指令生成模块1540和电子设备电连接。
在实际执行过程中,定位传感器扫描空间区域中的电子设备的屏幕320,通过AI(Artificial Intelligence)算法,根据屏幕320特征识别电子设备的屏幕320。
识别到屏幕320后,定位传感器将扫描电子设备所在的屏幕位置信息,包括屏幕320大小信息以及屏幕320边界区域等,同时计算屏幕320中心点位置所在扫描区域的位置,然后将以上数据发送至处理模块1530,由处理模块1530以屏幕320平面建立虚拟操作平面310。
在建立过程中,可以采用AI算法建立空间坐标模型,以建立虚拟操作平面310。
建立虚拟操作平面310后,处理模块1530计算定位传感器扫描区域的中心点位置在屏幕320上的坐标,以扫描区域的中心点位置生成操控光标点A,如图4所示,并将该操控光标点A对应的屏幕位置信息发送到通信模块1550。
通信模块1550接受到操控光标点A对应的屏幕位置信息后开始与电子设备进行配对连接,并从电子设备获取屏幕320的像素分辨率等信息;并获取屏幕320的控制权限。
获取屏幕320的控制权限后,通信模块1550将定位传感器的扫描区域的中心点位置A与电子设备的屏幕320的第二控制点经过处理模块1530的处理,发送到电子设备进行同步,即实现定位传感器的扫描区域的中心点位置A(即第一控制点)与屏幕320控制光标(第二控制点)同步。
具体地,继续参考图4,定位传感器采集第一控制点A的位置坐标和屏幕320的中心点O的位置坐标,并记录A到O到A的第一位移,同步到处理模块1530;
通信模块1550将处理模块1530发送的第一控制点A的位置坐标同步至电子设备,并将屏幕320控制信息反馈至处理模块1530,处理模块1530将屏幕320控制信息与位置检测模块1520采集的姿态信息进行同步确认。
在一些实施例中,该穿戴设备还可以包括存储模块1570。
在该实施例中,存储模块1570分别与定位传感器和位置检测模块1520电连接。
存储模块1570用于存储定位传感器采集的屏幕位置信息以及位置检测模块1520采集的姿态信息。
指令生成模块1540用于基于存储模块1570发送的姿态信息生成控制指令,并将该控制指令发送至通信模块1550,由通信模块1550发送至电子设备。
继续以上述实施例为例,当定位传感器的位置随穿戴设备偏移时,位置检测模块1520将基于第一输入记录穿戴设备移动方向数据与移动距离数据中的至少一种,并将采集的穿戴设备的姿态信息发送至存储模块1570进行存储。
此时指令生成模块1540从存储模块1570中读取位置检测模块1520采集的姿态信息生成控制指令,然后通过通信模块1550发送至与该穿戴设备通信连接的电子设备。
电子设备的屏幕320根据电子设备接收到的控制指令执行诸如:滑动,选取以及移动等相关内容,以实现隔空操作。
根据本申请实施例提供的穿戴设备,通过电子设备的屏幕320的屏幕位置信息,建立与电子设备的屏幕320同步的虚拟操作平面310,基于对虚拟操作平面310的第一输入生成与第一输入对应的控制指令以指示电子设备的屏幕320显示对应的内容,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度、灵敏度以及控制的灵活性,有助于提高用户的使用体验;除此之外,通过主动的控制方式,还可以减少电子设备设计上的额外成本和空间限制,缩短开发周期,降低设计难度。
在一些实施例中,定位传感器还可以包括激光雷达传感器1510。
在该实施例中,激光雷达传感器1510与处理模块1530电连接。
激光雷达传感器1510用于采集激光雷达数据,激光雷达数据为激光雷达传感器1510扫描电子设备生成的。
例如,激光雷达传感器1510可以为ToF传感器。
ToF传感器可以采用ToF技术进行物场扫描。
根据本申请实施例提供的穿戴设备,通过激光雷达传感器1510采集电子设备对应的激光雷达数据,并基于激光雷达数据确定电子设备的屏幕位置信息,相较于激光发射器和红外感应器等其他探测装置,具有较高的定位准确性和精确性,能够对电子设备的屏幕320进行精准定位,且有助于实现后续交互的操作过程。
在一些实施例中,位置检测模块1520还可以包括:陀螺仪和加速度传感器。
在该实施例中,陀螺仪与指令生成模块1540电连接,用于采集移动方向数据;
加速度传感器与指令生成模块1540电连接,用于采集加速度数据。
在实际执行过程中,指令生成模块1540可以将采集的移动方向数据和基于加速度数据生成的移动距离数据确定为对虚拟操作平面310的第一输入。
例如,陀螺仪记录穿戴设备的移动方向数据,加速度传感器记录穿戴设备的加速度数据。根据指令生成模块1540记录的移动方向数据和移动方向数据可以生成运动矢量P,如图5所示。
基于运动矢量P即可计算穿戴设备在空间移动的坐标变化。
指令生成模块1540根据穿戴设备在空间移动的坐标变化,如基于运动矢量的方向和运动矢量的数量中的至少一种,即可确定控制指令。
其中控制指令与运动矢量的关联关系,已在上文实施例中进行了说明,在此不作赘述。
根据本申请实施例提供的穿戴设备,通过陀螺仪采集移动方向数据,由加速度传感器采集加速度数据以确定移动距离数据,并基于移动方向数据和移动距离数据确定第一控制点的位置的变化,相较于图像传感器或眼动追踪仪等位移确定技术,具有较高的精确度和准确度,且硬件结构简单,易于实现,显著降低了设计难度,降低了设计成本,提高了软件方案实现的便捷度。
在一些实施例中,该穿戴设备还可以包括:震动模块1560。
在该实施例中,震动模块1560与通信模块1550电连接,用于基于穿戴设备与电子设备之间的通信情况提供交互反馈,如在交互成功的情况下产生震动等。
通过设置震动模块1560,可以及时向用户进行交互反馈,使得用户能够基于交互反馈及时采取相应措施,从而进一步提高交互性和控制的准确性。
在一些实施例中,该穿戴设备还可以包括:电源模块1580。
在该实施例中,电源模块1580分别与定位传感器、位置检测模块1520、处理模块1530、通信模块1550、存储模块1570、指令生成模块1540和震动模块1560电连接,用于给各模块供电。
在一些实施例中,该穿戴设备还可以包括显示模块。
在该实施例中,显示模块与处理模块1530电连接,用于显示虚拟操作平面310。
本申请实施例提供的电子设备的控制方法,执行主体可以为电子设备的控制装置。本申请实施例中以电子设备的控制装置执行电子设备的控制方法为例,说明本申请实施例提供的电子设备的控制装置。
本申请实施例还提供一种电子设备的控制装置,应用于穿戴设备。
如图16所示,该电子设备的控制装置包括:第一获取模块1610、第一处理模块1620、第一接收模块1630和第二处理模块1640。
第一获取模块1610,用于获取电子设备的屏幕位置信息;
第一处理模块1620,用于用于基于屏幕位置信息,建立虚拟操作平面;
第一接收模块1630,用于接收对虚拟操作平面的第一输入;
第二处理模块1640,用于响应于第一输入,向电子设备发送控制指令。
根据本申请实施例提供的电子设备的控制装置,通过电子设备的屏幕的位置信息,建立与电子设备的屏幕同步的虚拟操作平面,基于对虚拟操作平面的第一输入生成与第一输入对应的控制指令以指示电子设备的屏幕显示对应的内容,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度以及控制的灵活性,有助于提高用户的使用体验。
在一些实施例中,该装置还可以包括:
第三处理模块,用于将虚拟操作平面的中心点位置确定为第一控制点;
第一发送模块,用于向电子设备发送同步请求,同步请求包括第一控制点的位置信息,同步请求用于指示电子设备将屏幕的控制权限授权给穿戴设备,且用于指示电子设备同步第一控制点和屏幕上的第二控制点。
在一些实施例中,该装置还可以包括:
第一获取模块,用于在基于屏幕位置信息,建立虚拟操作平面之前,获取由穿戴设备的激光雷达传感器采集的激光雷达数据,激光雷达数据为激光雷达传感器扫描电子设备生成的;
第四处理模块,用于基于激光雷达数据,确定屏幕的位置信息。
在一些实施例中,第一接收模块1630,还可以用于:
获取由穿戴设备的陀螺仪采集的移动方向数据和由穿戴设备的加速度传感器采集的加速度数据,加速度数据用于确定移动距离数据;
基于移动方向数据和移动距离数据,确定第一输入。
在一些实施例中,第二处理模块1640,还可以用于:
确定第一输入对应的运动矢量;
基于运动矢量,确定控制指令;
向电子设备发送控制指令。
在一些实施例中,第二处理模块1640,还可以用于:
基于运动矢量的方向和运动矢量的数量中的至少一种,确定控制指令。
本申请实施例中的电子设备的控制装置可以是穿戴设备,也可以是穿戴设备中的部件,例如集成电路或芯片。示例性的,穿戴设备可以为智能眼镜、智能耳机以及智能手表等便携式可穿戴通信设备。还可以为用于工控领域的便于控制带有屏幕交互的操作设备(如机械自动化生产的机械设备上便于控制带有屏幕交互的操作设备)等,本申请实施例不作具体限定。
本申请实施例中的电子设备的控制装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为IOS操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的电子设备的控制装置能够实现图1至图14的方法实施例实现的各个过程,为避免重复,这里不再赘述。
本申请实施例还提供另一种电子设备的控制方法。
下面描述的电子设备的控制方法,应用于电子设备。
如图17所示,该电子设备的控制方法,包括:步骤1710和步骤1720。
步骤1710、接收穿戴设备发送的控制指令,控制指令为穿戴设备基于虚拟操作平面生成的;
在该步骤中,控制指令用于指示电子设备的屏幕显示对应的内容。
控制指令包括:选取、点击、双击、单次滑动、连续滑动、拖动、范围选取以及缩放操作中的至少一种。
在实际执行过程中,穿戴设备在接收到第一输入后,响应于第一输入,生成与第一输入对应的控制指令,并向电子设备发送控制指令。
电子设备接收该控制指令,执行步骤1720。
步骤1720、响应于控制指令,电子设备执行控制指令。
在该步骤中,电子设备执行控制指令包括:在电子设备的屏幕上显示对应的内容。
例如,电子设备在接收到控制指令后,电子设备的屏幕基于控制指令对应执行相关操作,并更新显示内容,从而实现隔空操作。
根据本申请实施例提供的电子设备的控制方法,基于对虚拟操作平面的操作以生成对应的控制指令以指示电子设备执行相应操作,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度以及控制的灵活性,有助于提高用户的使用体验。
在一些实施例中,在步骤1710之前,该方法还可以包括:
接收穿戴设备发送的同步请求,同步请求包括第一控制点的位置信息,第一控制点为虚拟操作平面的中心点位置;
响应于同步请求,向穿戴设备发送请求响应并同步第一控制点和屏幕上的第二控制点,请求响应包括屏幕的分辨率信息,请求响应用于指示将电子设备的控制权限授权给穿戴设备。
在该实施例中,同步请求包括:第一控制点的屏幕位置信息以及用于指示电子设备将屏幕320的控制权限授权给穿戴设备的请求信息。
请求响应用于指示将电子设备的控制权限授权给穿戴设备。
请求响应包括屏幕320的分辨率信息以及屏幕320的控制信息等。
如图4示例了一种虚拟操作平面310和电子设备的屏幕320,其中,A点即为虚拟操作平面310的第一控制点。
可以理解的是,当穿戴设备随用户的动作而移动时,设置于该穿戴设备的激光雷达传感器1510的位置也对应变化,则扫描区域中心点位置对应变化,虚拟操作平面310的中心点位置变化,即操控光标点的位置对应变化。
在第一控制点与第二控制点同步后,当第一控制点的位置发生变化时,则屏幕320上的第二控制点的位置也会对应变化。
在实际执行过程中,在建立了虚拟操作平面310后,穿戴设备计算激光雷达传感器1510的扫描区域中心点在电子设备的屏幕320上的坐标,以扫描区域中心点的位置生成第一控制点A。
穿戴设备与电子设备进行配对,配对成功后,向电子设备发送包括第一控制点的屏幕位置信息以及用于指示电子设备将屏幕320的控制权限授权给穿戴设备的请求信息的同步请求。
电子设备接收到同步请求后,响应于同步请求,像穿戴设备发送请求相应以对穿戴设备进行授权,并向穿戴设备发送屏幕320的控制信息以及屏幕320的分辨率信息。
授权后,电子设备即可基于接收到的第一控制点A的屏幕位置信息以及屏幕320的第二控制点的屏幕位置信息,对第一控制点A与屏幕320的第二控制点进行同步处理。
在一些实施例中,对第一控制点与第二控制点进行同步处理,可以包括:
确定第一控制点与屏幕320的中心点之间的第一位移;
基于第一位移,对第一控制点与第二控制点进行同步处理。
例如,继续参考图4,A点为虚拟操作平面310的第一控制点,O点为电子设备的屏幕320的中心点。
在实际执行过程中,确定第一控制点A与电子设备的屏幕320的中心点O之间的第一位移,并记录该第一位移;
穿戴设备向电子设备发送第一控制点A的屏幕位置信息;
电子设备基于第一位移以及接收到的第一控制点A的屏幕位置信息,对第一控制点与第二控制点进行同步处理。
根据本申请实施例提供的电子设备的控制方法,通过将虚拟操作平面310的第一控制点与电子设备的屏幕320第二控制点进行同步处理,以使得用户可以通过控制虚拟操作平面310以对应控制电子设备的屏幕320,从而实现对电子设备的屏幕320的隔空控制,有效解放用户的双手,具有较高的控制精度和灵敏度。
本申请实施例提供的电子设备的控制方法,执行主体可以为电子设备的控制装置。本申请实施例中以电子设备的控制装置执行电子设备的控制方法为例,说明本申请实施例提供的电子设备的控制装置。
本申请实施例还提供一种电子设备的控制装置,应用于电子设备。
如图18所示,该电子设备的控制装置,包括:第二接收模块1810和第一控制模块1820。
第二接收模块1810,用于接收穿戴设备发送的控制指令,控制指令为穿戴设备基于虚拟操作平面生成的;
第一控制模块1820,用于响应于控制指令,控制电子设备执行控制指令。
根据本申请实施例提供的电子设备的控制装置,基于对虚拟操作平面的操作以生成对应的控制指令以指示电子设备执行相应操作,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度以及控制的灵活性,有助于提高用户的使用体验。
在一些实施例中,该装置还可以包括:
第三接收模块,用于在接收穿戴设备发送的控制指令之前,接收穿戴设备发送的同步请求,同步请求包括第一控制点的位置信息,第一控制点为虚拟操作平面的中心点位置;
第五处理模块,用于响应于同步请求,向穿戴设备发送请求响应并同步第一控制点和屏幕上的第二控制点,请求响应包括屏幕的分辨率信息,请求响应用于指示将电子设备的控制权限授权给穿戴设备。
本申请实施例中的电子设备的控制装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,还可以为个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的电子设备的控制装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为IOS操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的电子设备的控制装置能够实现图17的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图19所示,本申请实施例还提供一种电子设备1900,包括处理器1901,存储器1902,存储在存储器1902上并可在所述处理器1901上运行的程序或指令,该程序或指令被处理器1901执行时实现上述电子设备的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图20为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备2000包括但不限于:射频单元2001、网络模块2002、音频输出单元2003、输入单元2004、传感器2005、显示单元2006、用户输入单元2007、接口单元2008、存储器2009以及处理器2010等部件。
本领域技术人员可以理解,电子设备2000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器2010逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图20中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,输入单元2004,用于接收穿戴设备发送的控制指令,控制指令为穿戴设备基于虚拟操作平面生成的;
处理器2010,用于响应于控制指令,控制电子设备执行控制指令。
根据本申请实施例提供的电子设备,基于对虚拟操作平面的操作以生成对应的控制指令以指示电子设备执行相应操作,在实现隔空控制的基础上,能够显著提高控制的精确度、准确度以及控制的灵活性,有助于提高用户的使用体验。
可选地,输入单元2004,还用于在接收穿戴设备发送的控制指令之前,接收穿戴设备发送的同步请求,同步请求包括第一控制点的位置信息,第一控制点为虚拟操作平面的中心点位置;
处理器2010,还用于响应于同步请求,向穿戴设备发送请求响应并同步第一控制点和屏幕上的第二控制点,请求响应包括屏幕的分辨率信息,请求响应用于指示将电子设备的控制权限授权给穿戴设备
应理解的是,本申请实施例中,输入单元2004可以包括图形处理器(GraphicsProcessing Unit,GPU)20041和麦克风20042,图形处理器20041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元2006可包括显示面板20061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板20061。用户输入单元2007包括触控面板20071以及其他输入设备20072中的至少一种。触控面板20071,也称为触摸屏。触控面板20071可包括触摸检测装置和触摸控制器两个部分。其他输入设备20072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
存储器2009可用于存储软件程序以及各种数据。存储器2009可主要包括存储程序或指令的第一存储区和存储数据的第二存储区,其中,第一存储区可存储操作系统、至少一个功能所需的应用程序或指令(比如声音播放功能、图像播放功能等)等。此外,存储器2009可以包括易失性存储器或非易失性存储器,或者,存储器2009可以包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本申请实施例中的存储器109包括但不限于这些和任意其它适合类型的存储器。
处理器2010可包括一个或多个处理单元;可选的,处理器2010集成应用处理器和调制解调处理器,其中,应用处理器主要处理涉及操作系统、用户界面和应用程序等的操作,调制解调处理器主要处理无线通信信号,如基带处理器。可以理解的是,上述调制解调处理器也可以不集成到处理器2010中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述电子设备的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器ROM、随机存取存储器RAM、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述电子设备的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
本申请实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如上述显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (15)
1.一种电子设备的控制方法,应用于穿戴设备,其特征在于,包括:
获取所述电子设备的屏幕位置信息;
基于所述屏幕位置信息,建立虚拟操作平面;
接收对所述虚拟操作平面的第一输入;
响应于所述第一输入,向所述电子设备发送控制指令。
2.根据权利要求1所述的电子设备的控制方法,其特征在于,在所述建立虚拟操作平面之后,且在所述接收对所述虚拟操作平面的第一输入之前,所述方法包括:
将所述虚拟操作平面的中心点位置确定为第一控制点;
向所述电子设备发送同步请求,所述同步请求包括所述第一控制点的位置信息,所述同步请求用于指示所述电子设备将屏幕的控制权限授权给所述穿戴设备,且用于指示所述电子设备同步所述第一控制点和所述屏幕上的第二控制点。
3.根据权利要求1所述的电子设备的控制方法,其特征在于,在所述基于所述屏幕位置信息,建立虚拟操作平面之前,所述方法包括:
获取由所述穿戴设备的激光雷达传感器采集的激光雷达数据,所述激光雷达数据为所述激光雷达传感器扫描所述电子设备生成的;
基于所述激光雷达数据,确定所述屏幕位置信息。
4.根据权利要求1-3任一项所述的电子设备的控制方法,其特征在于,所述接收对所述虚拟操作平面的第一输入,包括:
获取由所述穿戴设备的陀螺仪采集的移动方向数据和由所述穿戴设备的加速度传感器采集的加速度数据,所述加速度数据用于确定移动距离数据;
基于所述移动方向数据和所述移动距离数据,确定所述第一输入。
5.根据权利要求1-3任一项所述的电子设备的控制方法,其特征在于,所述响应于所述第一输入,向所述电子设备发送控制指令,包括:
确定所述第一输入对应的运动矢量;
基于所述运动矢量,确定所述控制指令;
向所述电子设备发送所述控制指令。
6.根据权利要求5所述的电子设备的控制方法,其特征在于,所述基于所述运动矢量,生成所述控制指令,包括:
基于所述运动矢量的方向和所述运动矢量的数量中的至少一种,确定所述控制指令。
7.一种电子设备的控制方法,应用于电子设备,其特征在于,包括:
接收穿戴设备发送的控制指令,所述控制指令为所述穿戴设备基于虚拟操作平面生成的;
响应于所述控制指令,所述电子设备执行所述控制指令。
8.根据权利要求7所述的电子设备的控制方法,其特征在于,在所述接收穿戴设备发送的控制指令之前,所述方法包括:
接收所述穿戴设备发送的同步请求,所述同步请求包括第一控制点的位置信息,所述第一控制点为所述虚拟操作平面的中心点位置;
响应于所述同步请求,向所述穿戴设备发送请求响应并同步所述第一控制点和屏幕上的第二控制点,所述请求响应包括所述屏幕的分辨率信息,所述请求响应用于指示将所述电子设备的控制权限授权给所述穿戴设备。
9.一种穿戴设备,其特征在于,包括:
定位传感器,所述定位传感器用于获取电子设备的屏幕位置信息;
位置检测模块,所述位置检测模块用于接收第一输入;
处理模块,所述处理模块与所述定位传感器电连接,用于基于所述屏幕位置信息,建立虚拟操作平面,所述虚拟操作平面设置为与所述屏幕同步;
指令生成模块,所述指令生成模块与所述位置检测模块电连接,所述指令生成模块用于响应于所述第一输入,生成控制指令,所述控制指令用于指示所述电子设备的屏幕显示对应的内容;
通信模块,所述通信模块分别与所述处理模块、所述指令生成模块和所述电子设备电连接。
10.根据权利要求9所述的穿戴设备,其特征在于,所述定位传感器包括激光雷达传感器,所述激光雷达传感器与所述处理模块电连接,用于采集激光雷达数据,所述激光雷达数据为所述激光雷达传感器扫描所述电子设备生成的。
11.根据权利要求9所述的穿戴设备,其特征在于,所述位置检测模块包括:
陀螺仪,所述陀螺仪与所述指令生成模块电连接,用于采集所述穿戴设备的移动方向数据;
加速度传感器,所述加速度传感器与所述指令生成模块电连接,用于采集所述穿戴设备的加速度数据,所述加速度数据用于确定移动距离数据。
12.根据权利要求9-11任一项所述的穿戴设备,其特征在于,包括:震动模块,所述震动模块与所述通信模块电连接,用于输出所述电子设备与所述穿戴设备之间的交互反馈。
13.一种电子设备的控制装置,应用于穿戴设备,其特征在于,包括:
第一获取模块,用于获取所述电子设备的屏幕位置信息;
第一处理模块,用于基于所述屏幕位置信息,建立虚拟操作平面;
第一接收模块,用于接收对所述虚拟操作平面的第一输入;
第二处理模块,用于响应于所述第一输入,向所述电子设备发送控制指令。
14.一种电子设备的控制装置,应用于电子设备,其特征在于,包括:
第二接收模块,用于接收穿戴设备发送的控制指令,所述控制指令为所述穿戴设备基于虚拟操作平面生成的;
第一控制模块,用于响应于所述控制指令,控制所述电子设备执行所述控制指令。
15.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1-8任一项所述的电子设备的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211006778.4A CN115562479A (zh) | 2022-08-22 | 2022-08-22 | 电子设备的控制方法、电子设备的控制装置和穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211006778.4A CN115562479A (zh) | 2022-08-22 | 2022-08-22 | 电子设备的控制方法、电子设备的控制装置和穿戴设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115562479A true CN115562479A (zh) | 2023-01-03 |
Family
ID=84738514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211006778.4A Pending CN115562479A (zh) | 2022-08-22 | 2022-08-22 | 电子设备的控制方法、电子设备的控制装置和穿戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115562479A (zh) |
-
2022
- 2022-08-22 CN CN202211006778.4A patent/CN115562479A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10545579B2 (en) | Remote control with 3D pointing and gesture recognition capabilities | |
US9268400B2 (en) | Controlling a graphical user interface | |
US10120454B2 (en) | Gesture recognition control device | |
US10042508B2 (en) | Operation control device and operation control method | |
US20130063345A1 (en) | Gesture input device and gesture input method | |
KR20120068253A (ko) | 사용자 인터페이스의 반응 제공 방법 및 장치 | |
US20200142495A1 (en) | Gesture recognition control device | |
US20190049558A1 (en) | Hand Gesture Recognition System and Method | |
US10725550B2 (en) | Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data | |
US20240028129A1 (en) | Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof | |
CN114332423A (zh) | 虚拟现实手柄追踪方法、终端及计算可读存储介质 | |
CN113498502A (zh) | 使用外部传感器的手势检测 | |
US20240019938A1 (en) | Systems for detecting gestures performed within activation-threshold distances of artificial-reality objects to cause operations at physical electronic devices, and methods of use thereof | |
CN115562479A (zh) | 电子设备的控制方法、电子设备的控制装置和穿戴设备 | |
CN114115544B (zh) | 人机交互方法、三维显示设备及存储介质 | |
CN115480639A (zh) | 人机交互系统、人机交互方法、可穿戴设备及头显设备 | |
CN112882577B (zh) | 手势控制方法、装置及系统 | |
CN114327047B (zh) | 设备控制方法、设备控制装置及存储介质 | |
US20220192487A1 (en) | Method and system for determining dominant eye, and non-transitory computer-readable recording medium | |
CN110471562B (zh) | 一种控制方法、移动终端及计算机可读存储介质 | |
WO2022228056A1 (zh) | 一种人机交互方法及设备 | |
CN113031793A (zh) | 轮廓采集方法、装置以及智能笔 | |
CN117827072A (zh) | 设备控制方法、装置和电子设备 | |
WO2022115375A1 (en) | Image based finger tracking plus controller tracking | |
WO2015105919A2 (en) | Methods and apparatus recognition of start and/or stop portions of a gesture using an auxiliary sensor and for mapping of arbitrary human motion within an arbitrary space bounded by a user's range of motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |