CN109725723A - 手势控制方法和装置 - Google Patents
手势控制方法和装置 Download PDFInfo
- Publication number
- CN109725723A CN109725723A CN201811640759.0A CN201811640759A CN109725723A CN 109725723 A CN109725723 A CN 109725723A CN 201811640759 A CN201811640759 A CN 201811640759A CN 109725723 A CN109725723 A CN 109725723A
- Authority
- CN
- China
- Prior art keywords
- gesture
- gesture operation
- screen equipment
- detection
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了手势控制方法和装置。该方法的一具体实施方式包括:检测手势操作,响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令,该实施方式提升了控制方式的灵活性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及人机交互领域,尤其涉及手势控制方法和装置。
背景技术
非接触式人机交互是一种方便、操控灵活性较强的人机交互方式。在非接触式人机交互中,由于用户与电子设备之间的相对位置受限较小,更符合用户的便捷操控需求,被应用在智慧生活、智能办公等各个领域。
目前人机交互方式包括通过附加的无线发射装置(例如遥控器)的交互和语音交互。基于附加装置的交互方式中按键(包括虚拟按键)较多,依赖于有屏设备界面的设计,操作步长较长,且操作时需要将注意力从显示设备转移到遥控器,操作效率有待提升。语音交互可以解析出用户意图并直接提供用户希望获取的内容。但语音交互在一些场景中不适用,例如环境声音嘈杂或设备播放的多媒体声音较大的场景。
发明内容
本申请实施例提出了有屏设备的手势控制方法和装置。
第一方面,本申请实施例提供了一种手势控制方法,包括:检测手势操作;响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在一些实施例中,上述检测手势操作,包括:检测对有屏设备进行控制的手势操作;上述响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令,包括:响应于检测到手势操作是触发对有屏设备执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在一些实施例中,上述检测对有屏设备进行控制的手势操作,包括:检测有屏设备的有效手势控制区域内的手势操作。
在一些实施例中,上述检测有屏设备的有效手势控制区域内的手势操作,包括:检测有屏设备的有效手势控制区域内的手部动作以及手部动作的持续时间以确定对有屏设备进行控制的静态手势操作;检测有屏设备的有效手势控制区域内的手部位姿的变化,以确定对有屏设备进行控制的动态手势操作。
在一些实施例中,上述检测有屏设备的有效手势控制区域内的手势操作,包括:检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面相关的交互的手势操作,以确定对有屏设备的当前显示界面进行控制的光标手势操作;检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面不相关的交互的手势操作,以确定对有屏设备进行控制的非光标手势操作。
在一些实施例中,上述方法还包括:基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上。
在一些实施例中,上述基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上,包括:在有屏设备的显示屏上呈现表征手势操作的操作对象的位置的标识符。
在一些实施例中,上述方法还包括:响应于检测到手势操作对应的手部位置的变化,移动标识符使标识符的位置跟随手部位置变化。
在一些实施例中,上述基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上,包括:响应于确定手势操作的操作对象为可操控对象,生成提示操作对象为可操控对象的提示信息并与手势操作的操作对象关联地呈现。
第二方面,本申请实施例提供了一种有屏设备的手势控制装置,包括:检测单元,被配置为检测手势操作;生成单元,被配置为响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在一些实施例中,上述检测单元被进一步配置为:检测对有屏设备进行控制的手势操作;上述生成单元进一步被配置为:响应于检测到手势操作是触发对有屏设备执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在一些实施例中,上述检测单元进一步被配置为按照如下方式检测对有屏设备进行控制的手势操作:检测有屏设备的有效手势控制区域内的手势操作。
在一些实施例中,上述检测单元进一步被配置为按照如下方式检测有屏设备的有效手势控制区域内的手势操作:检测有屏设备的有效手势控制区域内的手部动作以及手部动作的持续时间以确定对有屏设备进行控制的静态手势操作;检测有屏设备的有效手势控制区域内的手部位姿的变化,以确定对有屏设备进行控制的动态手势操作。
在一些实施例中,上述检测单元进一步被配置为按照如下方式检测有屏设备的有效手势控制区域内的手势操作:检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面相关的交互的手势操作,以确定对有屏设备的当前显示界面进行控制的光标手势操作;检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面不相关的交互的手势操作,以确定对有屏设备进行控制的非光标手势操作。
在一些实施例中,上述装置还包括:反馈单元,被配置为基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上。
在一些实施例中,上述反馈单元进一步被配置为按照如下方式生成操作反馈信息并呈现在有屏设备的显示屏上:在有屏设备的显示屏上呈现表征手势操作的操作对象的位置的标识符。
在一些实施例中,上述装置还包括:移动单元,被配置为响应于检测到手势操作对应的手部位置的变化,移动标识符使标识符的位置跟随手部位置变化。
在一些实施例中,上述反馈单元进一步被配置为基于手势操作的操作对象的属性,按照如下方式生成操作反馈信息并呈现在有屏设备的显示屏上:响应于确定手势操作的操作对象为可操控对象,生成提示操作对象为可操控对象的提示信息并与手势操作的操作对象关联地呈现。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的手势控制方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的手势控制方法。
本申请上述实施例的手势控制方法和装置,通过检测手势操作,响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令,实现了基于手势的隔空控制,不依赖于附加设备且适用于环境声音较大的场景,提升了控制方式的灵活性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的手势控制方法的一个实施例的流程图;
图3是根据本申请的手势控制方法的另一个实施例的流程图;
图4是图3所示手势控制方法的一个应用场景示意图;
图5是本申请的手势控制装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的有屏设备的手势控制方法或有屏设备的手势控制装置的示例性系统架构。
如图1所示,系统架构100可以包括有屏设备110以及服务器120。有屏设备110可以通过网络与服务器120进行交互,以接收或发送消息等。有屏设备110可以是具有显示屏的电子设备,例如智能电视、智能显示屏、带屏智能音箱等。有屏设备上可以安装有各种人机交互应用,例如浏览器应用、搜索应用、多媒体资源播放应用,等等。
用户130可以使用有屏设备110与服务器120交互,以获取服务器120提供的服务。用户130可以采用多种方式控制有屏设备110向服务器120发起服务请求,例如非接触的手势交互方式、语音交互方式、辅助设备(例如遥控器)交互方式等。
有屏设备110上可以设置有人体动作感知设备111,例如基于可见光或红外光的图像采集设备、基于激光、声波等信息的测距设备或用于三维建模的设备。人体动作感知设备111可以采集人体动作信息,将人体动作信息传输至有屏设备110的处理器或与有屏设备110连接的服务器120进行处理。
服务器120可以是为有屏设备110显示的内容提供内容服务器的服务器,也可以是为有屏设备110提供功能服务的服务器。服务器120可以接收有屏设备110发送的请求,对请求进行解析,根据解析结果生成响应信息,并将生成的响应信息返回给有屏设备110。有屏设备110可以输出响应信息。
需要说明的是,本申请实施例所提供的手势控制方法可以由有屏设备110执行,相应地,手势控制装置可以设置于有屏设备110中。在这些场景中,上述系统架构可以不包含服务器120。
在一些场景中,本申请实施例提供的手势控制方法可以由与有屏设备110通信连接的服务器120执行,相应地,手势控制装置可以设置于与有屏设备110连接的服务器120中。
应该理解,图1中的有屏设备、服务器、用户的数目仅仅是示意性的。根据实现需要,可以具有任意数目的有屏设备、服务器、用户。
继续参考图2,其示出了根据本申请的手势控制方法的一个实施例的流程200。该手势控制方法,包括以下步骤:
步骤201,检测手势操作。
在本实施例中,手势控制方法的执行主体(例如图1所示的有屏设备110)可以对其控制范围内的手势操作进行检测。具体可以基于设置于人体动作感知设备获取的手势感知信息确定手势操作。该人体动作感知设备可以是图像采集设备、激光测距设备、超声波测距设备等,手势感知信息可以是可见光图像、红外图像、三维激光点云等信息。
以图像信息为例,上述执行主体可以获取控制范围内的手势图像,并对手势图像进行手势识别,得到手势操作的检测结果。可选地,所获取的图像中可以包含除手势外的其他信息,例如人脸信息。可以对该图像进行图像分割,分离出包含手势图像信息的部分来进行手势识别,以避免其他人体部位(例如人脸)对手势识别结果造成影响。
上述手势控制方法的控制对象可以是各种电子设备。该手势控制方法的控制对象可以例如是智能电视、平板电脑、头戴式头盔显示器等具有现实屏的有屏设备,也可以是将显示功能集成在其他部件上的可穿戴设备,例如具有显示功能的眼镜。该控制对象可以设置有至少一个摄像头。该至少一个摄像头可以对显示屏前方的一个区域进行成像。当用户在该区域内发起手势操作时,摄像头可以采集手势操作的图像或图像序列,然后可以基于图像或图像序列来识别用户的手势类型。具体可以将手势操作的图像输入已训练的手势识别模型进行手势识别,或者可以将预先设定的各类型手势操作的动作特征作为模板,与从图像中提取出的手势操作的特征进行比对,从而确定手势操作的类型。
需要说明的是,上述摄像头的数量可以为两个以上。两个以上的摄像头可以在与显示屏平行的平面内并排排列。这样,还可以根据不同摄像头所采集到的手势操作的图像对用户的手势进行三维建模,或者辅助单个摄像头采集的图像进行纵深分析,得到手势操作沿与有屏设备的显示屏垂直方向的纵深信息。其中,可以对两个以上的摄像头进行标定,确定两个以上摄像头之间的位置转换参数,以在三维建模时配准两幅以上手势操作的图像。
在本实施例的一些可选的实现方式中,可以按照如下方式检测手势操作:首先基于肤色等特征,采用边缘检测等算法检测手的位置,具体可以根据肤色特征和人体结构特征从图像中提取出手部区域。然后基于采集的视频跟踪手的位置变化,具体可以采用基于肤色的SIFT(Scale-invariant feature transform,尺度不变特征变换)特征提取算法,结合HOG(Histogram of Oriented Gradient,方向梯度直方图),采用Mean Shift(均值偏移)对视频中的图像帧进行手部位置检测和跟踪,得出手部位置变化轨迹。之后检测手部在每一个位置处的关键点位置,例如手指关节的相对位置,并对手势形状进行分类,识别出手势操作。
进一步地,在识别手势操作时,可以将待识别的手势的特征参数与预先存储的手势模板的特征参数进行匹配,通过计算相似度来进行识别。或者可以采用基于统计分析的方法来识别手势,具体可以采用诸如SVM(Support Vector Machine,支持向量机)等方法,统计样本特征向量来确定手势分类器。还可以采用诸如神经网络、深度学习的方法提取手部区域、定位手部关键点位置,并对手势进行分类。在识别动态的手势操作时,还可以结合时序的图像处理、特征提取和分类技术,例如DTW(Dynamic Time Warping,动态时间规整)、CRF(conditional random field algorithm,条件随机场算法)、HMM(Hidden MarkovModel,隐马尔科夫模型)等进行匹配和识别。
在一些实施例中,上述检测手势操作的步骤201可以包括:检测对有屏设备进行控制的手势操作。即手势控制方法可以应用于针对有屏设备的手势控制方法。上述检测对有屏设备进行控制的手势操作的步骤可以包括:检测有屏设备的有效手势控制区域内的手势操作。其中,有效手势控制区域可以是预先设定的有屏设备显示屏前方的一个区域。该有效手势控制区域可以是有屏显示设备的观看区域或设置于有屏设备上的人体动作感知设备的可感知区域,例如可以是有屏显示设备前方一个沿垂直于有屏显示设备的显示屏方向呈辐射状的三维区域。可以是根据有屏设备的显示屏尺寸和/或摄像头的成像范围确定的。
在本实施例的一些可选的实现方式中,上述手势操作可以包括静态手势操作和动态手势操作。其中,静态手势操作可以是手部姿态和位置不发生变化的手势操作,例如握拳状态的手势、双手比心的手势,等等。动态手势操作可以是手部姿态和/或位置发生变化的手势操作,例如单手食指按压动作的手势,挥手、拍掌等手势。
可选地,按照手势操作的物理性质进行分类,上述手势操作可以包括动态手势操作和静态手势操作。
动态手势操作可以是手部姿态发生变化或手部姿态和位置均发生变化的操作,静态手势操作可以是手部姿态不发生变化的操作。
可选地,上述检测对有屏设备进行控制的手势操作的步骤可以包括:检测有屏设备的有效手势控制区域内的手部动作以及手部动作的持续时间以确定对有屏设备进行控制的静态手势操作;检测有屏设备的有效手势控制区域内的手部位姿的变化,以确定对有屏设备进行控制的动态手势操作。
在实践中,可以通过时间连续的图像序列来区分手势操作是静态手势操作或动态手势操作。可以预先设定时间阈值,例如2秒。如果检测到手部位置和姿态不发生变化的持续时间超过该时间阈值,则确定手势操作是静态手势操作。在检测手势操作时,还可以根据每个时刻采集的图像中手势的动作特征与预设手势操作的特征模板进行匹配。
进一步可选地,上述执行主体可以预存手势模板库。该手势模板库包括多个预设静态手势操作和预设动态手势操作。可以对采集的图像序列提取出序列特征,与各预设静态手势操作和预设动态手势操作进行比对,进而识别出手势操作。
可选地,按照手势操作与显示界面的关系进行分类,上述手势操作可以包括与显示界面相关的光标手势操作和与显示界面无关的非光标手势操作。其中,光标手势操作中手部位置移动、手部姿态可以不变,手势操作的所针对的显示界面上的光标随之发生变化的操作。非光标手势操作中显示界面上不呈现光标,或者显示界面上的光标不随手部位置变化而移动。
可选地,上述检测对有屏设备进行控制的手势操作的步骤可以包括:检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面相关的交互的手势操作,以确定对有屏设备的当前显示界面进行控制的光标手势操作;检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面不相关的交互的手势操作,以确定对有屏设备进行控制的非光标手势操作。在这里,与当前显示界面相关的交互可以包括对当前显示界面的元素、当前显示界面的位置执行的操作,与当前显示界面不相关的交互可以是操作对象不是当前显示界面中的元素和当前显示界面的交互操作。
具体来说,可以预存光标手势模板库和非光标手势模板库,在检测时将检测到的手势操作分别与光标手势模板库和非光标手势模板库中的手势模板进行匹配,根据匹配结果确定检测到的手势操作是否与当前显示界面相关,进而确定手势操作的类型。
步骤202,响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在本实施例中,若识别出步骤201检测到的手势操作与触发执行目标操作的预设手势操作,则可以生成相应的操作指令。
可以预先设置并保存不同的预设手势与触发的操作之间的关联或对应关系,例如可以以对应关系表的方式关联二者。在识别出当前检测到的手势操作与预设手势操作一致时,可以根据上述对应关系,例如上述对应关系表查找出预设手势所触发的操作作为目标操作,而后可以生成指示执行该目标操作的指令。这样,通过检测并识别手势操作,可以触发生成相应的操作指令。
本申请上述实施例的应用场景可以为,用户在接收手势控制的控制对象(例如智能电视、头戴式头盔、具有显示功能的眼镜等)提供的内容服务时,可以通过发起手势操作来进行显示控制。具体地,用户发起手势操作,上述控制对象的图像采集装置等设备可以采集用户的手势图像,然后进行手势识别,根据识别结果生成该手势操作触发的操作指令。
举例来说,动态手势操作可以应用于需要高频快速操作的场景以及需要与有屏设备进行连续性互动的操作场景。例如用户可以通过一个特定的手势做出沿某一方向运动的运动轨迹来实现播放多媒体内容的音量、亮度、播放进度的调节。
静态手势操作可以应用于无需高频互动的场景中。例如用户可以通过另一个特定手势持续一段时间来执行开机、关机、返回上一级、返回主页等操作控制。
光标手势操作可以应用于与显示界面交互性较强的场景中。例如用户在寻找希望查看的内容时,可以移动手部来使用于指示手势操作位置的光标移动至希望查看的内容图标上。
非光标手势操作可以应用于全局的控制,例如用户可以执行特定的非光标手势操作来实现开机、关机的操作控制。
本申请上述实施例的手势控制方法,通过检测对有屏设备进行控制的手势操作,响应于检测到手势操作是触发对有屏设备执行目标操作的预设手势操作,生成用于指示执行目标操作的指令,实现了基于手势对有屏设备的隔空控制,不依赖于附加设备且适用于环境声音较大的场景,提升了有屏设备控制方式的灵活性和操作效率。
此外,对于非明确目标的控制场景(例如调节音量、亮度、播放进度的场景)中,由于手部操作的连续性较好,较基于语音等的高频交互更容易实现,本实施例的有屏设备的手势控制方法能够进一步提升操作效率。
继续参考图3,其示出了根据本申请的手势控制方法的另一个实施例的流程图。如图3所示,本实施例的手势控制方法的流程300,包括以下步骤:
步骤301,检测对有屏设备进行控制的手势操作。
在本实施例中,有屏设备的手势控制方法的执行主体(例如图1所示的有屏设备110)可以对其控制范围内的手势操作进行检测。具体可以基于设置于有屏设备上的人体动作感知设备获取的手势感知信息确定手势操作。该人体动作感知设备可以是图像采集设备、激光测距设备、超声波测距设备等,手势感知信息可以是可见光图像、红外图像、三维激光点云等信息。
以图像信息为例,上述执行主体可以获取控制范围内的手势图像,并对手势图像进行手势识别,得到手势操作的检测结果。上述有屏设备可以设置有至少一个摄像头。该至少一个摄像头可以对有屏设备的显示屏前方的一个区域进行成像。当用户在该区域内发起手势操作时,摄像头可以采集手势操作的图像或图像序列,然后可以基于图像或图像序列来识别用户的手势类型。具体可以将手势操作的图像输入已训练的手势识别模型进行手势识别,或者可以将预先设定的各类型手势操作的动作特征作为模板,与从图像中提取出的手势操作的特征进行比对,从而确定手势操作的类型。
在一些实施例中,上述检测对有屏设备进行控制的手势操作的步骤301可以包括:检测有屏设备的有效手势控制区域内的手势操作。其中,有效手势控制区域可以是预先设定的有屏设备显示屏前方的一个区域。该有效手势控制区域可以是有屏显示设备的观看区域或设置于有屏设备上的人体动作感知设备的可感知区域,
在本实施例的一些可选的实现方式中,上述手势操作可以包括静态手势操作和动态手势操作。可选地,上述检测对有屏设备进行控制的手势操作的步骤301可以包括:检测有屏设备的有效手势控制区域内的手部动作以及手部动作的持续时间以确定对有屏设备进行控制的静态手势操作;以及检测有屏设备的有效手势控制区域内的手部位姿的变化,以确定对有屏设备进行控制的动态手势操作。
步骤302,响应于检测到手势操作是触发对有屏设备执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在本实施例中,若识别出步骤201检测到的手势操作与触发对有屏设备执行目标操作的预设手势操作,则可以生成相应的操作指令。
可以预先设置并保存不同的预设手势与触发的操作之间的关联或对应关系,例如可以以对应关系表的方式关联二者。在识别出当前检测到的手势操作与预设手势操作一致时,可以根据上述对应关系,例如上述对应关系表查找出预设手势所触发的操作作为目标操作,而后可以生成指示执行该目标操作的指令。
步骤303,基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上。
上述执行主体可以根据手势操作确定操作对象,并获取操作对象的属性。在这里,操作对象可以是有屏设备上的可视或非可视的对象。作为示例,操作对象可以是有屏设备上的图标、虚拟按键、预设操作区域、有屏设备的整个显示界面、有屏设备的功能项(例如音量、画面尺寸、亮度)、等等。操作对象的属性可以包括操作对象的名称、在显示屏上的位置、当前状态,等等。
在一些可选的实现方式中,可以根据手势操作的识别结果来确定手势操作的操作对象,例如当手势操作是触发音量调节的预设手势操作时,可以确定手势操作的操作对象是有屏设备的音量功能项。又例如当手势操作是触发有屏设备返回主页面的预设手势操作时,可以确定手势操作的操作对象是有屏设备的整个显示界面。
在另一些可选的实现方式中,可以根据手势操作对应的手部位置在有屏设备显示屏上的投影确定手势操作的操作对象。例如,用户做出“伸出食指、其他四指”的起始手势时,可以将用户手部位置投影至有屏设备显示屏上的一个初始位置点,该初始位置点可以是显示屏上的任意一个点。然后当用户移动手部至需要点击的图标时,发起“食指点击”的手势操作,这时,可以根据用户手部在起始手势与“食指点击”的手势操作之间移动的距离确定显示屏上的投影距离,然后将初始位置点移动距离后得到的位置点的图标确定为“食指点击”的手势操作的操作对象。
在确定手势操作的操作对象之后,可以生成用于反馈用户的手势操作的操作反馈信息。该操作反馈信息可以是文本提示、图标标识符、浮动窗口等形式的操作反馈信息。该操作反馈信息也可以是将操作对象的呈现特征修改后得到的,例如可以更改图标的呈现方式,将手势操作所操作的图标更改为与未操作状态下不同的颜色来生成操作反馈信息。之后可以在有屏设备的显示屏上呈现该操作反馈信息。
在本实施例的一些可选的实现方式中,可以按照如下方式生成操作反馈信息并呈现在有屏设备的显示屏上:在有屏设备的显示屏上呈现表征手势操作的操作对象的位置的标识符。
具体来说,可以将手势操作的手部位置投影至有屏设备的显示屏上,并在投影得到的位置处呈现位置标识符。该位置标识符可例如为箭头光标或手形光标、圆点、边框等。这样,用户可以通过该位置标识符获知手势操作的操作对象是否为预期的对象,然后判断是否需要调整手部位置或手势,从而更准确地进行手势控制。
进一步可选地,上述有屏设备的手势控制方法还可以包括:响应于检测到手势操作对应的手部位置的变化,移动标识符使标识符的位置跟随手部位置变化。上述执行主体可以实时地检测手部位置的变化,相应地在不同时刻生成位置不同的标识符并呈现在有屏设备的显示屏上,以使得用于表征手势操作的操作对象的位置的标识符随用户手部位置的变化而变化。这样,可以连续提供操作位置的反馈信息,使得用户更清楚手部位置的调节方向,更快捷地完成手部位置调整来实现精准控制。
请参考图4,其示出了图3所示手势控制方法的一个应用场景示意图。如图4所示,有屏设备可以检测手势操作,并根据手势操作的识别结果生成响应的操控指令。然后,还可以根据手势操作的操作对象在显示屏上的位置,生成并呈现表征该位置的位置标识符(如图4所示显示屏上的圆点)。该位置标识符可以随用户的手部移动。这样,用户可以直观地看到手势操作的操作对象。
本实施例的手势控制方法,通过增加的基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上的步骤303,能够及时向用户反馈操作对象的相关信息,以供用户判断操作对象及发起手势操作后有屏设备的响应是否符合预期。此外用户还可以根据操作反馈信息的引导调节手势或手部位置,从而提升操控效率。
在一些实施例中,上述基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上的步骤303,可以包括:响应于确定手势操作的操作对象为可操控对象,生成提示操作对象为可操控对象的提示信息并与手势操作的操作对象关联地呈现。
可操控对象是指可通过手势控制来进行操控的操作对象。有屏设备上的操作对象可以预先配置有是否可操控的属性信息。如果确定手势操作的操作对象是可操控对象,可以生成提示信息对用户进行提示,以引导用户对当前的操作对象进行控制。并且,上述提示信息可以与手势操作的操作对象关联地呈现,例如该提示信息可以在可视化操作对象(例如图标)的预定位置呈现,或者提示信息中可以包含操作对象的标识,例如提示信息为“即将在XX视频中播放《阿甘正传》”,其中“XX视频”是用户手势操作针对的视频播放应用的标识。该提示信息可以是文本提示信息,例如在选择播放内容的界面,操作对象是某一播放内容的播放图标,可以生成“点击以播放视频”的文本提示信息。该提示信息也可以是符号提示符,例如当操作对象是音量调节功能项时,可以生成箭头提示符,用于提示用户沿箭头方向移动手部可调节音量。
通过对可操控对象进行提示,可以在手势控制场景中增强互动性,进而帮助用户执行操控决策,有助于进一步提升操控效率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种手势控制装置的一个实施例,该装置实施例与图2和图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的有屏设备的手势控制装置500包括检测单元501和生成单元502。其中,检测单元501被配置为检测手势操作;生成单元502被配置为响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在一些实施例中,上述检测单元501可以被进一步配置为:检测对有屏设备进行控制的手势操作;上述生成单元502可以进一步被配置为:响应于检测到手势操作是触发对有屏设备执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
在一些实施例中,上述检测单元501可以进一步被配置为按照如下方式检测对有屏设备进行控制的手势操作:检测有屏设备的有效手势控制区域内的手势操作。
在一些实施例中,上述检测单元501可以进一步被配置为按照如下方式检测有屏设备的有效手势控制区域内的手势操作:检测有屏设备的有效手势控制区域内的手部动作以及手部动作的持续时间以确定对有屏设备进行控制的静态手势操作;检测有屏设备的有效手势控制区域内的手部位姿的变化,以确定对有屏设备进行控制的动态手势操作。
在一些实施例中,上述检测单元501可以进一步被配置为按照如下方式检测有屏设备的有效手势控制区域内的手势操作:检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面相关的交互的手势操作,以确定对有屏设备的当前显示界面进行控制的光标手势操作;检测有屏设备的有效手势控制区域内的用于指示执行与当前显示界面不相关的交互的手势操作,以确定对有屏设备进行控制的非光标手势操作。
在一些实施例中,上述装置500还可以包括:反馈单元,被配置为基于手势操作的操作对象的属性,生成操作反馈信息并呈现在有屏设备的显示屏上。
在一些实施例中,上述反馈单元可以进一步被配置为按照如下方式生成操作反馈信息并呈现在有屏设备的显示屏上:在有屏设备的显示屏上呈现表征手势操作的操作对象的位置的标识符。
在一些实施例中,上述装置还可以包括:移动单元,被配置为响应于检测到手势操作对应的手部位置的变化,移动标识符使标识符的位置跟随手部位置变化。
在一些实施例中,上述反馈单元可以进一步被配置为基于手势操作的操作对象的属性,按照如下方式生成操作反馈信息并呈现在有屏设备的显示屏上:响应于确定手势操作的操作对象为可操控对象,生成提示操作对象为可操控对象的提示信息并与手势操作的操作对象关联地呈现。
应当理解,装置500中记载的诸单元与参考图2和图3描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
本申请上述实施例的手势控制装置500,通过检测手势操作,响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令,实现了基于手势的隔空控制,不依赖于附加设备且适用于环境声音较大的场景,提升了控制方式的灵活性。
本申请实施例还提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述实施例的手势控制方法。可选地,该电子设备还可以包括显示装置,例如电子显示屏。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括检测单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,检测单元还可以被描述为“检测手势操作的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:检测手势操作,响应于检测到手势操作是触发执行目标操作的预设手势操作,生成用于指示执行目标操作的指令。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (15)
1.一种手势控制方法,包括:
检测手势操作;
响应于检测到所述手势操作是触发执行目标操作的预设手势操作,生成用于指示执行所述目标操作的指令。
2.根据权利要求1所述的方法,其中,
所述检测手势操作,包括:
检测对有屏设备进行控制的手势操作;
所述响应于检测到所述手势操作是触发执行目标操作的预设手势操作,生成用于指示执行所述目标操作的指令,包括:
响应于检测到所述手势操作是触发对所述有屏设备执行目标操作的预设手势操作,生成用于指示执行所述目标操作的指令。
3.根据权利要求2所述的方法,其中,所述检测对有屏设备进行控制的手势操作,包括:
检测所述有屏设备的有效手势控制区域内的手势操作。
4.根据权利要求3所述的方法,其中,所述检测所述有屏设备的有效手势控制区域内的手势操作,包括:
检测所述有屏设备的有效手势控制区域内的手部动作以及所述手部动作的持续时间以确定对所述有屏设备进行控制的静态手势操作;
检测所述有屏设备的有效手势控制区域内的手部位姿的变化,以确定对所述有屏设备进行控制的动态手势操作。
5.根据权利要求3所述的方法,其中,所述检测所述有屏设备的有效手势控制区域内的手势操作,包括:
检测所述有屏设备的有效手势控制区域内的用于指示执行与当前显示界面相关的交互的手势操作,以确定对所述有屏设备的当前显示界面进行控制的光标手势操作;
检测所述有屏设备的有效手势控制区域内的用于指示执行与当前显示界面不相关的交互的手势操作,以确定对所述有屏设备进行控制的非光标手势操作。
6.根据权利要求2所述的方法,其中,所述方法还包括:
基于所述手势操作的操作对象的属性,生成操作反馈信息并呈现在所述有屏设备的显示屏上。
7.根据权利要求6所述的方法,其中,所述基于所述手势操作的操作对象的属性,生成操作反馈信息并呈现在所述有屏设备的显示屏上,包括:
在所述有屏设备的显示屏上呈现表征所述手势操作的操作对象的位置的标识符。
8.根据权利要求7所述的方法,其中,所述方法还包括:
响应于检测到所述手势操作对应的手部位置的变化,移动所述标识符使所述标识符的位置跟随所述手部位置变化。
9.根据权利要求6-8任一项所述的方法,其中,所述基于所述手势操作的操作对象的属性,生成操作反馈信息并呈现在所述有屏设备的显示屏上,包括:
响应于确定所述手势操作的操作对象为可操控对象,生成提示所述操作对象为可操控对象的提示信息并与所述手势操作的操作对象关联地呈现。
10.一种手势控制装置,包括:
检测单元,被配置为检测手势操作;
生成单元,被配置为响应于检测到所述手势操作是触发执行目标操作的预设手势操作,生成用于指示执行所述目标操作的指令。
11.根据权利要求9所述的装置,其中,
所述检测单元被进一步配置为:
检测对有屏设备进行控制的手势操作;
所述生成单元进一步被配置为:
响应于检测到所述手势操作是触发对所述有屏设备执行目标操作的预设手势操作,生成用于指示执行所述目标操作的指令。
12.根据权利要求10所述的装置,其中,所述检测单元进一步被配置为按照如下方式检测对有屏设备进行控制的手势操作:
检测所述有屏设备的有效手势控制区域内的手势操作。
13.根据权利要求10所述的装置,其中,所述装置还包括:
反馈单元,被配置为基于所述手势操作的操作对象的属性,生成操作反馈信息并呈现在所述有屏设备的显示屏上。
14.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
15.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811640759.0A CN109725723A (zh) | 2018-12-29 | 2018-12-29 | 手势控制方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811640759.0A CN109725723A (zh) | 2018-12-29 | 2018-12-29 | 手势控制方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109725723A true CN109725723A (zh) | 2019-05-07 |
Family
ID=66299311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811640759.0A Pending CN109725723A (zh) | 2018-12-29 | 2018-12-29 | 手势控制方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109725723A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110058688A (zh) * | 2019-05-31 | 2019-07-26 | 安庆师范大学 | 一种投影用动态手势翻页的系统及其方法 |
CN110611788A (zh) * | 2019-09-26 | 2019-12-24 | 上海赛连信息科技有限公司 | 手势控制视频会议终端的方法和装置 |
CN112462936A (zh) * | 2020-11-12 | 2021-03-09 | 深圳市易平方网络科技有限公司 | 基于触控电视的手势操作处理方法、装置、终端及介质 |
CN112486317A (zh) * | 2020-11-26 | 2021-03-12 | 湖北鼎森智能科技有限公司 | 基于手势的数字阅读方法及系统 |
CN112835506A (zh) * | 2021-02-08 | 2021-05-25 | 海信视像科技股份有限公司 | 一种显示设备及其控制方法 |
CN113534944A (zh) * | 2020-04-13 | 2021-10-22 | 百度在线网络技术(北京)有限公司 | 服务反馈方法、装置、电子设备和存储介质 |
DE102023204274B3 (de) | 2023-05-09 | 2024-10-31 | Volkswagen Aktiengesellschaft | Verfahren, System und Computerprogramm zur augmentierten Bedienung eines Fahrzeugsystems eines Kraftfahrzeugs |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103501446A (zh) * | 2013-10-12 | 2014-01-08 | 青岛旲天下智能科技有限公司 | 基于手势人机交互技术的互联网电视系统及其实现方法 |
CN108459702A (zh) * | 2017-02-22 | 2018-08-28 | 天津锋时互动科技有限公司深圳分公司 | 基于手势识别与视觉反馈的人机交互方法与系统 |
CN108536273A (zh) * | 2017-03-01 | 2018-09-14 | 天津锋时互动科技有限公司深圳分公司 | 基于手势的人机菜单交互方法与系统 |
-
2018
- 2018-12-29 CN CN201811640759.0A patent/CN109725723A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103501446A (zh) * | 2013-10-12 | 2014-01-08 | 青岛旲天下智能科技有限公司 | 基于手势人机交互技术的互联网电视系统及其实现方法 |
CN108459702A (zh) * | 2017-02-22 | 2018-08-28 | 天津锋时互动科技有限公司深圳分公司 | 基于手势识别与视觉反馈的人机交互方法与系统 |
CN108536273A (zh) * | 2017-03-01 | 2018-09-14 | 天津锋时互动科技有限公司深圳分公司 | 基于手势的人机菜单交互方法与系统 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110058688A (zh) * | 2019-05-31 | 2019-07-26 | 安庆师范大学 | 一种投影用动态手势翻页的系统及其方法 |
CN110611788A (zh) * | 2019-09-26 | 2019-12-24 | 上海赛连信息科技有限公司 | 手势控制视频会议终端的方法和装置 |
CN113534944A (zh) * | 2020-04-13 | 2021-10-22 | 百度在线网络技术(北京)有限公司 | 服务反馈方法、装置、电子设备和存储介质 |
CN112462936A (zh) * | 2020-11-12 | 2021-03-09 | 深圳市易平方网络科技有限公司 | 基于触控电视的手势操作处理方法、装置、终端及介质 |
CN112486317A (zh) * | 2020-11-26 | 2021-03-12 | 湖北鼎森智能科技有限公司 | 基于手势的数字阅读方法及系统 |
CN112486317B (zh) * | 2020-11-26 | 2022-08-09 | 湖北鼎森智能科技有限公司 | 基于手势的数字阅读方法及系统 |
CN112835506A (zh) * | 2021-02-08 | 2021-05-25 | 海信视像科技股份有限公司 | 一种显示设备及其控制方法 |
DE102023204274B3 (de) | 2023-05-09 | 2024-10-31 | Volkswagen Aktiengesellschaft | Verfahren, System und Computerprogramm zur augmentierten Bedienung eines Fahrzeugsystems eines Kraftfahrzeugs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109725723A (zh) | 手势控制方法和装置 | |
US12099658B2 (en) | Systems and methods for extensions to alternative control of touch-based devices | |
EP2877254B1 (en) | Method and apparatus for controlling augmented reality | |
US9207771B2 (en) | Gesture based user interface | |
US20170293364A1 (en) | Gesture-based control system | |
CN108525305B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
US10671841B2 (en) | Attribute state classification | |
US20140003674A1 (en) | Skin-Based User Recognition | |
CN109725724A (zh) | 有屏设备的手势控制方法和装置 | |
US8913037B1 (en) | Gesture recognition from depth and distortion analysis | |
US9703371B1 (en) | Obtaining input from a virtual user interface | |
CN109725727A (zh) | 有屏设备的手势控制方法和装置 | |
JP2004246578A (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US20160357263A1 (en) | Hand-gesture-based interface utilizing augmented reality | |
TW202109246A (zh) | 互動方法、裝置、設備以及記錄媒體 | |
US20150123901A1 (en) | Gesture disambiguation using orientation information | |
US20150199017A1 (en) | Coordinated speech and gesture input | |
JP2018081630A (ja) | 検索装置、検索方法およびプログラム | |
Alcoverro et al. | Gesture control interface for immersive panoramic displays | |
Ueng et al. | Vision based multi-user human computer interaction | |
CN109725722A (zh) | 有屏设备的手势控制方法和装置 | |
CN109753154B (zh) | 有屏设备的手势控制方法和装置 | |
CN113762048A (zh) | 一种产品安装引导方法、装置、电子设备和存储介质 | |
US20190339864A1 (en) | Information processing system, information processing method, and program | |
KR20220111716A (ko) | 디바이스 로컬리제이션을 위한 디바이스 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210508 Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. Applicant after: Shanghai Xiaodu Technology Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190507 |
|
RJ01 | Rejection of invention patent application after publication |