CN115220566A - 姿态识别方法、装置、设备、介质和计算机程序产品 - Google Patents
姿态识别方法、装置、设备、介质和计算机程序产品 Download PDFInfo
- Publication number
- CN115220566A CN115220566A CN202110417369.2A CN202110417369A CN115220566A CN 115220566 A CN115220566 A CN 115220566A CN 202110417369 A CN202110417369 A CN 202110417369A CN 115220566 A CN115220566 A CN 115220566A
- Authority
- CN
- China
- Prior art keywords
- arm
- target
- image
- determining
- preset range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种姿态识别方法、装置、设备、介质和计算机程序产品。该方法应用于可穿戴智能设备,可穿戴智能设备上设置有摄像头,该方法包括:获取摄像头拍摄的图像中的目标对象,其中,目标对象包括至少部分手臂;确定至少部分手臂的目标端与图像相交的目标边,其中,目标端指远离手的一端;在目标边处于图像的第一预设范围内的情况下,确定至少部分手臂属于目标用户;识别目标对象对应的姿态。该方法能够避免非目标客户误触发可穿戴智能设备功能。
Description
技术领域
本公开涉及姿态识别技术领域,尤其涉及一种姿态识别方法、装置、设备、介质和计算机程序产品。
背景技术
增强现实(Augmented Reality,AR)技术是一种将虚拟信息叠加到真实世界的技术,虚拟现实(Virtual Reality,VR)技术是一种基于计算机模拟虚拟环境而给人以环境沉浸感的技术。AR/VR技术的实现需要依赖智能眼镜,使用者佩戴智能眼镜后,通过智能眼镜可以看见叠加了虚拟信息的真实世界,或者虚拟环境。此外,智能眼镜可以识别使用者的手势动作,从而实现人机交互。
智能眼镜与智能眼镜类似的其他可穿戴智能设备上的摄像头能够获取用户的手势,通过识别手势动作触发相应的功能,但是当摄像头的视野内获取到的手臂不是可穿戴智能设备佩戴者的手臂,同样也会触发相应的功能,导致可穿戴智能设备功能的误触发。
发明内容
本发明实施例提供了一种姿态识别方法、装置、设备、介质和计算机程序产品,能够解决可穿戴智能设备功能误触发的问题。
第一方面,本发明实施例提供了一种姿态识别方法,应用于可穿戴智能设备,所述可穿戴智能设备上设置有摄像头,所述方法包括:
获取所述摄像头拍摄的图像中的目标对象,其中,所述目标对象包括至少部分手臂;
确定所述至少部分手臂的目标端与所述图像相交的目标边,其中,所述目标端指远离手的一端;
在所述目标边处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂属于所述目标用户;
识别所述目标对象对应的姿态。
可选的,所述确定所述至少部分手臂的目标端与所述图像相交的目标边之前,还包括:
确定所述至少部分手臂的目标端。
可选的,所述确定所述至少部分手臂的目标端包括:
若所述至少部分手臂包括至少部分手,则确定远离所述至少部分手的一端为所述至少部分手臂的目标端,其中,手包括:手指、手掌和手腕。
可选的,所述确定所述至少部分手臂的目标端包括:
若所述至少部分手臂不包括至少部分手,则获取所述至少部分手臂的关键点,根据所述关键点估计所述至少部分手臂的目标端,其中,手包括:手指、手掌和手腕。
可选的,所述获取所述至少部分手臂的关键点,根据所述关键点估计所述至少部分手臂的目标端,包括:
获取所述至少部分手臂的关键点,根据所述至少部分手臂的关键点生成所述至少部分手臂的轮廓;
根据所述至少部分手臂的轮廓,确定所述至少部分手臂中较粗的一端为目标端。
可选的,所述第一预设范围位于所述图像的下半部分。
可选的,所述第一预设范围为所述图像的下半部分的边缘,且所述第一预设范围的两端与所述图像的中心点连线与竖直方向的夹角均为θ。
可选的,所述方法还包括:在所述目标边未处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂不属于所述目标用户。
可选的,所述确定所述至少部分手臂的目标端与所述图像相交的目标边之前,还包括:
获取所述至少部分手臂在所述图像中的深度信息;
确定所述深度信息处于第二预设范围内。
可选的,所述获取所述至少部分手臂在所述图像中的深度信息之前,还包括:
根据所述目标用户的生理特征确定所述第二预设范围。
第二方面,本发明实施例提供了一种姿态识别装置,应用于可穿戴智能设备,所述可穿戴智能设备上设置有摄像头,,所述装置包括:
获取模块,用于获取所述摄像头拍摄的图像中的目标对象,其中,所述目标对象包括至少部分手臂;
确定模块,用于确定所述至少部分手臂的目标端与所述图像相交的目标边,其中,所述目标端指远离手的一端;还用于在所述目标边处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂属于所述目标用户;
识别模块,用于识别所述目标对象对应的姿态。
可选的,所述确定模块还用于确定所述至少部分手臂的目标端。
可选的,所述确定模块还用于若所述至少部分手臂包括至少部分手,则确定远离所述至少部分手的一端为所述至少部分手臂的目标端,其中,所述手包括:手指、手掌和手腕。
可选的,所述确定模块还用于若所述至少部分手臂不包括至少部分手,则获取所述至少部分手臂的关键点,根据所述关键点估计所述至少部分手臂的目标端,其中,所述手包括:手指、手掌和手腕。
可选的,所述确定模块进一步用于获取所述至少部分手臂的关键点,根据所述至少部分手臂的关键点生成所述至少部分手臂的轮廓;根据所述至少部分手臂的轮廓,确定所述至少部分手臂中较粗的一端为目标端。
可选的,所述第一预设范围位于所述图像的下半部分。
可选的,所述第一预设范围为所述图像的下半部分的至少部分边缘,且所述第一预设范围的端点与所述图像的中心点连线与竖直方向的夹角均为θ。
可选的,所述确定模块还用于在所述目标边未处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂不属于所述目标用户。
可选的,获取模块用于获取所述至少部分手臂在所述图像中的深度信息;
确定模块,用于确定所述深度信息处于第二预设范围内。
可选的,确定模块还用于根据所述目标用户的生理特征确定所述第二预设范围。
第三方面,本发明实施例提供了一种电子设备,包括:处理器,所述处理器用于执行存储于存储器的计算机程序,所述处理器执行所述计算机程序时实现第一方面提供的任一种姿态识别方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面提供的任一种姿态识别方法。
第五方面,本发明实施例提供了一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面提供的任一种姿态识别方法。
本发明实施例提供的技术方案中,通过获取摄像头拍摄的图像中的目标对象,其中,目标对象包括至少部分手臂;确定至少部分手臂的目标端与图像相交的目标边,其中,目标端指远离手的一端;在目标边处于图像的第一预设范围内的情况下,确定至少部分手臂属于目标用户;识别目标对象对应的姿态,能够确定图像中的手臂是否属于目标用户,即能够对图像内的手臂所属的客户进行身份确认,从而能够避免非目标客户误触发可穿戴智能设备功能。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种姿态识别方法的流程示意图;
图2为本发明实施例提供的一种图像的示意图;
图3为本发明实施例提供的另一种图像的示意图;
图4为本发明实施例提供的又一种图像的示意图;
图5为本发明实施例提供的又一种图像的示意图;
图6为本发明实施例提供的另一种姿态识别方法的流程示意图;
图7为本发明实施例提供的又一种姿态识别方法的流程示意图;
图8为本发明实施例提供的又一种图像的示意图;
图9为本发明实施例提供的又一种姿态识别方法的流程示意图;
图10为本发明实施例提供的又一种图像的示意图;
图11为本发明实施例提供的又一种姿态识别方法的流程示意图;
图12为本发明实施例提供的一种姿态识别装置的结构示意图;
图13为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
本公开的可穿戴智能设备可以是智能眼镜或者其他具有摄像头的智能设备,其中,智能眼镜例如可以是AR眼镜,也可以是VR眼镜,目标用户是指可穿戴智能设备的携带者,目标用户将可穿戴智能设备佩戴于肩部以上,例如可以是携带于头部、颈部等。
本公开的可穿戴智能设备可以包括显示屏,目标用户使用时显示屏正对目标用户的眼睛,目标用户可以通过可穿戴智能设备,看见叠加了虚拟信息的真实世界,也可以通过可穿戴智能设备,看见通过计算机模拟的虚拟世界。
本公开的可穿戴智能设备上设置有摄像头,当有手臂出现在摄像头的视野内,即摄像头的图像中,确定图像内的手臂是否属于目标客户,确定该手臂属于目标客户则继续识别手臂对应的姿态,能够对图像中的手臂所属的客户进行身份确认,避免非目标客户误触发可穿戴智能设备功能。
下面以几个具体的实施例以智能眼镜为例对本公开的技术方案进行描述,与智能眼镜类似的其他可穿戴设备的实现方式与本公开描述的技术方案相似,本公开不做赘述。
图1为本发明实施例提供的一种姿态识别方法的流程示意图,如图1所示,该方法包括:
S101,获取所述摄像头拍摄的图像中的目标对象。
其中,目标对象包括至少部分手臂。
目标用户佩戴可穿戴智能设备后,开启可穿戴智能设备,可穿戴智能设备上的摄像头开始拍摄,当有至少部分手臂进入摄像头的视野中时,即摄像头拍摄的图像中出现至少部分手臂时,获取图像中的至少部分手臂,将获取到的至少部分手臂作为目标对象。这里的至少部分手臂可以包括手指、手掌、手腕、前臂和至少部分上臂,也可以包括前臂和至少部分上臂。
S103,确定所述至少部分手臂的目标端与所述图像相交的目标边。
其中,所述目标端指远离手的一端。
目标用户与非目标用户与摄像头的相对位置不同,非目标用户的手臂与目标用户的手臂出现于图像时,图像中的手臂向肩部的延伸方向并不相同,据此,可以确定图像中的至少部分手臂是否属于目标客户。图像110中的目标对象120远离手的一端为目标端,即手臂靠近肩部的一端,若目标端与图像110的边缘相交,如图2所示,将目标端与图像110的边缘重合的区域确定为目标边121。目标边所在的位置反映了手臂向肩部延伸的方向,从而能够确定出至少部分手臂是否属于目标用户。若目标端与图像的边缘不相交,则确定图像中的手臂为非目标用户的手臂。
S105,判断所述目标边是否处于所述图像的第一预设范围内。
若是,执行S1061,若否执行S1062。
图像的中点所在的水平线即为图像的中轴线,中轴线以下的图像为图像的下半部分,中轴线以上的图像为图像的上半部分,第一预设范围位于图像的下半部分,且可以是图像的下半部分中的至少部分边缘。图像10的中轴线S以下的图像为图像的下半部分,第一预设范围111可以为图像的下半部分的所有边缘,如图2所示,第一预设范围111还可以为图像的下半部分的至少部分下边缘,如图3所示,第一预设范围111还可以为图像的下半部分的下边缘和与部分侧边缘,如图4所示,本发明实施例对此不做具体限制。
S1061,确定所述至少部分手臂属于所述目标用户。
目标用户与摄像头的位置相对固定,目标用户的手臂总是从摄像头的后方伸向摄像头的前方,并出现于图像中,故目标边的位置总是位于图像的第一预设范围内。若目标边处于第一预设范围时,如图2-图4所示,可以确定图像中的至少部分手臂属于目标用户。
S1062,确定所述至少部分手臂不属于所述目标用户。
非目标用户的手臂总是位于摄像头的前方,并出现于图像中,故非目标用的手臂的目标边不会处于第一预设范围。若目标边不处于第一预设范围时,如图5所示,可以确定图像中的至少部分手臂属于非目标用户。
S107,识别所述目标对象对应的姿态。
确定目标对象属于目标客户后,提取目标对象对应的姿态的特征,识别姿态特征,并确定姿态特征是否是特定的模型,如果是特定的模型,则对应有相应的指令,该指令能够控制触发可穿戴智能设备的某些功能,如果不是特定的模型,则不会触发可穿戴智能设备功能,从而实现人机交互。
本发明实施例提供的技术方案中,通过获取摄像头拍摄的图像中的目标对象,其中,目标对象包括至少部分手臂;确定至少部分手臂的目标端与图像相交的目标边,其中,目标端指远离手的一端;在目标边处于图像的第一预设范围内的情况下,确定至少部分手臂属于目标用户;识别目标对象对应的姿态,能够确定图像中的手臂是否属于目标用户,即能够对图像内的手臂所属的客户进行身份确认,从而能够避免非目标客户误触发可穿戴智能设备功能。
在上述实施例的基础上,执行S103之前,还包括执行如下步骤:
S102,确定所述至少部分手臂的目标端。
作为S102的实施方式包括但不限于如下可能的实现方式:
其中,一种可能的实现方式,如图6所示,包括:
S102’若至少部分手臂包括至少部分手,则确定远离至少部分手的一端为至少部分手臂的目标端。
其中,手包括:手指、手掌和手腕。
如图2-5所示,目标对象120包括手指、手掌、手腕、前臂和部分上臂,根据手指特征、手掌特征、手指和手掌连接点的特征能够识别出目标对象中的手指、手掌和手腕,由此能够确定出手指、手掌和手腕在至少部分手臂中具体位置,并将至少部分手臂中远离手指、手掌和手腕的一端即为目标端。
另一种可能的实现方式,如图7所示,包括:
S102”若至少部分手臂不包括至少部分手,则获取至少部分手臂的关键点,根据关键点估计所述至少部分手臂的目标端。其中,手包括:手指、手掌和手腕。
如图8所示,目标对象120包括前臂和部分上臂,根据前臂和部分上臂的关键点,例如可以是肘关节,可以是多帧图像中的目标对象的相对固定的点,根据关键点确定上臂远离前臂的一端为目标端。
图9为本发明实施例提供的又一种姿态识别方法的流程示意图,图9是在图7所示实施例的基础上,S102”的一种可能的实现方式的描述,包括:
S1021,获取所述至少部分手臂的关键点,根据所述至少部分手臂的关键点生成所述至少部分手臂的轮廓。
若图像中的目标对象不包括手指、手掌和手腕,仅包括前臂和部分上臂,如图8所示,可以获取图像中的连续多帧的目标对象,根据目标对象的活动范围确定出目标对象中的相对固定的点、活动的支点等关键点,根据这些关键点能够确定前臂和上臂的轮廓,即目标对象的边缘线条。
S1022,根据所述至少部分手臂的轮廓,确定所述至少部分手臂中较粗的一端为目标端。
一般来说用户的上臂比前臂粗,同时目标客户的前臂更靠近摄像头,故图像中至少部分手臂中的上臂比前臂粗。根据上述确定的至少部分手臂的轮廓可以确定出较粗的一端,而该较粗的一端为上臂靠近的肩部的端,即目标端。
本发明实施例中,通过至少部分手臂的轮廓确定出目标端,处理方式简单快捷,计算量小,能够快速对至少部分手臂所述的客户进行身份确认,提升姿态识别的效率,从而提升用户体验。
在上述实施例的基础上,第一预设范围位于图像的下半部分。
可选的,第一预设范围为图像的下半部分的至少部分边缘,且第一预设范围的端点与图像的中心点连线与竖直方向的夹角均为θ。
第一预设范围可以包括图像的下半部分的下边缘,如图3所示,其中,下边缘的端点与图像的中心点的连线与竖直方向的夹角均为θ,即第一预设范围关于竖直方向对称分布。第一预设范围可以包括图像的下半部分的下边缘和部分侧边缘,如图4所示,其中,侧边缘远离下边缘的端点与图像的中心点的连线与竖直方向的夹角均为θ,即第一预设范围关于竖直方向对称分布。第一预设范围还可以包括图像的下半部分的部分下边缘,如图5所示,其中,部分下边缘的端点与图像的中心点的连线与竖直方向的夹角均为θ,即第一预设范围关于竖直方向对称分布。图像可以是如图2-图5所示的多边形画面,还可以是如图10所示的圆形画面,本发明实施例对比不做具体限制。θ的具体数值可以根据实际需求灵活设置,本发明实施例对比也不做具体限制。
图11为本发明实施例提供的又一种姿态识别方法的流程示意图,图11是在图1所示实施例的基础上,执行S102之前还包括:
S202,获取所述至少部分手臂在所述图像中的深度信息。
可以在可穿戴智能设备上设置飞行时间器件,飞行时间器件发射的光束被至少部分手臂反射,并被飞行时间器件接收。根据光束从发射到接收的时间以及光束的传播速度可以计算至少部分手臂与可穿戴智能设备的距离,从而能够获取到图像中至少部分手臂的深度信息。
S203,确定所述深度信息处于第二预设范围内。
目标用户的手臂与摄像头之间的距离受到目标用户臂长的限制,不会超过目标用户的臂长,据此可以设置第二预设范围。若图像中的至少部分手臂的深度信息超过第二预设范围,则当前图像中的至少部分手臂不属于目标用户,若图像中的至少部分手臂的深度信息不超过第二预设范围,则当前图像中的至少部分手臂属于目标用户。
本发明实施例中,能够对图像中的至少部分手臂所属的客户的身份信息进行初步确认,从而能够减小后续处理的计算量,提升确认用户身份的效率,进而提升姿态识别的效率,提升用户体验。
在上述实施例的基础上,执行S202之前,还包括如下内容:
S201,根据所述目标用户的生理特征确定所述第二预设范围。
目标用户使用之前可以输入自己的身高、性别、年龄、臂长等生理特征信息,根据输入的生理特征信息能够确定出与目标用户相关的第二预设范围。例如:目标用户的性别为男性,通常男性的臂长比女性的臂长更长,因此男性用户对应的第二预设范围大于女性用户对应的第二预设范围,再例如:目标用户的身高为180cm,通长身高较高的用户其臂长更长,因此身高180cm的用户对应的第二预设范围大于身高160cm的用户对应的第二预设范围。
目标用户使用之前还可以利用可穿戴智能设备对自身的手臂进行拍摄,并根据可穿戴智能设备的提示信息摆出相应的姿势,可穿戴智能设备对拍摄的目标用户的手臂进行分析,从而产生相应的第二预设范围。
本发明实施例能够针对不同的目标用户产生相应的第二预设范围,使得第二预设范围与目标用户的实际情况更加匹配,以使至少部分手臂所属的客户的身份确认更加准确。
本发明实施例还提供了一种姿态识别装置,图12为本发明实施例提供的一种姿态识别装置的结构示意图,如图12所示,姿态识别装置包括:
获取模块210,用于获取摄像头拍摄的图像中的目标对象。
其中,目标对象包括至少部分手臂。
确定模块220,用于确定至少部分手臂的目标端与图像相交的目标边,其中,目标端指远离手的一端;还用于在目标边处于图像的第一预设范围内的情况下,确定至少部分手臂属于目标用户。
识别模块230,用于识别目标对象对应的姿态。
本实施例的装置对应的可用于执行上述各方法实施例的技术方案,其实现原理类似,此处不再赘述。
本发明实施例提供的技术方案中,通过获取模块获取摄像头拍摄的图像中的目标对象,其中,目标对象包括至少部分手臂;确定模块确定至少部分手臂的目标端与图像相交的目标边,其中,目标端指远离手的一端;确定模块在目标边处于图像的第一预设范围内的情况下,确定至少部分手臂属于目标用户;识别模块识别目标对象对应的姿态,能够确定图像中的手臂是否属于目标用户,即能够对图像内的手臂所属的客户进行身份确认,从而能够避免非目标客户误触发可穿戴智能设备功能。
可选的,确定模块220还用于确定至少部分手臂的目标端。
可选的,确定模块220还用于若至少部分手臂包括至少部分手,则确定远离至少部分手的一端为至少部分手臂的目标端。
其中,手包括:手指、手掌和手腕。
可选的,确定模块220还用于若至少部分手臂不包括至少部分手,则获取至少部分手臂的关键点,根据关键点估计至少部分手臂的目标端。
其中,手包括:手指、手掌和手腕。
可选的,确定模块220进一步用于获取至少部分手臂的关键点,根据至少部分手臂的关键点生成至少部分手臂的轮廓;根据至少部分手臂的轮廓,确定至少部分手臂中较粗的一端为目标端。
可选的,第一预设范围位于图像的下半部分。
可选的,第一预设范围为图像的下半部分的至少部分边缘,且第一预设范围的端点与图像的中心点连线与竖直方向的夹角均为θ。
可选的,确定模块220还用于在目标边未处于图像的第一预设范围内的情况下,确定至少部分手臂不属于目标用户。
可选的,获取模块210用于获取至少部分手臂在图像中的深度信息;
确定模块220用于确定深度信息处于第二预设范围内。
可选的,确定模块220还用于根据目标用户的生理特征确定第二预设范围。
图13为本发明实施例提供的一种电子设备的结构示意图,图示出了适于用来实现本发明实施例实施方式的示例性电子设备的框图。图13显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图13所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器16,系统存储器28,连接不同系统组件(包括系统存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图13未显示,通常称为“硬盘驱动器”)。尽管图13中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM、DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明实施例各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明实施例所描述的实施例中的功能和/或方法。
处理器16通过运行存储在系统存储器28中的多个程序中的至少一个程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的姿态识别方法。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现本发明实施例提供的任一种姿态识别方法。也即,该计算机程序被处理器执行时实现:
获取摄像头拍摄的图像中的目标对象,其中,目标对象包括至少部分手臂。
确定至少部分手臂的目标端与图像相交的目标边,其中,目标端指远离手的一端。
在目标边处于图像的第一预设范围内的情况下,确定至少部分手臂属于目标用户。
识别目标对象对应的姿态。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)域连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例还提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行本发明实施例提供的任一种姿态识别方法。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (14)
1.一种姿态识别方法,其特征在于,应用于可穿戴智能设备,所述可穿戴智能设备上设置有摄像头,所述方法包括:
获取所述摄像头拍摄的图像中的目标对象,其中,所述目标对象包括至少部分手臂;
确定所述至少部分手臂的目标端与所述图像相交的目标边,其中,所述目标端指远离手的一端;
在所述目标边处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂属于所述目标用户;
识别所述目标对象对应的姿态。
2.根据权利要求1所述的方法,其特征在于,所述确定所述至少部分手臂的目标端与所述图像相交的目标边之前,还包括:
确定所述至少部分手臂的目标端。
3.根据权利要求2所述的方法,其特征在于,所述确定所述至少部分手臂的目标端包括:
若所述至少部分手臂包括至少部分手,则确定远离所述至少部分手的一端为所述至少部分手臂的目标端,其中,手包括:手指、手掌和手腕。
4.根据权利要求2所述的方法,其特征在于,所述确定所述至少部分手臂的目标端包括:
若所述至少部分手臂不包括至少部分手,则获取所述至少部分手臂的关键点,根据所述关键点估计所述至少部分手臂的目标端,其中,手包括:手指、手掌和手腕。
5.根据权利要求4所述的方法,其特征在于,所述获取所述至少部分手臂的关键点,根据所述关键点估计所述至少部分手臂的目标端,包括:
获取所述至少部分手臂的关键点,根据所述至少部分手臂的关键点生成所述至少部分手臂的轮廓;
根据所述至少部分手臂的轮廓,确定所述至少部分手臂中较粗的一端为目标端。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述第一预设范围位于所述图像的下半部分。
7.根据权利要求6所述的方法,其特征在于,
所述第一预设范围为所述图像的下半部分的至少部分边缘,且所述第一预设范围的端点与所述图像的中心点连线与竖直方向的夹角均为θ。
8.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:在所述目标边未处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂不属于所述目标用户。
9.根据权利要求1-5任一项所述的方法,其特征在于,所述确定所述至少部分手臂的目标端与所述图像相交的目标边之前,还包括:
获取所述至少部分手臂在所述图像中的深度信息;
确定所述深度信息处于第二预设范围内。
10.根据权利要求9所述的方法,其特征在于,所述获取所述至少部分手臂在所述图像中的深度信息之前,还包括:
根据所述目标用户的生理特征确定所述第二预设范围。
11.一种姿态识别装置,其特征在于,应用于可穿戴智能设备,所述可穿戴智能设备上设置有摄像头,所述装置包括:
获取模块,用于获取所述摄像头拍摄的图像中的目标对象,其中,所述目标对象包括至少部分手臂;
确定模块,用于确定所述至少部分手臂的目标端与所述图像相交的目标边,其中,所述目标端指远离手的一端;还用于在所述目标边处于所述图像的第一预设范围内的情况下,确定所述至少部分手臂属于所述目标用户;
识别模块,用于识别所述目标对象对应的姿态。
12.一种电子设备,其特征在于,包括:处理器,所述处理器用于执行存储于存储器的计算机程序,所述处理器执行所述计算机程序时实现权利要求1-10任一项所述的姿态识别方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-10任一项所述的姿态识别方法。
14.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行权利要求1-10任一项所述的姿态识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110417369.2A CN115220566A (zh) | 2021-04-19 | 2021-04-19 | 姿态识别方法、装置、设备、介质和计算机程序产品 |
PCT/CN2022/083799 WO2022222712A1 (zh) | 2021-04-19 | 2022-03-29 | 姿态识别方法、装置、设备、介质和计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110417369.2A CN115220566A (zh) | 2021-04-19 | 2021-04-19 | 姿态识别方法、装置、设备、介质和计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115220566A true CN115220566A (zh) | 2022-10-21 |
Family
ID=83604238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110417369.2A Pending CN115220566A (zh) | 2021-04-19 | 2021-04-19 | 姿态识别方法、装置、设备、介质和计算机程序产品 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115220566A (zh) |
WO (1) | WO2022222712A1 (zh) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101537936B1 (ko) * | 2013-11-08 | 2015-07-21 | 현대자동차주식회사 | 차량 및 그 제어방법 |
CN107273869B (zh) * | 2017-06-29 | 2020-04-24 | 联想(北京)有限公司 | 手势识别控制方法和电子设备 |
-
2021
- 2021-04-19 CN CN202110417369.2A patent/CN115220566A/zh active Pending
-
2022
- 2022-03-29 WO PCT/CN2022/083799 patent/WO2022222712A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022222712A1 (zh) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106845335B (zh) | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 | |
US20180088663A1 (en) | Method and system for gesture-based interactions | |
US8525876B2 (en) | Real-time embedded vision-based human hand detection | |
US20110115892A1 (en) | Real-time embedded visible spectrum light vision-based human finger detection and tracking method | |
KR20200111617A (ko) | 제스처 인식 방법, 장치, 전자 기기 및 저장 매체 | |
US20130249786A1 (en) | Gesture-based control system | |
CN111259751A (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
WO2019214442A1 (zh) | 一种设备控制方法、装置、控制设备及存储介质 | |
CN108671539A (zh) | 目标对象交互方法及装置、电子设备、存储介质 | |
CN107273869B (zh) | 手势识别控制方法和电子设备 | |
CN109725724A (zh) | 有屏设备的手势控制方法和装置 | |
WO2023173668A1 (zh) | 一种虚拟场景中的输入识别方法、设备及存储介质 | |
CN110850982A (zh) | 基于ar的人机交互学习方法、系统、设备及存储介质 | |
KR101541421B1 (ko) | 손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 | |
CN112817447A (zh) | 一种ar内容显示方法及系统 | |
CN115220566A (zh) | 姿态识别方法、装置、设备、介质和计算机程序产品 | |
CN116311526A (zh) | 图像区域确定方法、装置、电子设备及存储介质 | |
CN113963355B (zh) | Ocr文字识别方法、装置、电子设备及存储介质 | |
CN113325950B (zh) | 功能控制方法、装置、设备以及存储介质 | |
CN115471416A (zh) | 目标识别方法、存储介质及设备 | |
CN109725722B (zh) | 有屏设备的手势控制方法和装置 | |
CN114200934A (zh) | 机器人目标跟随控制方法、装置、电子设备和存储介质 | |
CN113961067A (zh) | 基于深度学习的非接触式涂鸦绘制方法与识别交互系统 | |
CN113158912B (zh) | 手势识别方法及装置、存储介质及电子设备 | |
CN113535064B (zh) | 虚拟标签标记方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |