CN111178308A - 一种手势轨迹的识别方法和装置 - Google Patents

一种手势轨迹的识别方法和装置 Download PDF

Info

Publication number
CN111178308A
CN111178308A CN201911424253.0A CN201911424253A CN111178308A CN 111178308 A CN111178308 A CN 111178308A CN 201911424253 A CN201911424253 A CN 201911424253A CN 111178308 A CN111178308 A CN 111178308A
Authority
CN
China
Prior art keywords
length
target
key point
gesture
coordinate sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911424253.0A
Other languages
English (en)
Inventor
赵突
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN201911424253.0A priority Critical patent/CN111178308A/zh
Publication of CN111178308A publication Critical patent/CN111178308A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Abstract

本申请涉及一种手势轨迹的识别方法和装置,其中,该方法包括:通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,第一长度的坐标序列用于指示视频中所展示的手部的手势轨迹,目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,关键点检测样本是标注了手势关键点对应坐标的样本图像;将第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,第二长度的模板坐标序列用于指示目标手势轨迹;在第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在视频中识别出目标手势轨迹。本申请解决了手势轨迹的识别准确度较低的技术问题。

Description

一种手势轨迹的识别方法和装置
技术领域
本申请涉及计算机领域,尤其涉及一种手势轨迹的识别方法和装置。
背景技术
当前的手势识别主要集中在手势类别分类和手势位置检测,这些都是针对静态的手势识别。目前的手势识别方式对手势轨迹的识别效率较低,识别准确度无法达到要求。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本申请提供了一种手势轨迹的识别方法和装置。
根据本申请实施例的一个方面,提供了一种手势轨迹的识别方法,包括:
通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
可选地,通过所述目标关键点检测模型检测视频中的手势关键点的坐标,得到所述第一长度的坐标序列包括:
检测所述视频上的手势区域,其中,所述手势区域是所述视频中所展示的手部所在的区域;
通过所述目标关键点检测模型检测所述手势区域中的手势关键点的坐标,得到所述第一长度的坐标序列。
可选地,所述手势关键点包括多个关键点,其中,通过所述目标关键点检测模型检测视频中的手势关键点的坐标,得到所述第一长度的坐标序列包括:
将所述视频中的多个关键帧输入所述目标关键点检测模型;
获取所述目标关键点检测模型输出的所述多个关键帧中每个关键帧对应的关键点坐标集合,得到具有对应关系的多个关键帧和多个关键点坐标集合,其中,每个关键点坐标集合中包括所述多个关键点在所述每个关键帧上的坐标值,所述多个关键点中每个关键点对应的关键点坐标在所述每个关键点坐标集合中的位置与所述每个关键点在所述视频中所包括的手部上的位置对应;
将所述多个关键点坐标集合按照所述多个关键帧的时间顺序排列得到的关键点坐标集合序列确定为所述第一长度的坐标序列。
可选地,在将所述视频中的多个关键帧输入所述目标关键点检测模型之前,所述方法还包括:
将所述关键点检测样本输入所述初始关键点检测模型,得到所述初始关键点检测模型输出的检测结果;
根据所述检测结果与所述关键点检测样本所标注的多个手势关键点对应坐标确定目标损失函数的值,其中,所述目标损失函数是所述初始关键点检测模型所对应的损失函数;
根据所述目标损失函数的值与目标值之间的关系对所述初始关键点检测模型的模型参数进行调整,直至所述目标损失函数的值与所述目标值之间的关系满足目标条件,得到所述目标关键点检测模型。
可选地,将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配包括:
获取所述第二长度的模板坐标序列;
确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度;
在所述目标相似度高于相似度阈值的情况下,确定所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功。
可选地,在所述第一长度与所述第二长度不同的情况下,确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度包括:
使用所述第二长度的模板坐标序列Q=q1,q2,…,qi,…,qn和所述第一长度的坐标序列C=c1,c2,…,cj,…,cm建立n×m的目标矩阵网格,其中,所述目标矩阵网格的(i,j)处的元素为qi和cj之间的距离;
从所述目标矩阵网格中查找最佳路径,其中,所述最佳路径对应的规整代价最小且所述最佳路径满足所述目标矩阵网格对应的约束条件;
从所述最佳路径中获取所述目标相似度。
可选地,在将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配之前,所述方法还包括:
获取模板视频,其中,所述模板视频是展示了所述目标手势轨迹的视频;
通过所述目标关键点检测模型检测所述模板视频中的手势关键点坐标,得到所述第二长度的模板坐标序列。
根据本申请实施例的另一方面,还提供了一种手势轨迹的识别装置,包括:
第一检测模块,用于通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
匹配模块,用于将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
第一确定模块,用于在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
可选地,所述第一检测模块包括:
第一检测单元,用于检测所述视频上的手势区域,其中,所述手势区域是所述视频中所展示的手部所在的区域;
第二检测单元,用于通过所述目标关键点检测模型检测所述手势区域中的手势关键点的坐标,得到所述第一长度的坐标序列。
可选地,所述手势关键点包括多个关键点,其中,所述第一检测模块包括:
输入单元,用于将所述视频中的多个关键帧输入所述目标关键点检测模型;
第一获取单元,用于获取所述目标关键点检测模型输出的所述多个关键帧中每个关键帧对应的关键点坐标集合,得到具有对应关系的多个关键帧和多个关键点坐标集合,其中,每个关键点坐标集合中包括所述多个关键点在所述每个关键帧上的坐标值,所述多个关键点中每个关键点对应的关键点坐标在所述每个关键点坐标集合中的位置与所述每个关键点在所述视频中所包括的手部上的位置对应;
确定单元,用于将所述多个关键点坐标集合按照所述多个关键帧的时间顺序排列得到的关键点坐标集合序列确定为所述第一长度的坐标序列。
可选地,所述装置还包括:
输入模块,用于在将所述视频中的多个关键帧输入所述目标关键点检测模型之前,将所述关键点检测样本输入所述初始关键点检测模型,得到所述初始关键点检测模型输出的检测结果;
第二确定模块,用于根据所述检测结果与所述关键点检测样本所标注的多个手势关键点对应坐标确定目标损失函数的值,其中,所述目标损失函数是所述初始关键点检测模型所对应的损失函数;
调整模块,用于根据所述目标损失函数的值与目标值之间的关系对所述初始关键点检测模型的模型参数进行调整,直至所述目标损失函数的值与所述目标值之间的关系满足目标条件,得到所述目标关键点检测模型。
可选地,所述匹配模块包括:
第二获取单元,用于获取所述第二长度的模板坐标序列;
第二确定单元,用于确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度;
第三确定单元,用于在所述目标相似度高于相似度阈值的情况下,确定所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功。
可选地,所述第二确定单元用于:
在所述第一长度与所述第二长度不同的情况下,使用所述第二长度的模板坐标序列Q=q1,q2,…,qi,…,qn和所述第一长度的手势关键点坐标序列C=c1,c2,…,cj,…,cm建立n×m的目标矩阵网格,其中,所述目标矩阵网格的(i,j)处的元素为qi和cj之间的距离;
从所述目标矩阵网格中查找最佳路径,其中,所述最佳路径对应的规整代价最小且所述最佳路径满足所述目标矩阵网格对应的约束条件;
从所述最佳路径中获取所述目标相似度。
可选地,所述装置还包括:
获取模块,用于在将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配之前,获取模板视频,其中,所述模板视频是展示了所述目标手势轨迹的视频;
第二检测模块,用于通过所述目标关键点检测模型检测所述模板视频中的手势关键点坐标,得到所述第二长度的模板坐标序列。
根据本申请实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,程序运行时执行上述的方法。
根据本申请实施例的另一方面,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器通过计算机程序执行上述的方法。
在本申请实施例中,采用通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,第一长度的坐标序列用于指示视频中所展示的手部的手势轨迹,目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,关键点检测样本是标注了手势关键点对应坐标的样本图像;将第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,第二长度的模板坐标序列用于指示目标手势轨迹;在第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在视频中识别出目标手势轨迹的方式,通过目标关键点检测模型对手势关键点坐标进行检测,从视频中获取到待识别的手势轨迹即第一长度的坐标序列,再使用待识别的第一长度的坐标序列与目标手势轨迹的第二长度的模板坐标序列进行匹配,如果匹配成功则确定识别出模板目标手势轨迹代表的目标手势,达到了准确识别动态手势轨迹的目的,从而实现了提高手势轨迹的识别准确度的技术效果,进而解决了手势轨迹的识别准确度较低的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请实施例的手势轨迹的识别方法的硬件环境的示意图;
图2是根据本申请实施例的一种可选的手势轨迹的识别方法的流程图;
图3是根据本申请实施例中一种关键点标注的示意图;
图4是根据本申请可选的实施方式的模型训练过程的示意图;
图5是根据本申请可选的实施方式的关键点检测过程的示意图;
图6是根据本申请可选实施例的基于的动态时间归整的手势轨迹识别方法的示意图;
图7是根据本申请实施例的一种可选的手势轨迹的识别装置的示意图;
以及
图8是根据本申请实施例的一种终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本申请实施例的一方面,提供了一种手势轨迹的识别的方法实施例。
可选地,在本实施例中,上述手势轨迹的识别方法可以应用于如图1所示的由终端101和服务器103所构成的硬件环境中。如图1所示,服务器103通过网络与终端101进行连接,可用于为终端或终端上安装的客户端提供服务(如游戏服务、应用服务等),可在服务器上或独立于服务器设置数据库,用于为服务器103提供数据存储服务,上述网络包括但不限于:广域网、城域网或局域网,终端101并不限定于PC、手机、平板电脑等。本申请实施例的手势轨迹的识别方法可以由服务器103来执行,也可以由终端101来执行,还可以是由服务器103和终端101共同执行。其中,终端101执行本申请实施例的手势轨迹的识别方法也可以是由安装在其上的客户端来执行。
图2是根据本申请实施例的一种可选的手势轨迹的识别方法的流程图,如图2所示,该方法可以包括以下步骤:
步骤S202,通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
步骤S204,将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
步骤S206,在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
通过上述步骤S202至步骤S206,通过目标关键点检测模型对手势关键点坐标进行检测,从视频中获取到待识别的手势轨迹即第一长度的坐标序列,再使用待识别的第一长度的坐标序列与目标手势轨迹的第二长度的模板坐标序列进行匹配,如果匹配成功则确定识别出模板目标手势轨迹代表的目标手势,达到了准确识别动态手势轨迹的目的,从而实现了提高手势轨迹的识别准确度的技术效果,进而解决了手势轨迹的识别准确度较低的技术问题。
在步骤S202提供的技术方案中,上述视频可以但不限于来自有手部动作的视频流或者视频文件,比如:手机、平板电脑等移动终端的摄像头记录的视频片段。手势轨迹可以用于对移动终端等设备进行控制,比如解锁、翻页、退出、返回、确认等操作均可以使用动态的手势来进行控制,丰富了控制方式。
可选地,在本实施例中,第一长度的坐标序列是按照检测出的坐标在视频中的时间顺序排列的。第一长度的坐标序列用于指示视频中所展示的手部的手势轨迹,以拇指上的点P作为手势关键点为例,在一段5s的视频中的每一秒的视频帧(a,b,c,d,e)上检测出该手势关键点的坐标分别为Pa=(xa,ya),Pb=(xb,yb),Pc=(xc,yc),Pd=(xd,yd),Pe=(xe,ye)。第一长度的坐标序列={Pa,Pb,Pc,Pd,Pe}={(xa,ya),(xb,yb),(xc,yc),(xd,yd),(xe,ye)},其用于指示视频中所展示的拇指上的点P的手势轨迹。
在步骤S204提供的技术方案中,匹配的过程可以但不限于是相似度的确定过程,通过坐标序列之间的相似度确定手势轨迹是否匹配。第一长度和第二长度可以相同也可以不同。
可选地,在本实施例中,手势上的关键点可以但不限于是预先标定出的,比如:图3是根据本申请实施例中一种关键点标注的示意图,如图3所示,在手部标注了21个关键点,其中,每个手指为4个关键点,手腕处标记1个关键点。每个位置的关键点可以进行标号,比如手腕上的关键点标为1号,从拇指指根到小手指指尖依次标号,小手指指尖的关键点标为21号等等。
可选地,在本实施例中,检测出的手势关键点可以但不限于是以坐标的形式来表示的。即可以得到上述21个关键点的21组坐标值,也就是42个坐标数值。
在步骤S206提供的技术方案中,确定了识别出目标手势轨迹后,可以执行与目标手势轨迹对应的目标操作,比如:屏幕解锁、启动应用程序、退出应用程序等等。
作为一种可选的实施例,通过所述目标关键点检测模型检测视频中的手势关键点的坐标,得到所述第一长度的坐标序列包括:
S11,检测所述视频上的手势区域,其中,所述手势区域是所述视频中所展示的手部所在的区域;
S12,通过所述目标关键点检测模型检测所述手势区域中的手势关键点的坐标,得到所述第一长度的坐标序列。
可选地,在本实施例中,可以但不限于首先使用手势检测模型检测出手势区域,再对手势区域上的手势关键点进行检测。使用手势检测模型对手势进行初步的定位能够节省手势关键点检测的时间,从而提高检测效率。
作为一种可选的实施例,所述手势关键点包括多个关键点,其中,通过所述目标关键点检测模型检测视频中的手势关键点的坐标,得到所述第一长度的坐标序列包括:
S21,将所述视频中的多个关键帧输入所述目标关键点检测模型;
S22,获取所述目标关键点检测模型输出的所述多个关键帧中每个关键帧对应的关键点坐标集合,得到具有对应关系的多个关键帧和多个关键点坐标集合,其中,每个关键点坐标集合中包括所述多个关键点在所述每个关键帧上的坐标值,所述多个关键点中每个关键点对应的关键点坐标在所述每个关键点坐标集合中的位置与所述每个关键点在所述视频中所包括的手部上的位置对应;
S23,将所述多个关键点坐标集合按照所述多个关键帧的时间顺序排列得到的关键点坐标集合序列确定为所述第一长度的坐标序列。
可选地,在本实施例中,可以通过训练深度学习网络来完成关键点的检测。深度学习网络可以但不限于包括mobilenet。
可选地,在本实施例中,多个关键帧可以但不限于是从视频中按照一定规律提取出的视频帧。比如:每个目标时间提取一张视频帧作为关键帧,或者将手部发生移动的视频帧作为关键帧,或者也可以将视频中的每一帧均作为关键帧。
可选地,在本实施例中,手势关键点可以包括多个关键点,比如:如图3中所示的21个关键点,每个关键帧中均能够检测出这21个关键点的坐标,对于每个关键帧的关键点坐标集合中的坐标均是这21个关键点按照编号顺序进行排列的,即每个关键帧的关键点坐标集合为{(x1,y1),(x2,y2),(x3,y3),……,(x21,y21)}。
在一个可选的实施方式中,图4是根据本申请可选的实施方式的模型训练过程的示意图,如图4所示,提前标注22万张手部图片的关键点作为样本图像,将样本图像输入深度学习模型进行训练。训练的目标是21个关键点的x,y坐标,共42个值。训练可以但不限于采用平方和误差的方式。图5是根据本申请可选的实施方式的关键点检测过程的示意图,如图5所示,使用上述训练好的目标关键点检测模型对视频帧进行检测,得到每个视频帧上的手势关键点。
可选地,在本实施例中,在将所述视频中的多个关键帧输入所述目标关键点检测模型之前,可以但不限于采用以下方式对进行模型训练:
S31,将所述关键点检测样本输入所述初始关键点检测模型,得到所述初始关键点检测模型输出的检测结果;
S32,根据所述检测结果与所述关键点检测样本所标注的多个手势关键点对应坐标确定目标损失函数的值,其中,所述目标损失函数是所述初始关键点检测模型所对应的损失函数;
S33,根据所述目标损失函数的值与目标值之间的关系对所述初始关键点检测模型的模型参数进行调整,直至所述目标损失函数的值与所述目标值之间的关系满足目标条件,得到所述目标关键点检测模型。
作为一种可选的实施例,所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配包括:
S41,获取所述第二长度的模板坐标序列;
S42,确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度;
S43,在所述目标相似度高于相似度阈值的情况下,确定所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功。
可选地,在本实施例中,如果第一长度与第二长度相同,则可以直接确定两个序列之间的相似度。如果第一长度与第二长度不同,则可以首先对其中的一个进行缩放处理,使二者长度相同再确定相似度。或者也可以同时对两个序列进行缩放处理,得到相同长度的两个序列,再确定相似度。
可选地,在本实施例中,相似度阈值可以但不限于是预先设置的,或者也可以是根据数据统计确定的。
可选地,在本实施例中,在所述第一长度与所述第二长度不同的情况下,可以但不限于采用以下方式确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度:
S51,使用所述第二长度的模板坐标序列Q=q1,q2,…,qi,…,qn和所述第一长度的坐标序列C=c1,c2,…,cj,…,cm建立n×m的目标矩阵网格,其中,所述目标矩阵网格的(i,j)处的元素为qi和cj之间的距离;
S52,从所述目标矩阵网格中查找最佳路径,其中,所述最佳路径对应的规整代价最小且所述最佳路径满足所述目标矩阵网格对应的约束条件;
S53,从所述最佳路径中获取所述目标相似度。
可选地,在本实施例中,m为第一长度,n为第二长度,m和n均可以为大于1的正整数。qi是第i个模板视频帧中检测到的手势关键点的坐标集合。cj是第j个关键帧中检测到的手势关键点的坐标集合。
可选地,在本实施例中,将模板坐标序列记为Q,手势关键点坐标序列记为C,其长度分别为n和m。可以得到Q=q1,q2,…,qi,…,qn和C=c1,c2,…,cj,…,cm,Q和C中的每一个元素对应手势的21个关键点坐标,21个点的坐标组成42维的特征向量,得到
Figure BDA0002352418110000141
可选地,在本实施例中,两个向量之间的相似度可以但不限于使用欧几里得距离进行衡量,
Figure BDA0002352418110000142
作为一种可选的实施例,在将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配之前,所述方法还包括:
S61,获取模板视频,其中,所述模板视频是展示了所述目标手势轨迹的视频;
S62,通过所述目标关键点检测模型检测所述模板视频中的手势关键点坐标,得到所述第二长度的模板坐标序列。
可选地,在本实施例中,在进行手势轨迹的匹配之前可以但不限于通过对录制的模板视频进行手势关键点的检测来获取模板手势轨迹。
本申请还提供了一种可选实施例,该可选实施例提供了一种基于的动态时间归整(DTW)的手势轨迹识别方法,图6是根据本申请可选实施例的基于的动态时间归整的手势轨迹识别方法的示意图,如图6所示,对输入视频进行关键点检测,检测出手势轨迹并对轨迹进行记录。在进行DTW匹配之前,对模板视频进行关键点检测,检测出模板手势轨迹并对轨迹进行记录。然后,对手势轨迹和模板手势轨迹进行匹配结果,并根据匹配结果判断手势类别。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
根据本申请实施例的另一个方面,还提供了一种用于实施上述手势轨迹的识别方法的手势轨迹的识别装置。图7是根据本申请实施例的一种可选的手势轨迹的识别装置的示意图,如图7所示,该装置可以包括:
第一检测模块72,用于通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
匹配模块74,用于将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
第一确定模块76,用于在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
需要说明的是,该实施例中的第一检测模块72可以用于执行本申请实施例中的步骤S202,该实施例中的匹配模块74可以用于执行本申请实施例中的步骤S204,该实施例中的第一确定模块76可以用于执行本申请实施例中的步骤S206。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现。
通过上述模块,通过目标关键点检测模型对手势关键点坐标进行检测,从视频中获取到待识别的手势轨迹即第一长度的坐标序列,再使用待识别的第一长度的坐标序列与目标手势轨迹的第二长度的模板坐标序列进行匹配,如果匹配成功则确定识别出模板目标手势轨迹代表的目标手势,达到了准确识别动态手势轨迹的目的,从而实现了提高手势轨迹的识别准确度的技术效果,进而解决了手势轨迹的识别准确度较低的技术问题。
可选地,所述第一检测模块包括:
第一检测单元,用于检测所述视频上的手势区域,其中,所述手势区域是所述视频中所展示的手部所在的区域;
第二检测单元,用于通过所述目标关键点检测模型检测所述手势区域中的手势关键点的坐标,得到所述第一长度的坐标序列。
可选地,所述手势关键点包括多个关键点,其中,所述第一检测模块包括:
输入单元,用于将所述视频中的多个关键帧输入所述目标关键点检测模型;
第一获取单元,用于获取所述目标关键点检测模型输出的所述多个关键帧中每个关键帧对应的关键点坐标集合,得到具有对应关系的多个关键帧和多个关键点坐标集合,其中,每个关键点坐标集合中包括所述多个关键点在所述每个关键帧上的坐标值,所述多个关键点中每个关键点对应的关键点坐标在所述每个关键点坐标集合中的位置与所述每个关键点在所述视频中所包括的手部上的位置对应;
确定单元,用于将所述多个关键点坐标集合按照所述多个关键帧的时间顺序排列得到的关键点坐标集合序列确定为所述第一长度的坐标序列。
可选地,所述装置还包括:
输入模块,用于在将所述视频中的多个关键帧输入所述目标关键点检测模型之前,将所述关键点检测样本输入所述初始关键点检测模型,得到所述初始关键点检测模型输出的检测结果;
第二确定模块,用于根据所述检测结果与所述关键点检测样本所标注的多个手势关键点对应坐标确定目标损失函数的值,其中,所述目标损失函数是所述初始关键点检测模型所对应的损失函数;
调整模块,用于根据所述目标损失函数的值与目标值之间的关系对所述初始关键点检测模型的模型参数进行调整,直至所述目标损失函数的值与所述目标值之间的关系满足目标条件,得到所述目标关键点检测模型。
可选地,所述匹配模块包括:
第二获取单元,用于获取所述第二长度的模板坐标序列;
第二确定单元,用于确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度;
第三确定单元,用于在所述目标相似度高于相似度阈值的情况下,确定所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功。
可选地,所述第二确定单元用于:
在所述第一长度与所述第二长度不同的情况下,使用所述第二长度的模板坐标序列Q=q1,q2,…,qi,…,qn和所述第一长度的手势关键点坐标序列C=c1,c2,…,cj,…,cm建立n×m的目标矩阵网格,其中,所述目标矩阵网格的(i,j)处的元素为qi和cj之间的距离;
从所述目标矩阵网格中查找最佳路径,其中,所述最佳路径对应的规整代价最小且所述最佳路径满足所述目标矩阵网格对应的约束条件;
从所述最佳路径中获取所述目标相似度。
可选地,所述装置还包括:
获取模块,用于在将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配之前,获取模板视频,其中,所述模板视频是展示了所述目标手势轨迹的视频;
第二检测模块,用于通过所述目标关键点检测模型检测所述模板视频中的手势关键点坐标,得到所述第二长度的模板坐标序列。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现,其中,硬件环境包括网络环境。
根据本申请实施例的另一个方面,还提供了一种用于实施上述手势轨迹的识别方法的服务器或终端。
图8是根据本申请实施例的一种终端的结构框图,如图8所示,该终端可以包括:一个或多个(图中仅示出一个)处理器801、存储器803、以及传输装置805,如图8所示,该终端还可以包括输入输出设备807。
其中,存储器803可用于存储软件程序以及模块,如本申请实施例中的手势轨迹的识别方法和装置对应的程序指令/模块,处理器801通过运行存储在存储器803内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的手势轨迹的识别方法。存储器803可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器803可进一步包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置805用于经由一个网络接收或者发送数据,还可以用于处理器与存储器之间的数据传输。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置805包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置805为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器803用于存储应用程序。
处理器801可以通过传输装置805调用存储器803存储的应用程序,以执行下述步骤:
S1,通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
S2,将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
S3,在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
采用本申请实施例,提供了一种手势轨迹的识别的方案。通过目标关键点检测模型对手势关键点坐标进行检测,从视频中获取到待识别的手势轨迹即第一长度的坐标序列,再使用待识别的第一长度的坐标序列与目标手势轨迹的第二长度的模板坐标序列进行匹配,如果匹配成功则确定识别出模板目标手势轨迹代表的目标手势,达到了准确识别动态手势轨迹的目的,从而实现了提高手势轨迹的识别准确度的技术效果,进而解决了手势轨迹的识别准确度较低的技术问题。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图8所示的结构仅为示意,终端可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile InternetDevices,MID)、PAD等终端设备。图8其并不对上述电子装置的结构造成限定。例如,终端还可包括比图8中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图8所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
本申请的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于执行手势轨迹的识别方法的程序代码。
可选地,在本实施例中,上述存储介质可以位于上述实施例所示的网络中的多个网络设备中的至少一个网络设备上。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
S1,通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
S2,将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
S3,在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种手势轨迹的识别方法,其特征在于,包括:
通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
2.根据权利要求1所述的方法,其特征在于,通过所述目标关键点检测模型检测视频中的手势关键点的坐标,得到所述第一长度的坐标序列包括:
检测所述视频上的手势区域,其中,所述手势区域是所述视频中所展示的手部所在的区域;
通过所述目标关键点检测模型检测所述手势区域中的手势关键点的坐标,得到所述第一长度的坐标序列。
3.根据权利要求1所述的方法,其特征在于,所述手势关键点包括多个关键点,其中,通过所述目标关键点检测模型检测视频中的手势关键点的坐标,得到所述第一长度的坐标序列包括:
将所述视频中的多个关键帧输入所述目标关键点检测模型;
获取所述目标关键点检测模型输出的所述多个关键帧中每个关键帧对应的关键点坐标集合,得到具有对应关系的多个关键帧和多个关键点坐标集合,其中,每个关键点坐标集合中包括所述多个关键点在所述每个关键帧上的坐标值,所述多个关键点中每个关键点对应的关键点坐标在所述每个关键点坐标集合中的位置与所述每个关键点在所述视频中所包括的手部上的位置对应;
将所述多个关键点坐标集合按照所述多个关键帧的时间顺序排列得到的关键点坐标集合序列确定为所述第一长度的坐标序列。
4.根据权利要求3所述的方法,其特征在于,在将所述视频中的多个关键帧输入所述目标关键点检测模型之前,所述方法还包括:
将所述关键点检测样本输入所述初始关键点检测模型,得到所述初始关键点检测模型输出的检测结果;
根据所述检测结果与所述关键点检测样本所标注的多个手势关键点对应坐标确定目标损失函数的值,其中,所述目标损失函数是所述初始关键点检测模型所对应的损失函数;
根据所述目标损失函数的值与目标值之间的关系对所述初始关键点检测模型的模型参数进行调整,直至所述目标损失函数的值与所述目标值之间的关系满足目标条件,得到所述目标关键点检测模型。
5.根据权利要求1所述的方法,其特征在于,将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配包括:
获取所述第二长度的模板坐标序列;
确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度;
在所述目标相似度高于相似度阈值的情况下,确定所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功。
6.根据权利要求5所述的方法,其特征在于,在所述第一长度与所述第二长度不同的情况下,确定所述第一长度的坐标序列和所述第二长度的模板坐标序列之间的目标相似度包括:
使用所述第二长度的模板坐标序列Q=q1,q2,…,qi,…,qn和所述第一长度的坐标序列C=c1,c2,…,cj,…,cm建立n×m的目标矩阵网格,其中,所述目标矩阵网格的(i,j)处的元素为qi和cj之间的距离;
从所述目标矩阵网格中查找最佳路径,其中,所述最佳路径对应的规整代价最小且所述最佳路径满足所述目标矩阵网格对应的约束条件;
从所述最佳路径中获取所述目标相似度。
7.根据权利要求1所述的方法,其特征在于,在将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配之前,所述方法还包括:
获取模板视频,其中,所述模板视频是展示了所述目标手势轨迹的视频;
通过所述目标关键点检测模型检测所述模板视频中的手势关键点坐标,得到所述第二长度的模板坐标序列。
8.一种手势轨迹的识别装置,其特征在于,包括:
第一检测模块,用于通过目标关键点检测模型检测视频中的手势关键点的坐标,得到第一长度的坐标序列,其中,所述第一长度的坐标序列用于指示所述视频中所展示的手部的手势轨迹,所述目标关键点检测模型是使用关键点检测样本对初始关键点检测模型进行训练得到的,所述关键点检测样本是标注了所述手势关键点对应坐标的样本图像;
匹配模块,用于将所述第一长度的坐标序列与第二长度的模板坐标序列进行匹配,其中,所述第二长度的模板坐标序列用于指示目标手势轨迹;
第一确定模块,用于在所述第一长度的坐标序列与第二长度的模板坐标序列匹配成功的情况下,确定在所述视频中识别出所述目标手势轨迹。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行上述权利要求1至7任一项中所述的方法。
10.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序执行上述权利要求1至7任一项中所述的方法。
CN201911424253.0A 2019-12-31 2019-12-31 一种手势轨迹的识别方法和装置 Pending CN111178308A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911424253.0A CN111178308A (zh) 2019-12-31 2019-12-31 一种手势轨迹的识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911424253.0A CN111178308A (zh) 2019-12-31 2019-12-31 一种手势轨迹的识别方法和装置

Publications (1)

Publication Number Publication Date
CN111178308A true CN111178308A (zh) 2020-05-19

Family

ID=70657711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911424253.0A Pending CN111178308A (zh) 2019-12-31 2019-12-31 一种手势轨迹的识别方法和装置

Country Status (1)

Country Link
CN (1) CN111178308A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907622A (zh) * 2021-01-20 2021-06-04 厦门市七星通联科技有限公司 视频中目标物体的轨迹识别方法、装置、设备、存储介质
CN112926518A (zh) * 2021-03-29 2021-06-08 上海交通大学 基于视频的复杂场景下手势密码轨迹还原系统
CN114063772A (zh) * 2021-10-26 2022-02-18 深圳市鸿合创新信息技术有限责任公司 手势识别方法、装置、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
CN103106038A (zh) * 2013-02-06 2013-05-15 清华大学 基于草图手势及弧形摘要时间轴的视频交互方法和系统
CN107239728A (zh) * 2017-01-04 2017-10-10 北京深鉴智能科技有限公司 基于深度学习姿态估计的无人机交互装置与方法
CN107368181A (zh) * 2016-05-12 2017-11-21 株式会社理光 一种手势识别方法及装置
WO2018202089A1 (zh) * 2017-05-05 2018-11-08 商汤集团有限公司 关键点检测方法、装置、存储介质及电子设备
CN109784178A (zh) * 2018-12-14 2019-05-21 深圳壹账通智能科技有限公司 基于手势识别的参数调节方法、装置及健身设备
CN110471526A (zh) * 2019-06-28 2019-11-19 广东工业大学 一种人体姿态估计与手势识别结合的无人机控制方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
CN103106038A (zh) * 2013-02-06 2013-05-15 清华大学 基于草图手势及弧形摘要时间轴的视频交互方法和系统
CN107368181A (zh) * 2016-05-12 2017-11-21 株式会社理光 一种手势识别方法及装置
CN107239728A (zh) * 2017-01-04 2017-10-10 北京深鉴智能科技有限公司 基于深度学习姿态估计的无人机交互装置与方法
WO2018202089A1 (zh) * 2017-05-05 2018-11-08 商汤集团有限公司 关键点检测方法、装置、存储介质及电子设备
CN109784178A (zh) * 2018-12-14 2019-05-21 深圳壹账通智能科技有限公司 基于手势识别的参数调节方法、装置及健身设备
CN110471526A (zh) * 2019-06-28 2019-11-19 广东工业大学 一种人体姿态估计与手势识别结合的无人机控制方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907622A (zh) * 2021-01-20 2021-06-04 厦门市七星通联科技有限公司 视频中目标物体的轨迹识别方法、装置、设备、存储介质
CN112926518A (zh) * 2021-03-29 2021-06-08 上海交通大学 基于视频的复杂场景下手势密码轨迹还原系统
CN114063772A (zh) * 2021-10-26 2022-02-18 深圳市鸿合创新信息技术有限责任公司 手势识别方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
Shen et al. Person re-identification with correspondence structure learning
CN111178308A (zh) 一种手势轨迹的识别方法和装置
CN107463331B (zh) 手势轨迹模拟方法、装置及电子设备
CN107679449B (zh) 嘴唇动作捕捉方法、装置及存储介质
Kviatkovsky et al. Online action recognition using covariance of shape and motion
CN110633004B (zh) 基于人体姿态估计的交互方法、装置和系统
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
CN107622246B (zh) 人脸识别方法及相关产品
CN108875667B (zh) 目标识别方法、装置、终端设备和存储介质
CN112672036A (zh) 拍摄图像处理方法及装置、电子设备
CN102841676A (zh) 网页浏览控制系统及方法
CN105184126A (zh) 一种密码设置方法、验证方法和终端
CN107220614A (zh) 图像识别方法、装置及计算机可读存储介质
CN111382655A (zh) 一种举手行为识别方法及装置、电子设备
CN111680686B (zh) 招牌信息识别方法、装置、终端及存储介质
CN111079499B (zh) 一种学习环境中的书写内容识别方法及系统
CN109711287B (zh) 人脸采集方法及相关产品
CN110826452A (zh) 一种掌纹验证方法、装置、计算机设备及可读存储介质
CN113627334A (zh) 对象的行为识别方法及装置
CN112437231B (zh) 图像拍摄方法和装置、电子设备及存储介质
KR20210084447A (ko) 목표 추적 방법, 장치, 전자 디바이스 및 기록 매체
CN111859322A (zh) 身份验证方法、装置和电子设备
CN115061577A (zh) 手部投影交互方法、系统及存储介质
CN112560728B (zh) 目标对象识别方法及装置
CN116129523A (zh) 动作识别方法、装置、终端及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination