CN112446321B - 基于帧差法的手部动作实时识别方法 - Google Patents

基于帧差法的手部动作实时识别方法 Download PDF

Info

Publication number
CN112446321B
CN112446321B CN202011326316.1A CN202011326316A CN112446321B CN 112446321 B CN112446321 B CN 112446321B CN 202011326316 A CN202011326316 A CN 202011326316A CN 112446321 B CN112446321 B CN 112446321B
Authority
CN
China
Prior art keywords
hand
image
target
images
centroid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011326316.1A
Other languages
English (en)
Other versions
CN112446321A (zh
Inventor
牛毅
李旭超
李甫
乐仁华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202011326316.1A priority Critical patent/CN112446321B/zh
Publication of CN112446321A publication Critical patent/CN112446321A/zh
Application granted granted Critical
Publication of CN112446321B publication Critical patent/CN112446321B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种基于帧差法的手部动作实时识别方法。主要解决现有技术无法在低功耗设备上实时进行手部动作识别的问题。其实现方案为:1)对读入图像之间使用帧差分法进行处理以提取前景目标图像;2)从读入图像中提取YCrCb格式中的色度分量Cr,以求取肤色概率;3)结合肤色概率,对获得的前景目标图像使用贝叶斯估计得到目标手图像;4)对目标手图像进行降维操作,获得质心并调整;5)对调整后的质心计算质心之间的向量,根据质心向量确定状态值,再由状态值的比较情况判断手部运动状态,实现手部动作的识别。本发明提高了手势识别的准确率,且能部署至低功耗设备运行,可以应用于人机交互、远程控制。

Description

基于帧差法的手部动作实时识别方法
技术领域
本发明属于目标追踪技术领域,特别涉及一种手部动作识别方法,可以应用于人机交互、远程控制。
背景技术
随着计算机技术的发展,人工智能已经影响到人们生活的方方面面,而人工智能中最重要的一个研究方向便是如何使计算机具有视觉能力,即:机器视觉。在机器视觉领域中目标跟踪是其中最为基础也最为重要的一个分支,它包括了图像处理、机器学习、模式识别等多方面的内容,是一个涉及领域非常广泛的研究方向。目标跟踪技术具有广阔的研究前景和应用价值,尽管研究人员们已经深入研究多年,并取得不少研究成果,但是目标跟踪技术在实现层面仍遇到很多技术难点。例如如何实现一款能够实时跟踪,跟踪精度高并且功耗低的目标跟踪设备依然是一个很大的挑战。
在目标跟踪领域中存在着许多子任务,其中手部动作识别是一类具有重要应用价值的任务,手部动作识别的方法在生产生活中具有重大的价值以及较为迫切的需求。然而在实际生产生活中,通常是需要在低功耗设备上应用手部动作识别功能,这对于手部动作识别方法提出了更多的要求。
现有的手部动作识别方法主要分为两类:一类如基于Intel Chainer手部动作识别以及虹软视觉公司手部动作识别,这类手部动作识别方法核心思路基于深度神经网络,要使性能达到可实用标准,不仅需要事先采集大量的手部动作数据集用于模型的训练,这在实际生产生活中需要耗费大量的时间,而且,现有可用于手部识别的特定深度神经网络其模型较为复杂,其推理时间较长难以满足实际生活中实时性要求,且会产生较大的功耗,难以在低功耗设备上进行大规模运用。另一类基于手部几何特征的动作识别,如韩笑等人于2019年发布的文章《基于手势几何分布特征的手势识别》,其利用手部几何特征进行动作识别的方法,这种方法可以满足实际应用的实时性,然而对于低功耗设备部署的性能要求仍然无法满足,功耗较大无法进行低功耗优化,且性能在实际生产生活中无法达到要求。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于帧差法的手部动作实时识别方法,以在低功耗设备上实现手势动作的精确跟踪。
本发明的技术思路是:通过使用帧差分法提取前景目标,通过使用肤色信息进行贝叶斯估计即可得到手的图像,通过对手这个目标的降维后使用状态机滤波和提取手势,以实现动态手势识别。其实现步骤包括如下:
(1)通过摄像头读入相邻五帧图像,记为R1,R2,R3,R4,R5,并依次计算读入图像R1与R2、R2与R3、R3与R4、R4与R5的差分图,获取四帧前景目标图像,分别记为M1,M2,M3,M4
(2)将(1)中读入的第一帧图像R1转化为YCrCb格式图像,取出Cr分量,并计算Cr分量中每一个像素是肤色的概率P;
(3)对(1)中四帧前景目标图像M1,M2,M3,M4,结合(2)得到的肤色概率P进行贝叶斯估计,获取四帧目标手图像,分别记为H1,H2,H3,H4
(4)对(3)中四帧目标手图像H1,H2,H3,H4分别进行降维处理,获得四个目标手图像的质心,分别记为C1,C2,C3,C4
(5)对四个目标手图像的质心C1,C2,C3,C4进行调整,获得四个调整后的质心,分别记为C1′,C2′,C3′,C4′;
(6)对调整后的质心C1′,C2′,C3′,C4′进行处理,以得到运动状态结果:
(6a)计算调整后的质心C1′与C2′、C2′与C3′、C3′与C4′之间的向量,获得三个质心向量,分别记为
Figure BDA0002794361900000021
Figure BDA0002794361900000022
其中,
Figure BDA0002794361900000023
分别表示调整后质心C1′的横坐标和纵坐标值,
Figure BDA0002794361900000024
分别表示调整后质心C2′的横坐标和纵坐标值,
Figure BDA0002794361900000025
分别表示调整后质心C3′的横坐标和纵坐标值,
Figure BDA0002794361900000026
分别表示调整后质心C4′的横坐标和纵坐标值;
(6b)根据
Figure BDA0002794361900000027
获得三个状态值,分别记为s1,s2,s3
Figure BDA0002794361900000031
其中,
Figure BDA0002794361900000032
分别表示横坐标方向和纵坐标方向的单位向量,符号*表示乘号;
(6c)根据三个状态值s1,s2,s3大小的比较结果,确定手部动作识别结果,记为d:
Figure BDA0002794361900000033
(6d)根据手部动作识别结果d,输出手部动作识别信息:即当d=4时,输出手部向右运动信息;当d=3时,输出手部向上运动信息;当d=2时,输出手部向左运动信息;当d=1时,输出手部向下运动信息;当d=0时,输出手部静止状态信息。
本发明与现有技术相比具有以下优点:
第一,本发明借助肤色信息及光流估计实现手势动作识别,降低了实现复杂度,且能更好的在低功耗设备上运行。
第二,本发明通过对手势动作行为进行建模,提出质心的方法判断手势动作,进一步提高了手势识别的准确率。
测试结果表明,本方法相比于其他方法,具有与其他方法相当的识别性能,且能很好用于低功耗设备,可满足手部动作识别在生产生活中的大规模运用需求。
附图说明
图1为本发明的实现流程图;
图2为本发明中读入的图像;
图3为本发明中的帧差分图;
图4为本发明中的Cr分量示意图;
图5为本发明中的肤色概率图;
图6为本发明中的目标手图像;
图7为本发明中的质心示意图。
具体实施方式
以下将结合附图对本发明的实例作进一步详细描述。
参照图1,本实例的实现步骤如下:
步骤一:读入图像并计算读入图像之间的差分图,以获得前景目标图像。
1a)从摄像头中读入连续五帧图像,分别为R1,R2,R3,R4,R5,本实例中读入图像如图2所示;
1b)计算读入图像R1与R2、R2与R3、R3与R4、R4与R5之间的差分图,以获取四帧前景目标图像,分别为M1,M2,M3,M4
Figure BDA0002794361900000041
其中,th3表示差分阈值,取值为20,计算差分图的过程实际上相当于滤除背景的过程,背景信息被滤除而前景信息被保留,因此每张前景目标图像Mk表示滤除了背景信息,保留前景信息的图像。本实例中的帧差分图结果如图3所示。
步骤二:从第一帧读入图像中提取肤色概率。
2a)将第一帧读入图像R1转化为YCrCb格式图像,并取出Cr分量:
YCrCb格式中Y表示为亮度信号,Cr和Cb表示色度信号,其中,Cr反映了RGB图像红色通道信号值与亮度值之间的差异。在RGB空间中,人的肤色图像受亮度影响相当大,所以很难将肤色像素点与非肤色像素点进行分离。而在Cr空间中,肤色图像受亮度的影响特别小,可以很好的区分肤色像素点与非肤色像素点,可以在不同光照条件下保持一定的鲁棒性。Cr分量提取公式如下:
Cr=0.439R-0.368G-0.071B+128
其中,R,G,B分别表示第一帧读入图像R1是为RGB格式时提取的红绿蓝通道数据,此处Cr分量是一个矩阵,行数和列数的大小分别为读入图像R1的宽和高的大小。本实例中提取出的Cr分量结果如图4所示;
2b)计算Cr分量中每一个像素是肤色的概率P:
通过使用Cr分量,可以很稳定的区分图像中每一个像素点是否属于人体肤色,这对于之后获取图像中手部信息是十分重要的。由于Cr分量是一个矩阵,因此此处计算出来的肤色概率P也是一个矩阵,二者矩阵大小相等,肤色概率P计算公式如下:
Figure BDA0002794361900000051
其中,a1表示肤色均值,a2表示肤色方差值,exp()函数表示自然指数,符号*表示乘号,肤色均值a1及肤色方差值a2是肤色图像中像素值的两类统计值。通常人体肤色图像的肤色均值为3,肤色方差值为1000。
在本实例中以此值作为肤色均值a1和肤色方差值a2默认参数值,其肤色概率P的结果如图5所示。
步骤三:结合肤色概率对前景目标图像进行贝叶斯估计,以获取目标手图像。
(3a)对四帧前景目标图像M1,M2,M3,M4做归一化处理,以获得四个前景运动目标概率Ok
由于前景目标图像包含了前景信息而被滤去了背景信息,因此每个像素值蕴含了该像素点是否为前景目标的信息,而前景目标图像每个像素值取值为0至255之间,所以需要进行归一化以获得前景目标概率Ok,计算公式如下:
Ok=Mk/255,k=1,2,3,4。
其中Ok是一个矩阵,其行数列数与前景目标图像Mk的高宽大小对应一致,该矩阵Ok中的元素表示对应前景目标图像Mk中像素点为前景运动目标的概率值;
(3b)将每个前景运动目标概率Ok与肤色概率P相乘,得到每个目标手概率Gk
Gk=Ok*P,
其中,目标手概率Gk是一个矩阵,其行数列数与前景目标图像Mk的高宽大小对应一致,每个元素大小都为0至1之间,该矩阵Gk中的元素表示对应前景目标图像Mk中像素点为目标手像素的概率值;
(3c)将每个目标手概率Gk与255相乘,得到每帧目标手图像Hk,由于矩阵Gk的每个像素值都在0与1之间,且蕴含了像素点是否为目标手的信息,因此与255相乘之后,可以从这个矩阵Gk中获得目标手图像Hk。计算公式如下:
Hk=Gk*255,
其中,每帧目标手图像Hk图像高宽大小与前景目标图像Mk的高宽大小一致,其图像内容包含目标手信息;
通过计算可以从四帧前景目标图像M1,M2,M3,M4中得到四帧目标手图像H1,H2,H3,H4,如图6所示。
步骤四:对目标手图像进行降维处理,以获得目标手图像的质心。
在获得四帧目标手图像H1,H2,H3,H4之后,需要对每帧目标手图像Hk进行降维处理,即将每帧目标手图像Hk降维至一点,形成质心Ck,以得到对应四个目标手图像的四个质心,分别为C1,C2,C3,C4,计算公式如下:
Figure BDA0002794361900000061
Figure BDA0002794361900000062
其中,
Figure BDA0002794361900000063
是质心的横坐标,
Figure BDA0002794361900000064
是质心的纵坐标,xk,yk分别为目标手图像Hk中横坐标和纵坐标值,符号*表示乘号。
每个目标手图像质心Ck表示目标手图像像素值的分布聚集的位置,即表示目标手对象在图像中的位置。
步骤五:根据目标手图像中手部运动状况调整质心,以获得调整后的质心。
5a)将每帧目标手图像Hk处理成每帧像素值为0和1的图像Bk
Figure BDA0002794361900000065
其中,th1表示运动阈值,取值为5;完成处理后,可得到四帧处理后的图像B1,B2,B3,B4
5b)计算每帧处理后的图像Bk中像素值为1的像素点个数nk
nk=∑∑Bk
对每帧处理后的图像Bk中所有的像素值做求和处理后,可以得到该图像Bk中像数值为1的像素点个数;
5c)根据像素点个数nk判断目标手运动状况,以调整每个质心Ck,获得每个调整后的质心C′k
为了使质心的表示更加稳定,因此需要对得到的四个质心C1,C2,C3,C4进行调整,从而得到四个调整后的质心C′1,C′2,C′3,C′4,质心调整的公式如下:
Figure BDA0002794361900000066
其中,当k取1时,C0表示初始设置的质心,取值为C1;th2表示自适应阈值,通常自适应阈值的选取与目标手图像大小相关,取值为目标手图像总像素个数的1/100左右。
在本实例中,自适应阈值th2取值为3000。实际场景中手部质心示意如图7所示,其中:图7(a)为第一帧目标手图像H1调整后质心C′1的结果;图7(b)为第二帧目标手图像H2调整后质心C′2的结果;图7(c)为第三帧目标手图像H3调整后质心C′3的结果;图7(d)为第四帧目标手图像H4调整后质心C′4的结果。
步骤六:对调整后的质心进行处理,输出运动状态。
由于质心构成的运动轨迹并不稳定,因此直接使用质心判断手部动作状态误差较大,而使用质心之间的向量判断更为稳定。虽然由两个质心构成的向量可指明一个方向,但是由于实际存在的误差,仅仅使用两个质心并不能准确判定手部动作状态,同时如果使用过多的质心则会增加实现复杂度,因此需要使用四个质心构成的三个向量用于判断手部动作状态更加合适,本步骤的具体实现如下:
6a)计算四个调整后的质心C′1与C′2、C′2与C′3、C′3与C′4之间的向量,获得三个质心向量,分别记为
Figure BDA0002794361900000071
Figure BDA0002794361900000072
其中,
Figure BDA0002794361900000073
分别表示调整后质心C′1的横坐标和纵坐标值,
Figure BDA0002794361900000074
分别表示调整后质心C′2的横坐标和纵坐标值,
Figure BDA0002794361900000075
分别表示调整后质心C′3的横坐标和纵坐标值,
Figure BDA0002794361900000076
分别表示调整后质心C′4的横坐标和纵坐标值;
6b)根据
Figure BDA0002794361900000077
获得三个状态值,分别记为s1,s2,s3
Figure BDA0002794361900000078
其中,
Figure BDA0002794361900000081
分别表示横坐标方向和纵坐标方向的单位向量,符号*表示乘号;
式中,当质心向量
Figure BDA0002794361900000082
模值等于0时,sj取值为0;当质心向量
Figure BDA0002794361900000083
模值大于0,且质心向量
Figure BDA0002794361900000084
与横坐标单位向量点乘大于0,夹角小于35度时,sj取值为1;当质心向量
Figure BDA0002794361900000085
模值大于0,且质心向量
Figure BDA0002794361900000086
与纵坐标单位向量点乘小于0,夹角大于145度时,sj取值为2;当质心向量
Figure BDA0002794361900000087
模值大于0,且质心向量
Figure BDA0002794361900000088
与横坐标单位向量点乘小于0,夹角大于145度时,sj取值为3;当质心向量
Figure BDA0002794361900000089
模值大于0,且质心向量
Figure BDA00027943619000000810
与纵坐标单位向量点乘大于0,夹角小于35度时,sj取值为4;当质心向量
Figure BDA00027943619000000811
不满足上述五种情况时,sj取值为5;
6c)根据三个状态值s1,s2,s3大小的比较结果,确定手部动作识别结果,记为d:
Figure BDA00027943619000000812
式中,当状态值s1,s2,s3全等,且状态值s1等于4时,d取值为4;当状态值s1,s2,s3全等,且状态值s1等于3时,d取值为3;当状态值s1,s2,s3全等,且状态值s1等于2时,d取值为2;当状态值s1,s2,s3全等,且状态值s1等于1时,d取值为1;当状态值s1,s2,s3不满足上述四种情况时,d取值为0;
6d)根据手部动作识别结果d的数值,输出手部动作识别信息:
当d=4时,输出手部向右运动信息;
当d=3时,输出手部向上运动信息;
当d=2时,输出手部向左运动信息;
当d=1时,输出手部向下运动信息;
当d=0时,输出手部静止状态信息。
本发明的效果可通过测试实验结果进一步说明。
一、测试环境
包括实验室,树荫下,阴雨天及灯光较弱的环境,也包括阳光直射光线较强的环境。
二、测试内容
实验者在摄像头前朝四个方向挥动手部,一次挥手认为是一个手部动作。
实验共分8组,每组实验过程中,记录实验者挥动手部的方向与本发明识别出的手部动作结果,最后对记录的数据进行统计,计算本发明手部动作识别的正确率。结果如下表1:
表1
Figure BDA0002794361900000091
从上表的实验结果中可以看出,在不同实验环境下,手部动作的识别准确率都是可接受的,并且已经达到了实际可用的水平,表明本发明可在低功耗设备上运行,能满足最低功耗的要求。

Claims (6)

1.一种基于帧差法的手部动作实时识别方法,其特征在于,包括如下:
(1)通过摄像头读入相邻五帧图像,记为R1,R2,R3,R4,R5,并依次计算读入图像R1与R2、R2与R3、R3与R4、R4与R5的差分图,获取四帧前景目标图像,分别记为M1,M2,M3,M4
(2)将(1)中读入的第一帧图像R1转化为YCrCb格式图像,取出Cr分量,并计算Cr分量中每一个像素是肤色的概率P;
(3)对(1)中四帧前景目标图像M1,M2,M3,M4,结合(2)得到的肤色概率P进行贝叶斯估计,获取四帧目标手图像,分别记为H1,H2,H3,H4
(4)对(3)中四帧目标手图像H1,H2,H3,H4分别进行降维处理,获得四个目标手图像的质心,分别记为C1,C2,C3,C4
(5)对四个目标手图像的质心C1,C2,C3,C4进行调整,获得四个调整后的质心,分别记为C′1,C′2,C′3,C′4;获得每个调整后的质心C′k,按如下步骤进行:
(5a)将每帧目标手图像Hk处理成每帧像素值为0和1的图像Bk
Figure FDA0004079688170000011
其中,th1表示运动阈值,取值为5;
(5b)计算每帧处理后的图像Bk中像素值为1的像素点个数nk
nk=∑∑Bk
(5c)根据每个像素点个数nk判断目标手运动状况,以调整每个质心Ck,获得每个调整后的质心C′k
Figure FDA0004079688170000012
其中,当k取1时,C0表示初始设置的质心,取值为C1;th2表示自适应阈值;
(6)对调整后的质心C′1,C′2,C′3,C′4进行处理,以得到运动状态结果:
(6a)计算调整后的质心C′1与C′2、C′2与C′3、C′3与C′4之间的向量,获得三个质心向量,分别记为
Figure FDA0004079688170000021
Figure FDA0004079688170000022
其中,C′x 1,C′y 1分别表示调整后质心C′1的横坐标和纵坐标值,C′x 2,C′y 2分别表示调整后质心C′2的横坐标和纵坐标值,C′x 3,C′y 3分别表示调整后质心C′3的横坐标和纵坐标值,C′x 4,C′y 4分别表示调整后质心C′4的横坐标和纵坐标值;
(6b)根据
Figure FDA0004079688170000023
获得三个状态值,分别记为s1,s2,s3
Figure FDA0004079688170000024
其中,
Figure FDA0004079688170000025
分别表示横坐标方向和纵坐标方向的单位向量,符号*表示乘号;
(6c)根据三个状态值s1,s2,s3大小的比较结果,确定手部动作识别结果,记为d:
Figure FDA0004079688170000026
(6d)根据手部动作识别结果d,输出手部动作识别信息:即当d=4时,输出手部向右运动信息;当d=3时,输出手部向上运动信息;当d=2时,输出手部向左运动信息;当d=1时,输出手部向下运动信息;当d=0时,输出手部静止状态信息。
2.根据权利要求1所述的方法,其特征在于,(1)中计算读入图像之间的差分图,按如下公式进行:
Figure FDA0004079688170000031
其中,th3表示差分阈值,取值为20;Mk表示第k帧的前景目标图像,k=1,2,3,4。
3.根据权利要求1所述的方法,其特征在于,(2)中取出的Cr分量,公式表示如下:
Cr=0.439R-0.368G-0.071B+128
其中R,G,B分别表示RGB格式图像的红绿蓝通道数据。
4.根据权利要求1所述的方法,其特征在于,(2)中计算Cr分量中每一个像素是肤色的概率P,按如下公式进行:
Figure FDA0004079688170000032
其中,a1表示肤色均值,a2表示肤色方差值,exp()函数表示自然指数,符号*表示乘号。
5.根据权利要求1所述的方法,其特征在于,(3)中结合肤色概率P对四帧前景目标图像M1,M2,M3,M4进行贝叶斯估计,以获得四帧目标手图像H1,H2,H3,H4,按如下步骤如下:
(3a)对四帧前景目标图像M1,M2,M3,M4做归一化处理,以获得四个前景运动目标概率Ok
Ok=Mk/255,k=1,2,3,4;
(3b)将每个前景运动目标概率Ok与肤色概率P相乘,得到每个目标手概率Gk
Gk=Ok*P;
(3c)将每个目标手概率Gk与255相乘,得到每帧目标手图像Hk
Hk=Gk*255。
6.根据权利要求1所述的方法,其特征在于,(4)中从每帧目标手图像Hk中获取每个目标手图像质心Ck,其中横坐标值
Figure FDA0004079688170000041
纵坐标值
Figure FDA0004079688170000042
按如下公式进行:
Figure FDA0004079688170000043
Figure FDA0004079688170000044
其中,xk,yk分别为目标手图像Hk中横坐标和纵坐标值,符号*表示乘号。
CN202011326316.1A 2020-11-24 2020-11-24 基于帧差法的手部动作实时识别方法 Active CN112446321B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011326316.1A CN112446321B (zh) 2020-11-24 2020-11-24 基于帧差法的手部动作实时识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011326316.1A CN112446321B (zh) 2020-11-24 2020-11-24 基于帧差法的手部动作实时识别方法

Publications (2)

Publication Number Publication Date
CN112446321A CN112446321A (zh) 2021-03-05
CN112446321B true CN112446321B (zh) 2023-04-18

Family

ID=74737279

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011326316.1A Active CN112446321B (zh) 2020-11-24 2020-11-24 基于帧差法的手部动作实时识别方法

Country Status (1)

Country Link
CN (1) CN112446321B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0849697A1 (en) * 1996-12-20 1998-06-24 Hitachi Europe Limited A hand gesture recognition system and method
CN104317385A (zh) * 2014-06-26 2015-01-28 青岛海信电器股份有限公司 一种手势识别方法和系统
CN104463250A (zh) * 2014-12-12 2015-03-25 广东工业大学 一种基于达芬奇技术的手语识别翻译方法
CN109190516A (zh) * 2018-08-14 2019-01-11 东北大学 一种基于手掌边缘轮廓矢量化的静态手势识别方法
CN110287894A (zh) * 2019-06-27 2019-09-27 深圳市优象计算技术有限公司 一种针对超广角视频的手势识别方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0849697A1 (en) * 1996-12-20 1998-06-24 Hitachi Europe Limited A hand gesture recognition system and method
CN104317385A (zh) * 2014-06-26 2015-01-28 青岛海信电器股份有限公司 一种手势识别方法和系统
CN104463250A (zh) * 2014-12-12 2015-03-25 广东工业大学 一种基于达芬奇技术的手语识别翻译方法
CN109190516A (zh) * 2018-08-14 2019-01-11 东北大学 一种基于手掌边缘轮廓矢量化的静态手势识别方法
CN110287894A (zh) * 2019-06-27 2019-09-27 深圳市优象计算技术有限公司 一种针对超广角视频的手势识别方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Implementation of hand gesture recognition based on flexible sensor array for mobile devices";Sung-Woo Byun et al.;《2019 IEEE International Conference on Consumer Electronics (ICCE)》;20191231;第1-4页 *
"基于双目视觉的人手定位与手势识别系统研究";谭同德 等;《计算机工程与设计》;20120131;第259-264页 *

Also Published As

Publication number Publication date
CN112446321A (zh) 2021-03-05

Similar Documents

Publication Publication Date Title
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN108492343B (zh) 一种扩充目标识别的训练数据的图像合成方法
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN103593680B (zh) 一种基于隐马尔科夫模型自增量学习的动态手势识别方法
CN108717524B (zh) 一种基于双摄手机和人工智能系统的手势识别系统
CN112862792B (zh) 一种用于小样本图像数据集的小麦白粉病孢子分割方法
CN110163239B (zh) 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN106599863A (zh) 一种基于迁移学习技术的深度人脸识别方法
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
WO2013106984A1 (en) Learning painting styles for painterly rendering
CN106529378B (zh) 一种亚裔人脸的年龄特征模型生成方法及年龄估计方法
CN107909008A (zh) 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法
CN110032932B (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN104392233B (zh) 一种基于区域的图像显著图提取方法
CN110827304B (zh) 一种基于深度卷积网络与水平集方法的中医舌像定位方法和系统
CN108537196B (zh) 基于运动历史点云生成的时空分布图的人体行为识别方法
CN112906550B (zh) 一种基于分水岭变换的静态手势识别方法
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN112487981A (zh) 基于双路分割的ma-yolo动态手势快速识别方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
Zhang et al. Inkthetics: a comprehensive computational model for aesthetic evaluation of Chinese ink paintings
CN115049814B (zh) 采用神经网络模型的护眼灯智能调节方法
CN112163508A (zh) 一种基于真实场景的文字识别方法、系统及ocr终端
Mao et al. Classroom micro-expression recognition algorithms based on multi-feature fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant