CN116311500A - 基于自适应手势帧序列提取算法的实时手势识别方法 - Google Patents
基于自适应手势帧序列提取算法的实时手势识别方法 Download PDFInfo
- Publication number
- CN116311500A CN116311500A CN202310103156.1A CN202310103156A CN116311500A CN 116311500 A CN116311500 A CN 116311500A CN 202310103156 A CN202310103156 A CN 202310103156A CN 116311500 A CN116311500 A CN 116311500A
- Authority
- CN
- China
- Prior art keywords
- gesture
- sequence
- feature
- label
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于自适应手势帧序列提取算法的实时手势识别方法,属于人机交互领域。包括构建一个自适应网络来选择视频中具有判别性的帧序列,使算法能够根据视频中手势的种类自动调节截取的视频帧数,并将挑选的帧序列的特征输入到实时手势识别网络中进行判别任务,并将返回值反馈到原有算法网络中,与原算法网络联合训练并相互促进。优点在于:缩短了识别时间,在应用中,可以有效避免在静态手势识别过程中,需要测试者保持手势静止一段时间,才能得到手势识别结果的问题,提高系统识别速度,降低系统延迟。
Description
技术领域
本发明属于人机交互领域,具体涉及一种基于自适应手势帧序列提取的实时识别方法。
背景技术
随着计算机技术的快速发展,人与计算机间的信息交互必不可少,而用手势执行指令与计算机进行交互相较使用鼠标等硬件控制更为智能、自然。手势识别的交互方式主要有基于外部设备的方法和基于计算机视觉的方法,而基于计算机视觉的方式更为灵活,设备成本更低,这种方式面对的挑战主要是选择在缩放、照明、旋转上具备不变形的特征,在复杂背景下进行准确的手势分割,以及进行准确度较高的实时识别。
随着机器视觉技术的发展,使用深度传感器进行物体识别,行为识别等的相关应用越来越多,区别于普通摄像头的是在于深度相机能检测到手势到摄像头的距离,能够更好地还原手势的空间位置。
基于计算机视觉的手势识别较难进行准确度高的实时识别原因主要有以下两点:
1、动态手势视频通常包含数百个视频帧,在处理数据集中大量图像数据时非常耗时。
2、在实际的手势识别应用系统中,当利用实时获取的静态手势进行识别时,测试者需要保持手势静止一段时间,才能得到手势识别结果,这样会降低系统识别速度,产生系统延迟。
发明内容
本发明提供一种基于自适应手势帧序列提取算法的实时手势识别方法,提高了手势识别的实时性,解决进行实时手势中静态手势识别时的识别延迟问题,该方法可适用于逐帧提取手势特征的实时手势识别方法。
本发明采取的技术方案是:包括以下步骤:
步骤1:在手势识别程序中载入并读取预先生成的M条随机线段数据并采用深度相机获取实时深度图像;
步骤2:使用计算机键入分类标签并录制每个分类标签对应的多个深度视频帧序列,作为训练集,其中每一个深度视频帧序列包含N帧,为一个样本;
步骤3:计算每个样本的手势特征值;
步骤4:计算同类样本的动态分类阈值;
步骤5:同时通过对实时获取的当前一帧图像数据和最近N帧深度视频帧序列进行计算,得到两个分类结果;
步骤6:将两个分类结果进行比较,输出与样本相差更小的分类结果,作为最终手势分类结果。
本发明所述步骤1具体为:根据实验观察,为了保证随机线段尽最大可能遍布在图像上,以便用于充分描述手势,M值的选择不小于1000。
本发明所述步骤2具体为:每个样本都有一条动作轨迹,将动作轨迹定义为:在共有N帧的深度视频帧序列中,由计算得到第n帧的第m条随机线段对应的特征向量值为fm (n),共有M条随机线段,第n帧的特征向量p(n)=[f1 (n),f2 (n),...,fM (n)],按照深度视频帧序列顺序连接N个特征向量就形成了一条轨迹T=[p(1),p(2),...,p(N)],即为动作轨迹,根据实验观察,为了兼顾对有大量数据的静态手势和动态手势的识别,帧数N值选择不小于30,而分类标签相同的样本即为同类样本。
本发明所述步骤3包括以下步骤:
步骤3.1:获得对深度视频帧序列进行分割后的手部区域;
步骤3.2:提取M个随机线段的特征向量值;
将M个随机生成的线段散布在序列每一帧图像的手部区域上,每个随机线段都对应一个特征向量,特征向量由以下五个特征构成:
特征一:定义为随机线段所在手部区域像素占整幅图像像素的比例;
特征二:定义为随机线段覆盖的手部区域像素的平均深度值;
特征三:表示最小深度值的像素点在随机线段上的位置;
特征四:表示最大深度值的像素点在随机线段上的位置;
特征五:表示手部区域像素深度值的变化特点,用随机线段上手部区域相邻接的像素的深度差的绝对值的加和估算;
最终为每条随机线段计算得到一个特征向量值;
步骤3.3:基于步骤3.2得到的随机线段特征向量值,计算动作轨迹的三种特征;
第一种特征是三维距离特征,描述深度视频帧序列中的动作轨迹上特征点在三维空间上的距离,可以表示出手势外观;
第二种特征是运动长度特征,可以表示出手势在空间中随时间变换的位置,计算运动长度特征公式如下:
第三种特征是速度特征,通过计算手势运动速度得到。
本发明所述步骤4包括以下步骤:
步骤4.1:计算三维距离特征差、运动长度特征差、速度特征差;
三维距离特征差计算公式:
第n帧两个特征向量pa (n)和pb (n)的距离定义为:
其中fm,a (n)和fm,b (n)分别表示特征向量pa (n)和pb (n)在M个数值中的第m个值,三维距离特征差即为两个特征向量之间的欧式距离,即:
其中Sa和Sb表示需进行特征差计算的两个深度视频帧序列;
运动长度特征差计算公式:
其中,Tl和Ts分别表示对于深度视频帧序列Sa和Sb对应的动作轨迹Ta和Tb中长度特征值较大和较小的轨迹;
速度特征差计算公式:
其中va (n)和vb (n)分别表示为在深度视频帧序列Sa和Sb中,手在第n帧中的移动速度;
步骤4.2:计算样本动态阈值;
每个手势标签对应阈值Th(Label(S)),阈值的计算方法是:对训练集中所有标签相同的样本两两之间的三种特征差值的中位数进行加权平均,即:
Th(Label(S))=w1·medianD1(Sa,Sb)+w2·medianD2(Sa,Sb)+w3·medianD3(Sa,Sb)
其中w1,w2,w3表示三种特征差值所占权值,通过进行多次实验,取平均识别率高的情况所对应的w1,w2,w3值作为动态阈值的权值;
两个深度视频帧序列Sa和Sb的差异性用D(Sa,Sb)表示,其计算公式如下:
D(Sa,Sb)=w1·medianD1(Sa,Sb)+w2·medianD2(Sa,Sb)+w3·medianD3(Sa,Sb)
其中w1,w2,w3表示三种特征差值所占权值,通过进行多次实验,取平均识别率高的情况所对应的w1,w2,w3值作为动态阈值的权值。
本发明所述步骤5包括以下步骤:
步骤5.1:对实时获取的当前一帧深度图像的数据进行处理,得到一个分类结果1;
将实时获取到深度视频的最近一帧手势特征进行延展,即将当前一帧的特征向量进行复制,得到与样本相同帧数,即N帧的特征向量数,用这些向量组成一条动作轨迹,并计算处理后的帧序列特征值,计算该值与样本特征差,与样本阈值进行比较,输出一个分类结果1;
手势阈值对比及分类方法如下:
将对当前一帧的特征向量进行复制后得到的序列用S0表示,序列S1为实时测试前采集的样本的深度视频帧序列,当满足以下条件时,序列S0与样本的深度视频帧序列S1匹配:
D(S0,S1)<Th(label(S1))
其中label(S1)是分类标签,每个手势标签对应的阈值Th(label(S1))由对对应标签下样本进行动态阈值计算得到;
在实时识别时,每次深度相机捕获到最新一帧后,将组成的动作轨迹对应序列与训练集中的所有样本深度视频帧序列进行比较,若没有找到匹配项,算法不会输出;若一或多个匹配项,将对应的1/D(S0,S1)作为每个匹配样本的分数,使用KNN算法输出一个累积分数最大的标签作为分类结果1;
步骤5.2:生成实时获取的深度视频帧序列中由最近N帧构成的动作轨迹,计算深度视频帧序列特征值,并与不同种类样本阈值相对比,得到另一个分类结果2;
手势阈值对比及分类方法如下:
将最近N帧深度视频帧序列用S00表示,序列S2为实时测试前采集的样本深度视频帧序列,当满足以下条件时,序列S00与样本序列S2匹配:
D(S00,S2)<Th(label(S2))
其中label(S2)是分类标签,每个手势标签对应的阈值Th(label(S2))对对应标签下样本进行动态阈值计算得到;
在实时识别时,将最近N帧深度视频帧序列与训练集中的所有样本深度视频帧序列进行比较,若没有找到匹配项,算法不会输出;若一或多个匹配项,将对应的1/D(S00,S2)作为每个匹配样本的分数,使用KNN算法输出一个累积分数最大的标签作为分类结果2。
本发明所述步骤6包括以下步骤:
步骤6.1:用DIF1表示生成的手势动作轨迹与分类结果1对应手势动作轨迹的差异程度:
DIF1=|D(S0,S1)-Th(label(S1))|
用DIF2表示实时手势动作轨迹与分类结果2对应手势动作轨迹的差异程度:
DIF2=|D(S00,S2)-Th(label(S2))|
步骤6.2:当DIF1<=DIF2时,程序判别为T,输出分类结果1;否则,程序判别为F,输出分类结果2。
本发明的优点在于:使用自适应帧序列提取的方法,根据静态手势在深度视频帧序列中每一帧都相同的特点,通过对深度视频帧序列的最近一帧深度图像数据进行处理,并联合此前已经获取的最近N帧中深度视频帧序列的特征值得到分类结果,而非等待从当前一帧开始再提取N帧深度图像数据才能得到分类结果,缩短了识别时间。在应用中,可以有效避免在静态手势识别过程中,需要测试者保持手势静止一段时间,才能得到手势识别结果的问题,提高系统识别速度,降低系统延迟。
附图说明
图1是本发明方法的流程图。
具体实施方式
本发明涉及一种自适应手势帧序列提取算法,包括下列步骤:
1.在手势识别程序中载入并读取预先生成的M=1000条随机线段数据并采用深度相机获取实时深度图像;
2.使用计算机键入分类标签并录制每个分类标签对应的多个深度视频帧序列,作为训练集,其中每一个深度视频帧序列包含N=30帧,为一个样本;
每个样本都有一条动作轨迹。将动作轨迹定义为:在共有N=30帧的深度视频帧序列中,由计算得到第n帧的第m条随机线段对应的特征向量值为fm (n)。共有M=1000条随机线段,第n帧的特征向量p(n)=[f1 (n),f2 (n),...,f1000 (n)],按照深度视频帧序列顺序连接N个特征向量就形成了一条轨迹T=[p(1),p(2),...,p(N)],即为动作轨迹;
分类标签相同的样本即为同类样本;
3.计算每个样本的手势特征值
(1)获得对深度视频帧序列进行分割后的手部区域;
(2)提取1000个随机线段特征以构成1000个维度的特征向量,将1000个随机线段散布在序列每一帧图像的手部区域上,每个随机线段都对应一个特征向量,特征向量由以下五个特征构成:
特征一:定义为随机线段所在手部区域像素占整幅图像像素的比例;
特征二:定义为随机线段覆盖的手部区域像素的平均深度值;
特征三:表示最小深度值的像素点在随机线段上的位置;
特征四:表示最大深度值的像素点在随机线段上的位置;
特征五:表示手部区域像素深度值的变化特点,用随机线段上手部区域相邻接的像素的深度差的绝对值的加和估算;
最终为每条随机线段计算得到一个特征向量值;
(1)基于得到的随机线段特征向量值,计算动作轨迹的三种特征;
第一种特征是三维距离特征,描述深度视频帧序列中的动作轨迹上特征点在三维空间上的距离,可以表示出手势外观;
第二种特征是运动长度特征,可以表示出手势在空间中随时间变换的位置,计算运动长度特征公式如下:
第三种特征是速度特征,通过计算手势运动速度得到;
4.计算同类样本的动态分类阈值
(1)计算三维距离特征差、运动长度特征差、速度特征差;
三维距离特征差计算公式:
第n帧两个特征向量pa (n)和pb (n)的距离定义为
其中fm,a (n)和fm,b (n)分别表示特征向量pa (n)和pb (n)在1000个数值中的第m个值,轨迹特征差即为两个特征向量之间的欧式距离,即:
其中Sa和Sb表示需进行特征差计算的两个深度视频帧序列;
运动长度特征差计算公式:
其中,Tl和Ts分别表示对于深度视频帧序列Sa和Sb对应的动作轨迹Ta和Tb中长度特征值较大和较小的轨迹;
特征速度差计算公式:
其中va (n)和vb (n)分别表示为在深度视频帧序列Sa和Sb中,手在第n帧中的移动速度;
(2)计算样本动态阈值
每个手势标签对应阈值Th(Label(S)),阈值的计算方法是:对训练集中所有标签相同的样本两两之间的三种特征差值的中位数进行加权平均,即:
Th(Label(S))=w1·medianD1(Sa,Sb)+w2·medianD2(Sa,Sb)+w3·medianD3(Sa,Sb)(6)
两个深度视频帧序列Sa和Sb的差异性用D(Sa,Sb)表示,其计算公式如下:
D(Sa,Sb)=w1·medianD1(Sa,Sb)+w2·medianD2(Sa,Sb)+w3·medianD3(Sa,Sb) (7)
其中w1,w2,w3表示三种特征差值所占权值,通过进行多次实验,取平均识别率高的情况所对应的w1,w2,w3值作为动态阈值的权值;
5.同时通过对实时获取的当前一帧图像数据和最近三十帧图像数据进行计算,分别与不同标签样本阈值进行比较,得到两个分类结果;
(1)对实时获取的当前一帧图像数据进行处理,得到一个分类结果1;
将实时获取到深度视频的最近一帧手势特征进行延展,即将当前一帧的特征向量进行复制,得到与样本相同帧数,即三十帧的特征向量数,用这些向量组成一条动作轨迹,并计算处理后的帧序列特征值,计算该值与样本特征差,与样本阈值进行比较,输出一个分类结果1;
手势阈值对比及分类方法如下:
将对当前一帧的特征向量进行复制后得到的序列用S0表示,序列S1为实时测试前采集的样本的深度视频帧序列;当满足以下条件时,序列S0与样本的深度视频帧序列S1匹配:
D(S0,S1)<Th(label(S1)) (8)
其中label(S1)是分类标签。每个手势标签对应的阈值Th(label(S1))由对对应标签下样本进行动态阈值计算得到;
在实时识别时,每次深度相机捕获到最新一帧后,按照上述公式(8)将组成的动作轨迹对应序列与训练集中的所有样本深度视频帧序列进行比较,若没有找到匹配项,算法不会输出;若一或多个匹配项,将对应的1/D(S0,S1)作为每个匹配样本的分数,使用KNN算法输出一个累积分数最大的标签作为分类结果1;
(2)生成实时获取的深度视频帧序列中由最近三十帧构成的动作轨迹,计算深度视频帧序列特征值,并与不同种类样本阈值相对比,得到另一个分类结果2;
手势阈值对比及分类方法如下:
将最近三十帧深度视频帧序列用S00表示,序列S2为实时测试前采集的样本深度视频帧序列。当满足以下条件时,序列S00与样本序列S2匹配:
D(S00,S2)<Th(label(S2)) (9)
其中label(S2)是分类标签。每个手势标签对应的阈值Th(label(S2))对对应标签下样本进行动态阈值计算得到;
在实时识别时,按照上述公式(9)将最近三十帧深度视频帧序列与训练集中的所有样本深度视频帧序列进行比较,若没有找到匹配项,算法不会输出;若一或多个匹配项,将对应的1/D(S00,S2)作为每个匹配样本的分数,使用KNN算法输出一个累积分数最大的标签作为分类结果2;
6.将两个分类结果进行比较,输出与样本相差更小的分类结果,作为最终手势分类结果;
用DIF1表示生成的手势动作轨迹与分类结果1对应手势动作轨迹的差异程度:
DIF1=|D(S0,S1)-Th(label(S1))| (9)
用DIF2表示实时手势动作轨迹与分类结果2对应手势动作轨迹的差异程度:
DIF2=|D(S00,S2)-Th(label(S2))| (10)
当DIF1<=DIF2时,程序判别为T,输出分类结果1;否则,程序判别为F,输出分类结果2。
Claims (7)
1.一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:包括以下步骤:
步骤1:在手势识别程序中载入并读取预先生成的M条随机线段数据并采用深度相机获取实时深度图像;
步骤2:使用计算机键入分类标签并录制每个分类标签对应的多个深度视频帧序列,作为训练集,其中每一个深度视频帧序列包含N帧,为一个样本;
步骤3:计算每个样本的手势特征值;
步骤4:计算同类样本的动态分类阈值;
步骤5:同时通过对实时获取的当前一帧图像数据和最近N帧深度视频帧序列进行计算,得到两个分类结果;
步骤6:将两个分类结果进行比较,输出与样本相差更小的分类结果,作为最终手势分类结果。
2.根据权利要求1所述的一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:所述步骤1具体为:根据实验观察,为了保证随机线段尽最大可能遍布在图像上,以便用于充分描述手势,M值的选择不小于1000。
3.根据权利要求1所述的一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:所述步骤2具体为:每个样本都有一条动作轨迹,将动作轨迹定义为:在共有N帧的深度视频帧序列中,由计算得到第n帧的第m条随机线段对应的特征向量值为fm (n),共有M条随机线段,第n帧的特征向量p(n)=[f1 (n),f2 (n),...,fM (n)],按照深度视频帧序列顺序连接N个特征向量就形成了一条轨迹T=[p(1),p(2),...,p(N)],即为动作轨迹,根据实验观察,为了兼顾对有大量数据的静态手势和动态手势的识别,帧数N值选择不小于30,而分类标签相同的样本即为同类样本。
4.根据权利要求1所述的一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:所述步骤3包括以下步骤:
步骤3.1:获得对深度视频帧序列进行分割后的手部区域;
步骤3.2:提取M个随机线段的特征向量值;
将M个随机生成的线段散布在序列每一帧图像的手部区域上,每个随机线段都对应一个特征向量,特征向量由以下五个特征构成:
特征一:定义为随机线段所在手部区域像素占整幅图像像素的比例;
特征二:定义为随机线段覆盖的手部区域像素的平均深度值;
特征三:表示最小深度值的像素点在随机线段上的位置;
特征四:表示最大深度值的像素点在随机线段上的位置;
特征五:表示手部区域像素深度值的变化特点,用随机线段上手部区域相邻接的像素的深度差的绝对值的加和估算;
最终为每条随机线段计算得到一个特征向量值;
步骤3.3:基于步骤3.2得到的随机线段特征向量值,计算动作轨迹的三种特征;
第一种特征是三维距离特征,描述深度视频帧序列中的动作轨迹上特征点在三维空间上的距离,可以表示出手势外观;
第二种特征是运动长度特征,可以表示出手势在空间中随时间变换的位置,计算运动长度特征公式如下:
第三种特征是速度特征,通过计算手势运动速度得到。
5.根据权利要求1所述的一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:所述步骤4包括以下步骤:
步骤4.1:计算三维距离特征差、运动长度特征差、速度特征差;
三维距离特征差计算公式:
第n帧两个特征向量pa (n)和pb (n)的距离定义为:
其中fm,a (n)和fm,b (n)分别表示特征向量pa (n)和pb (n)在M个数值中的第m个值,三维距离特征差即为两个特征向量之间的欧式距离,即:
其中Sa和Sb表示需进行特征差计算的两个深度视频帧序列;
运动长度特征差计算公式:
其中,Tl和Ts分别表示对于深度视频帧序列Sa和Sb对应的动作轨迹Ta和Tb中长度特征值较大和较小的轨迹;
速度特征差计算公式:
其中va (n)和vb (n)分别表示为在深度视频帧序列Sa和Sb中,手在第n帧中的移动速度;
步骤4.2:计算样本动态阈值;
每个手势标签对应阈值Th(Label(S)),阈值的计算方法是:对训练集中所有标签相同的样本两两之间的三种特征差值的中位数进行加权平均,即:
Th(Label(S))=w1·medianD1(Sa,Sb)+w2·medianD2(Sa,Sb)+w3·medianD3(Sa,Sb)
其中w1,w2,w3表示三种特征差值所占权值,通过进行多次实验,取平均识别率高的情况所对应的w1,w2,w3值作为动态阈值的权值;
两个深度视频帧序列Sa和Sb的差异性用D(Sa,Sb)表示,其计算公式如下:
D(Sa,Sb)=w1·medianD1(Sa,Sb)+w2·medianD2(Sa,Sb)+w3·medianD3(Sa,Sb)
其中w1,w2,w3表示三种特征差值所占权值,通过进行多次实验,取平均识别率高的情况所对应的w1,w2,w3值作为动态阈值的权值。
6.根据权利要求1所述的一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:所述步骤5包括以下步骤:
步骤5.1:对实时获取的当前一帧深度图像的数据进行处理,得到一个分类结果1;
将实时获取到深度视频的最近一帧手势特征进行延展,即将当前一帧的特征向量进行复制,得到与样本相同帧数,即N帧的特征向量数,用这些向量组成一条动作轨迹,并计算处理后的帧序列特征值,计算该值与样本特征差,与样本阈值进行比较,输出一个分类结果1;
手势阈值对比及分类方法如下:
将对当前一帧的特征向量进行复制后得到的序列用S0表示,序列S1为实时测试前采集的样本的深度视频帧序列,当满足以下条件时,序列S0与样本的深度视频帧序列S1匹配:
D(S0,S1)<Th(label(S1))
其中label(S1)是分类标签,每个手势标签对应的阈值Th(label(S1))由对对应标签下样本进行动态阈值计算得到;
在实时识别时,每次深度相机捕获到最新一帧后,将组成的动作轨迹对应序列与训练集中的所有样本深度视频帧序列进行比较,若没有找到匹配项,算法不会输出;若一或多个匹配项,将对应的1/D(S0,S1)作为每个匹配样本的分数,使用KNN算法输出一个累积分数最大的标签作为分类结果1;
步骤5.2:生成实时获取的深度视频帧序列中由最近N帧构成的动作轨迹,计算深度视频帧序列特征值,并与不同种类样本阈值相对比,得到另一个分类结果2;
手势阈值对比及分类方法如下:
将最近N帧深度视频帧序列用S00表示,序列S2为实时测试前采集的样本深度视频帧序列,当满足以下条件时,序列S00与样本序列S2匹配:
D(S00,S2)<Th(label(S2))
其中label(S2)是分类标签,每个手势标签对应的阈值Th(label(S2))对对应标签下样本进行动态阈值计算得到;
在实时识别时,将最近N帧深度视频帧序列与训练集中的所有样本深度视频帧序列进行比较,若没有找到匹配项,算法不会输出;若一或多个匹配项,将对应的1/D(S00,S2)作为每个匹配样本的分数,使用KNN算法输出一个累积分数最大的标签作为分类结果2。
7.根据权利要求1所述的一种基于自适应手势帧序列提取算法的实时手势识别方法,其特征在于:所述步骤6包括以下步骤:
步骤6.1:用DIF1表示生成的手势动作轨迹与分类结果1对应手势动作轨迹的差异程度:
DIF1=D(S0,S1)-Th(label(S1))
用DIF2表示实时手势动作轨迹与分类结果2对应手势动作轨迹的差异程度:
DIF2=D(S00,S2)-Th(label(S2))
步骤6.2:当DIF1<=DIF2时,程序判别为T,输出分类结果1;否则,程序判别为F,输出分类结果2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310103156.1A CN116311500A (zh) | 2023-02-10 | 2023-02-10 | 基于自适应手势帧序列提取算法的实时手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310103156.1A CN116311500A (zh) | 2023-02-10 | 2023-02-10 | 基于自适应手势帧序列提取算法的实时手势识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311500A true CN116311500A (zh) | 2023-06-23 |
Family
ID=86833360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310103156.1A Pending CN116311500A (zh) | 2023-02-10 | 2023-02-10 | 基于自适应手势帧序列提取算法的实时手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311500A (zh) |
-
2023
- 2023-02-10 CN CN202310103156.1A patent/CN116311500A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chang et al. | Expnet: Landmark-free, deep, 3d facial expressions | |
JP6547069B2 (ja) | 物体検出のためのサブカテゴリ認識機能付き畳み込みニューラルネットワーク | |
Qiao et al. | Learning discriminative trajectorylet detector sets for accurate skeleton-based action recognition | |
EP2352128B1 (en) | Mobile body detection method and mobile body detection apparatus | |
CN111797709B (zh) | 一种基于回归检测的实时动态手势轨迹识别方法 | |
Zhuge et al. | Deep embedding features for salient object detection | |
Chen et al. | Face alignment with kernel density deep neural network | |
Ong et al. | Robust facial feature tracking using shape-constrained multiresolution-selected linear predictors | |
Kuzmanic et al. | Hand shape classification using DTW and LCSS as similarity measures for vision-based gesture recognition system | |
Chong et al. | Modeling representation of videos for anomaly detection using deep learning: A review | |
JP2009140009A (ja) | 情報処理装置および情報処理方法、プログラム、並びに記録媒体 | |
Chetverikov et al. | Dynamic texture as foreground and background | |
CN110598638A (zh) | 模型训练方法、人脸性别预测方法、设备及存储介质 | |
JP2019086979A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Saikia et al. | Head gesture recognition using optical flow based classification with reinforcement of GMM based background subtraction | |
CN107644203B (zh) | 一种形状自适应分类的特征点检测方法 | |
Sulong et al. | HUMAN ACTIVITIES RECOGNITION VIA FEATURES EXTRACTION FROM SKELETON. | |
Talukdar et al. | Human action recognition system using good features and multilayer perceptron network | |
CN102314591A (zh) | 静止前景物体的检测方法和设备 | |
Wu et al. | Human action recognition based on kinematic similarity in real time | |
Tang et al. | Salient moving object detection using stochastic approach filtering | |
Ong et al. | Robust facial feature tracking using selected multi-resolution linear predictors | |
CN116311500A (zh) | 基于自适应手势帧序列提取算法的实时手势识别方法 | |
CN117315767A (zh) | 一种基于ai识别的动态手势行为识别方法及装置 | |
Shitole et al. | Dynamic hand gesture recognition using PCA, Pruning and ANN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |